You are on page 1of 626

Temario

Junta de Andalucía

Auxiliares Técnicos
Opción Informática
Convocatoria
Actualizado para la n de 2
promulgada por Or,de
de septiembre de 20 09 turno libre
/2009).
(BOJA n.º 178, de 10/09
AUXILIARES TÉCNICOS
OPCIÓN INFORMÁTICA
DE LA JUNTA DE ANDALUCÍA

(Sevilla, 23 de septiembre de 2009)


     

  
   

  
  
 
  

  
  
      
  
    



   


 
  

    


      

 
      





 
 
  

 
 
   

   
     

 




  
   
  

       




   ! *'  

  
/    
      / 
   0

         

 
 

)  
   (    


  * 

 




    

   * 

      

   
( 

   
 #

 
 
+,-  
.,,-

  * 

  
     


      
  '    


  
        $     
 %  
  
    
   &   '
     
   

      & (  ) 

  $     (
 



 

  
        
 
  

 
 
    !"    
  
 #
  
 

  
  

   

    
      
 


    
  



   
 
/ 
  

'#


  !"# 
     
    

 
 ' (  ) *+, --- -./

         


#
   


 
  $ 
 
%   
  &
 1  

 
 
  


AUXILIARES TÉCNICOS
OPCIÓN INFORMÁTICA
DE LA JUNTA DE ANDALUCÍA

TEMARIO
AUTOR

JUAN DESONGLES CORRALES


Ingeniero en Informática de Sistemas
Funcionario del Cuerpo Técnico de Informática de la Junta de Andalucía
Jefe de Proceso de Datos de la D.P. de Turismo y Deportes de Sevilla

©Editorial Mad, S.L.


©El autor
Primera edición, septiembre 2009.
Derechos de edición reservados a favor de EDITORIAL MAD, S.L.
Prohibida la reproducción total o parcial sin permiso escrito del editor.
IMPRESO EN ESPAÑA.
Diseño Portada: EDITORIAL MAD, S.L.
Edita: EDITORIAL MAD, S.L.
Plg. Merka, c/B. Nave 1. 41500 ALCALÁ DE GUADAÍRA (Sevilla)
Telf.: +34 902 452 900
WEB: www.mad.es
ISBN: 978-84-676-2775-6.
PRESENTACIÓN

Este volumen recoge los quince temas del programa para las oposiciones a las plazas
de Auxiliares Técnicos de la Junta de Andalucía, Opción Informática, totalmente actualizado
y ajustado, de modo pormenorizado, a cada uno de los contenidos solicitados en esta
convocatoria.

La estructuración del texto pretende que los conceptos expuestos, objeto de estudio,
sean asimilados de modo coherente y preciso, cuidando el encuadre y desarrollo de cada
apartado.

El resto de los temas aparecen recogidos en un volumen común a todas las categorías
de la Junta de Andalucía, que es el Temario y Test de Igualdad de Género para las Oposiciones
de la Junta de Andalucía.

Nos queda sólo recordarle que, para cualquier actualización o modificación en la


convocatoria, no deje de consultar nuestra página web (www.mad.es/actualizaciones).
ÍNDICE

Tema 1. Conceptos de informática. Sistema de información, sistema informático, equi-


po informático, programa, sistema operativo................................................................... 11

Tema 2. El ordenador electrónico. Antecedentes históricos. Evolución de la tecnología


de los ordenadores ...................................................................................................... 33

Tema 3. Equipos informáticos. Elementos principales. Utilización. Concepto de memoria


y de sus distintas clases. Características y función de la memoria principal de un ordenador. 55

Tema 4. Principales unidades de entrada y salida de datos y su utilización. Principales


unidades de almacenamiento de datos y su utilización .................................................... 83

Tema 5. Conceptos básicos de Telemática. Teletratamiento. Módem. Multiplexores,


Enrutadores, Puentes, Adaptadores de líneas. Concentradores. Terminales remotos ........... 163

Tema 6. Sistemas de numeración y su representación. Representación de la infor-


mación. Unidades. Códigos de representación. Organización de la información. Registros,
ficheros, bibliotecas y bases de datos. Modos de acceso a ficheros y datos ....................... 197

Tema 7. Conceptos básicos de Sistemas Operativos. El Supervisor. Multiprogramación


y multiproceso. Proceso en tiempo real. Por lotes, secuencial. Tiempo compartido ............. 269

Tema 8. Lenguajes de programación. Ensambladores. Compiladores. Programa fuente.


Programa objeto. Aplicaciones informáticas. Diagramas. Organigramas ............................. 307

Tema 9. El personal de informática y sus funciones generales. Normas de buena con-


ducta de los profesionales informáticos.......................................................................... 391

Tema 10. Explotación. Distribución y gestión de recursos compartidos. Gestión de


colas, control de spool. Control de acceso de usuarios. Control de trabajos. Manuales de
explotación de aplicaciones informáticas. Funciones, contenido........................................ 419
Tema 11. Explotación. Programas de utilidad. Conversión de soportes. Copias de segu-
ridad. Lenguajes procedimentales y de control ................................................................ 447

Tema 12. Medidas de seguridad de una instalación y de los soportes de información 471

Tema 13. Microinformática. Conceptos básicos. Periferia. Sistemas operativos de mi-


croordenadores ........................................................................................................... 499

Tema 14. Ofimática. Tratamiento de textos. Hojas de cálculo .................................. 531

Tema 15. Redes de ordenadores. Redes de área local. Redes de área extensa. Internet 567
TEMA
1

Conceptos de informática: sistemas de


información, sistema informático, equipo
informático, programa, sistema operativo

En este tema estudiaremos los conceptos básicos de la Informática. Será una


aproximación básica e introductoria a conceptos que serán desarrollados con más
detalle en capítulos siguientes.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 11


CONCEPTOS DE INFORMÁTICA

ESQUEMA INICIAL

1. Introducción

2. Información, datos y proceso


2.1. Definiciones generales
2.2. El entorno informático

3. Comunicación y codificación

4. Magnitudes analógicas y discretas

5. Señales digitales y el sistema binario

6. Las medidas de la información: bits, bytes y demás

7. Conceptos básicos de electrónica digital


7.1. Nivel físico: componentes y circuitos
7.2 Nivel lógico: puertas lógicas y Álgebra de Boole

8. Sistemas, subsistemas, módulos e interfaces

9. Algoritmos, programas e instrucciones

10. Hardware y software

11. Informática y sistema informático


11.1. Informática
11.2. Sistema informático
11.3. Clasificación de los sistemas informáticos
11.4. Evolución y distribución física de los sistemas informáticos
11.5. Organización de los sistemas informáticos

12. Equipo informático (ordenador) y sistema operativo

12 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


CONCEPTOS DE INFORMÁTICA

1. INTRODUCCIÓN
El conocimiento de términos como información, ordenador o programa es imprescindible para
iniciarse en la ciencia de la Informática. Estos conceptos son la base para construir ideas más
complejas y además se utilizarán con frecuencia en el resto del temario; por tanto es muy importante
adquirir una visión de conjunto de nuestros primeros conocimientos informáticos.
En la literatura informática es frecuente el uso del inglés
para denominar estos conceptos. Encontraremos palabras como
software, hardware o Windows, así como otras formadas por
iniciales o siglas como RAM (Random Access Memory), ROM
(Read Only Memory) o USB (Universal Serial Bus). Para algunos
de estos términos no existe su correspondiente versión en espa-
ñol; para otros, aun existiendo, su forma original en inglés está
tan extendida que es comúnmente aceptada sin traducción.
La existencia de tanta terminología anglosajona se debe
principalmente a que ha sido en los Estados Unidos donde más
investigación y desarrollo se ha producido a lo largo de la breve
historia de la Informática. Nosotros, en la medida de lo posible,
utilizaremos conjuntamente sus traducciones al español, pero
sin olvidar que en ocasiones resulta más claro el uso del original
en inglés.

2. INFORMACIÓN, DATOS Y PROCESO El inglés está muy presente en


la terminología informática.

2.1. DEFINICIONES GENERALES


Información es un término muy amplio. La información representa ideas, hechos, relaciones y
propiedades de los objetos, de las personas y del universo en general. El primer paso para utilizar la
información es recibirla. Debemos ser capaces de captar la información para poder interpretarla, es
decir, darle un sentido que incrementa nuestra comprensión hacia algo. Desde este punto de vista
podemos definir:
Información: cualquier señal que recibamos a la que asociemos un significado
y aumente nuestro conocimiento.
Adquirimos información leyendo un libro, observando un telediario, mirando qué luz está encen-
dida en un semáforo, escuchando un discurso, e incluso tocando la taza de café para averiguar su
temperatura. Un ser humano normal adquiere el 90% de la información por medio de la vista, repar-
tiéndose el otro 10% entre los demás sentidos, principalmente el oído.
Teniendo en cuenta lo expuesto, cabe una definición alternativa:
La información se define como toda percepción que permita adquirir cualquier
tipo de conocimiento; por tanto, existirá información cuando se da a conocer algo
que se desconoce.
Por otra parte, un dato es un concepto mucho más preciso. Podemos pensar en un dato como
en una información concreta y no demasiada extensa. Por ejemplo, tomamos la biografía de una
persona y averiguamos su fecha de nacimiento; esta fecha, de forma aislada, se considera un dato
(aunque si seguimos leyendo recibiremos mucha más información sobre su vida).
Un dato es una información breve y concreta que representa una condición o
situación de un sujeto o idea más amplia.
Estudiemos la anterior definición mediante un ejemplo sencillo: en una conversación intercam-
biamos mucha información. Utilizamos para ello una serie de sonidos producidos por la voz y recibidos
por los oídos. Podemos hablar del tiempo, del trabajo y de muchas otras cosas en general, sin em-
bargo, si nos preguntan nuestra edad transmitiremos una información breve y muy concreta. Esta
es la primera condición para que pueda ser considerada como un dato.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 13


CONCEPTOS DE INFORMÁTICA

Por otra parte, la cantidad numérica que estamos expresando tiene sentido porque previamente
se nos ha preguntado la edad; es decir, el dato aportado expresa una característica concreta de un
sujeto de más identidad (nosotros mismos). Esta era la segunda condición para poder hablar de un
dato propiamente dicho.
Un dato está íntimamente ligado al contexto en el que se sitúa. Por ejemplo, el número 27 en sí
mismo aporta poca información, ya que de forma aislada no sabemos si es el número de zapato de
una persona, su edad o los euros que lleva en su bolsillo. Cuando situamos este dato en el contexto
adecuado adquiere todo su significado. En el ejemplo anterior, el contexto consistía en una pregunta
sobre nuestra edad.
El significado completo de un dato (o la información que representa) depen-
de de dos factores, la propia información del dato y el contexto en el que
se sitúa.
La ecuación expuesta a continuación es muy importante, y resume las ideas de estas páginas:
los datos por sí mismos no aportan información útil si no se les aplica una interpretación
lógica, la cual es facilitada por el contexto:

DATOS + INTERPRETACIÓN (CONTEXTO) = INFORMACIÓN ÚTIL

2.2. EL ENTORNO INFORMÁTICO


Las definiciones de algunos conceptos pueden variar ligeramente según el contexto donde se estu-
dien. Nuestro contexto es la informática, pero existen otros, como el de un publicista o el de un psicólogo
donde nuestras definiciones pueden no ser completamente adecuadas a sus circunstancias particulares.

En informática un dato es una información breve y concreta, proporcionada en


un formato específico y que puede ser procesada por un ordenador.

Si continuamos con el ejemplo anterior, cuando proporcionamos nuestra edad transmitiremos una
información breve y muy concreta, como vimos antes, esta es la primera condición de un dato.
En nuestra conversación ambos interlocutores hablan castellano, por lo que nuestra exposición
del dato queda clara. No obstante, un ordenador no entiende este dato si no lo expresamos de una
forma más adecuada a su naturaleza. Al introducir nuestra edad mediante el teclado, el ordenador la
almacena en su memoria en forma de señales digitales (que estudiaremos posteriormente), es decir,
le damos un formato específico que puede ser “entendido” por el ordenador. Esta era la segunda
condición.
El dato se encuentra ahora en la memoria del ordenador, listo para ser procesado electrónica-
mente, cumpliéndose así la tercera condición de la definición.
Aunque los datos pueden usarse como entidades individuales, con frecuencia aparecen asocia-
dos en estructuras más o menos complejas. Un buen ejemplo es nuestro documento nacional de
identidad, donde encontramos un conjunto de datos relacionados sobre nuestra persona: nombre,
dirección, fecha de nacimiento, etc.

En un DNI encontramos una serie de datos individuales formando una estructura más compleja.
La agrupación lógica de datos es una idea esencial en informática.

14 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


CONCEPTOS DE INFORMÁTICA

La idea de agrupar los datos en estructuras más complejas es muy importante en ciertas ramas
de la informática, sobre todo en aquellas relacionadas con la gestión de grandes ficheros (bases de
datos) y con la representación de la información.
Esto nos lleva a redefinir el concepto de información en nuestro nuevo entorno informático:
En informática, la información consiste en un conjunto de datos interrela-
cionados y ordenados según una estructura específica. Esta información puede
almacenarse, procesarse y transmitirse electrónicamente, además de transformar
su formato para su introducción y compresión por un ser humano (mediante un
teclado, pantalla, listado de impresora, etc.).
La información sigue un camino general en informática:
1. La información es introducida en un ordenador por algún medio (un teclado, una tarjeta
electrónica, incluso mediante una orden oral). Ciertos elementos periféricos del ordenador
traducen dicha información a formato electrónico manejable por el ordenador.
2. La información es almacenada en la memoria del ordenador, donde se le aplica un proceso.
3. Los resultados se vuelven a traducir para que los usuarios podamos comprender las conse-
cuencias del proceso de la información original y obtengamos nuevos conocimientos (me-
diante un monitor, un listado, etc.).
Proceso o procesamiento: tratamiento y transformación de la información
que se produce en un ordenador con objeto de obtener resultados útiles para el
ser humano.

3. COMUNICACIÓN Y CODIFICACIÓN
La comunicación entre los seres vivos es una característica fundamental y necesaria de la vida,
siendo a la vez consecuencia directa de ésta. La definición básica de comunicación consiste en
un intercambio de información.
Los mecanismos de comunicación son muy numerosos y diversos, no obstante podemos hacer
una primera clasificación general: los creados por la propia naturaleza y aquellos otros frutos de la
inventiva humana.
En efecto, ya identificamos formas de comunicación en los más primitivos organismos vivos, que
utilizan ciertas moléculas como mensajeros químicos. En el otro extremo se sitúa la capacidad del
habla del ser humano, única en la naturaleza. Por otra parte, como ejemplo de una comunicación
artificial podemos señalar la producida entre un satélite y una base receptora terrestre.
Actualmente el hombre es el máximo exponente de todos los organismos comunicadores, ya que
además de los medios naturales que posee (la capacidad del habla antes comentada), utiliza todo tipo de
dispositivos artificiales para comunicarse. Las razones más importantes de esta diversidad de medios son
la naturaleza eminentemente sociable de la raza humana y la inteligencia creativa que poseemos, factores
que nos conducen al desarrollo de sistemas de comunicación cada vez más perfectos y sofisticados.
Desde una perspectiva humana, la comunicación puede definirse como sigue:
Comunicación: descubrir, manifestar o hacer saber a otra persona una cosa.
Desde el ámbito de la informática, existe otra definición más adecuada:
Comunicación: transmisión de información entre diversas entidades organiza-
da según ciertas reglas básicas.
Esta sencilla definición encierra aspectos significativos:
– Transmisión de información: en el sentido más amplio del término según veíamos en el
apartado anterior.
– Entre diversas entidades: (nótese la generalización del término). Se incluye igualmente
una persona, un dispositivo electrónico o en general cualquier cosa capaz de transmitir in-
formación.
– Organizada según ciertas reglas básicas: que detallan en qué formato se estructura la
información, qué medio se utiliza para su transmisión y otros aspectos que detallaremos más
adelante. Estas reglas en la comunicación se denominan protocolo.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 15


CONCEPTOS DE INFORMÁTICA

Para que cualquier tipo de comunicación pueda efectuarse deben existir ciertos elementos:
– Un emisor que origina la comunicación.
– Un mensaje generado, codificado y transmitido por el emisor.
– Un medio o canal por el cual viaja el mensaje.
– Un receptor que recibe el mensaje, lo decodifica y lo analiza.
El emisor y receptor tienen ciertas características que caben resaltar:
– Realizan una comunicación bidireccional; la infor-
mación fluye en ambos sentidos y emisor y receptor
intercambian sus papeles. Esto ocurre por ejemplo en
una conversación, cuando hablamos y escuchamos
a la otra persona alternativamente. La comunicación
también puede existir entre un único emisor y varios
receptores, tal es el caso de un programa de radio, o
viceversa, por ejemplo una carta enviada por varios
amigos.
– Emisor y receptor pueden estar separados en tiempo
y espacio. Por ejemplo, podemos leer obras de anti-
guos autores griegos ya desaparecidos, o hablar por
teléfono con un amigo que vive en Australia.
El concepto de codificación es muy importante en la comu-
nicación. El mensaje que contiene la información puede codifi-
carse de diversas formas. Por ejemplo, dos indios podrían co- La codificación del mensaje
municarse mediante señales de humo, cuyo significado ambos es fundamental para com-
conocen. Un soldado, sin embargo, no entendería el mensaje. prender su significado.
El mensaje está codificado en forma de señales de humo que
el soldado desconoce, pero no por ello deja de ser válido para
los indios.
El medio utilizado en la comunicación es un factor importante en la codificación, aunque no
definitivo. Por ejemplo, al leer las páginas de este libro, el medio lo constituye el papel y la tinta, sin
embargo, cuando mantenemos una conversación con otra persona, el medio lo constituye el aire y
las ondas sonoras que viajan por él. En ambos casos el sistema de codificación empleado es el cas-
tellano, pero se han utilizado distintos medios.
Veamos otro ejemplo que incluye todos los conceptos estudiados: cuando el lector lee estas
páginas (medio o canal) asimila su contenido porque están escritas en castellano (sistema de
codificación) conocido por el autor (emisor) y por el lector (receptor). Si estas ideas estuviesen
codificadas con símbolos chinos no existiría comunicación, a no ser que el lector conociese dicho
lenguaje.
NOTA: podemos comunicar sin problemas nuestra edad a un alemán, a un
francés y a un inglés, siempre que utilicemos el medio escrito. Efectivamente, to-
dos esos receptores sabrían interpretar un número en un papel. Sin embargo no
ocurriría lo mismo si el medio que se usa es la voz, ya que entonces codificamos en
nuestro propio idioma, que pueden no compartir los receptores.
En los modernos sistemas de comunicación pueden aparecer niveles de codificación más profun-
dos, los cuales el emisor y receptor no tienen por qué conocer.
Imaginemos a dos personas hablando por teléfono. Si utilizan el lenguaje castellano están reali-
zando un primer nivel codificación. Por otra parte se está utilizando un medio más complejo que es
la red telefónica que realiza una segunda codificación. Efectivamente, en el micrófono del emisor
está ocurriendo una transformación de las ondas sonoras en impulsos eléctricos, estos viajan por el
cable hasta alcanzar el otro teléfono, momento en el que se produce la transformación inversa: en el
auricular del receptor los impulsos eléctricos se convierten en ondas sonoras.
Esta segunda codificación se debe al cambio de medio (de ondas sonoras a impulsos eléctricos),
y su existencia puede ser totalmente ignorada por el emisor y el receptor sin que la comunicación se
vea afectada.

16 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


CONCEPTOS DE INFORMÁTICA

Estos fenómenos ocurren también en el mundo informático. La información se codifica a distin-


tos niveles de complejidad, el más básico de los cuales se denomina SISTEMA BINARIO. El sistema
binario está basado en señales digitales que toman sólo dos valores posibles. Este sistema, como
estudiamos en su momento, es causa y efecto del diseño y funcionamiento de los modernos orde-
nadores.
NOTA: el sistema binario se ha introducido como un sistema de codificación
de la información. Esto es adecuado en el mundo de la informática. Sin embargo
desde una aproximación matemática, el sistema binario es un sistema de nume-
ración.
El sistema binario es la codificación propia de los ordenadores, la cual resulta totalmente in-
adecuada para el ser humano. Por tanto debemos diseñar elementos intermedios que traduzcan la
información y nos permitan comunicarnos con los ordenadores.
El teclado es un ejemplo excelente de elemento traductor. En efecto, las teclas están marca-
das con letras del alfabeto, números y signos de puntuación que son fácilmente reconocibles por
nosotros, pero que para un ordenador no tienen ningún significado. Cuando pulsamos una tecla,
los circuitos internos del teclado envían al ordenador una serie de señales digitales que representan
la letra elegida, funcionando así como un complejo traductor entre dos sistemas de codificación
totalmente distintos.

Utilizamos el teclado como herramienta para traducir


la información que será procesada por el ordenador.

4. MAGNITUDES ANALÓGICAS Y DISCRETAS


En el mundo que nos rodea existen muchos factores que se pueden medir de alguna manera.
Por ejemplo, el volumen de la radio, la sensación de calor al coger una sartén o el peso que sentimos
al transportar una carga.
Los ejemplos anteriores están referidos a percepciones apreciables por los sentidos humanos
(oído, tacto, etc.), pero existen otros que reflejan distintos fenómenos físicos más difíciles de per-
cibir por el hombre: la variación de tensión eléctrica en un cable, la presión del aire al llenar un
neumático, etc.
Una magnitud es un factor que puede ser medido, ya sea por los sentidos
humanos o por otros medios. En nuestro contexto informático podemos considerar
magnitud y señal como conceptos equivalentes.
Las mediciones de una magnitud pueden variar con el tiempo. Pensemos en la temperatura de
una habitación vacía en invierno: hace frío. Al entrar conectamos la calefacción y la temperatura co-
mienza a aumentar. A medida que transcurre el tiempo alcanza un valor confortable y desconectamos
la calefacción. Si la mantenemos desconectada, la temperatura comienza a bajar de nuevo hasta
alcanzar su valor original. En la siguiente gráfica se representa la variación de temperatura en nuestra
habitación.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 17


CONCEPTOS DE INFORMÁTICA

         




         

   
   


      


    
    
  

!"   

   

  
    
   "




Variación de la temperatura a lo largo del tiempo. Este es un ejemplo de magnitud analógica

A nivel macroscópico, es decir, desde un punto de vista humano, todas las magnitudes en la
naturaleza varían de forma continua a lo largo del tiempo. Una variación continua significa que no
existen cambios bruscos en la magnitud medida. Siguiendo con el ejemplo de la habitación, podemos
asegurar que la temperatura no bajará de +20 ºC a –15 ºC de forma inmediata, sino a lo largo de un
periodo más o menos largo de tiempo.
Una magnitud o señal es analógica cuando es continua en el tiempo.
Como antes comentábamos, todas las magnitudes de la naturaleza son analógicas y se pueden
representar en una gráfica como una línea continua, sin cortes ni interrupciones.
Por otra parte, el hombre, en su evolución tecnológica, ha introducido un nuevo tipo de magnitud
que no se comporta de esta forma. Son las magnitudes discretas.
Una magnitud o señal es discreta cuando varía a lo largo del tiempo tomando
valores definidos, nunca toma valores intermedios.
De forma coloquial podemos decir que varían “a saltos”. En la siguiente gráfica observamos una
de estas magnitudes que cambia entre los valores 0 y 3.

      




Variación de una magnitud discreta a lo largo del tiempo.


Variación de una magnitud discreta. Esta señal varía de forma discontinua a lo largo del tiempo, tomando valores que cambian
“a saltos”. Este comportamiento ocasiona la aparición de picos o vértices en la gráfica de la señal.

Obsérvese que los cambios se producen pasando directamente de un valor al siguiente. No existe
ningún intervalo de tiempo en el que la señal tome un valor intermedio. En el intervalo t1 el valor es
0 y en t2 el valor es 1, pero no existe ninguno donde el valor sea 0,5.

18 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


CONCEPTOS DE INFORMÁTICA

5. SEÑALES DIGITALES Y EL SISTEMA BINARIO


Las señales digitales son un caso concreto de las magnitudes discretas que estudiábamos en
el apartado anterior. Son muy importantes ya que son la base del funcionamiento de los modernos
ordenadores. Veamos su definición.
Una señal digital es una señal discreta que sólo toma dos valores a lo largo
del tiempo.
Los ordenadores manejan únicamente señales digitales; toda la información que manejan y las
operaciones que realizan se codifican mediante ellas. La razón de ello se debe a cuestiones matemá-
ticas y de diseño electrónico, las cuales condicionan y simplifican la construcción de ordenadores y
de los programas que los manejan.
En la gráfica siguiente aparece una señal digital variando entre los valores genéricos A y B. En los
intervalos t1, t3, t5 y t7 la señal toma el valor A, y en los instantes t2, t4, t6 y t8 toma el valor B.

 
     




Variación de una señal digital a lo largo del tiempo. Una señal digital es una
magnitud discreta que sólo toma dos valores posibles: A o B.

Por otra parte, pero muy relacionado con lo que acabamos de aprender, tenemos el sistema
binario.
El sistema binario es un sistema de numeración que utiliza la base dos.
La anterior definición significa que el sistema binario representa cualquier cantidad con sólo dos
dígitos. El ser humano utiliza el sistema decimal, que consta de 10 dígitos (del 0 al 9), con los cuales
podemos igualmente expresar cualquier cantidad.
Matemáticamente hablando, ambos sistemas poseen muchas similitudes y comparten nume-
rosas propiedades. Por ejemplo, el binario posee toda la gama de operaciones aritméticas (suma,
resta, multiplicación, etc.) que realizamos en decimal. Además consta de algunas otras que le son
exclusivas y que toman nombres como NOT, XOR, etc.
IMPORTANTE: el sistema binario es el sistema de numeración utilizado por
los ordenadores. La base del sistema binario (como su propio nombre indica) es el
dos, lo que significa que sólo tiene dos símbolos: el 0 y el 1, frente a los diez del
sistema decimal.
Si el sistema binario posee los mismos principios que el decimal, con el que estamos más
familiarizados, ¿por qué los ordenadores utilizan el sistema binario y no el decimal? La respuesta
radica en que los circuitos que forman los ordenadores trabajan exclusivamente con señales
digitales.
Parece obvio que el sistema binario es ideal para codificar las señales digitales. En efecto, la
correspondencia es inmediata: el sistema binario, como su propio nombre indica sólo consta de dos
símbolos. Paralelamente las señales digitales sólo alcanzan dos valores.
Generalmente se utiliza el dígito 0 para representar el nivel bajo de la señal binaria, y el 1 para el
alto. De esta forma, la señal de la figura anterior puede ser codificada mediante la secuencia binaria
01010101.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 19


CONCEPTOS DE INFORMÁTICA

6. LAS MEDIDAS DE LA INFORMACIÓN: BITS, BYTES Y DEMÁS


Sabemos que con un único dígito del sistema decimal podemos expresar 10 valores distintos, del 0
hasta el 9. Hemos aprendido sin embargo que con un dígito binario estos valores se reducen a dos: 0 y 1.
La cantidad mínima de información que podemos representar con el sistema
binario se denomina BIT, de Binary digit (dígito binario). El bit es una de las unida-
des básicas del sistema binario y por ende de la informática.
Veamos qué tipo de información se puede representar con un bit.
– Si queremos decir que algo es blanco o negro podemos utilizar un bit. Por ejemplo, asigna-
mos el dígito 0 para el blanco y el 1 para el negro.
– Si queremos codificar el sexo de una persona podemos utilizar un bit: 0 si es hombre, 1 si
es mujer (o viceversa).
No podemos codificar datos que adquieran más de dos valores con un solo bit. Por ejemplo, el
estado de un semáforo tiene tres opciones, rojo, ámbar y verde. Representar esta información con
un dígito decimal no presenta problemas. Podríamos hacerlo de la siguiente manera: 1 para el rojo,
2 para el ámbar y 3 para el verde. No obstante si utilizamos el sistema binario tendríamos que em-
plear una combinación de más de un bit, ya que con uno únicamente representaríamos dos colores.
La siguiente tabla representa esta idea:
Color del semáforo
Rojo Ámbar Verde
Decimal 0 1 2
Sistema empleado
Binario 00 01 10

La tabla anterior nos lleva a pensar sobre la correspondencia entre ambos sistemas. Efecti-
vamente, toda cantidad puede ser expresada con sistemas de numeración de cualquier base. La
dificultad que encontramos en comprender las cantidades expresadas en binario radica en la fuerte
costumbre que tenemos de utilizar exclusivamente el sistema decimal.
La siguiente tabla muestra la correspondencia entre los sistemas decimal, binario y hexadecimal
(este último con base 16 y también muy utilizado en informática):
Sistemas de numeración
Decimal Binario Hexadecimal
0 0 0
1 1 1
2 10 2
3 11 3
4 100 4
5 101 5
6 110 6
7 111 7
8 1000 8
9 1001 9
10 1010 A
11 1011 B
12 1100 C
13 1101 D
14 1110 E
15 1111 F
La correspondencia entre los sistemas de numeración permite afirmar que cualquiera
de ellos es perfectamente válido para representar cualquier cantidad numérica.

20 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


CONCEPTOS DE INFORMÁTICA

NOTA Sobre la tabla anterior: no hay que confundir la lectura de las cantida-
des; 4 en decimal se lee “cuatro”, pero su equivalente en binario (100) no se lee
“cien”, sino “uno-cero-cero”.
El sistema binario puede codificar cualquier número, empleando para ello cadenas de ceros y
unos. Estas cadenas aumentan su longitud a medida que la cantidad representada crece. Por ejem-
plo, el número 4 es 100 en binario, pero 2002 es 11111010010
En informática necesitamos facilitar el manejo de estas cadenas binarias, para ello se agrupan
conjuntos de dígitos binarios. Esta medida simplifica además el diseño de los circuitos digitales y las
operaciones binarias.
Cuando se aplicó toda esta teoría al diseño de los circuitos digitales, se observó la necesidad de
asociar los bits en grupos, con objeto de simplificar algunas operaciones y facilitar los diseños de los
circuitos electrónicos. Las agrupaciones más importantes son las siguientes:

Nombre Bytes Bits


Nibble o cuarteto 4 bits 4
Byte u octeto 1 8
Kilobyte 1.024 8.192
Megabyte 1.048.576 8.388.608
Gigabyte 1.073.741.824 8.589.934.592
Terabyte 1.099.511.627.776 8.796.093.022.208
Agrupaciones de bits más comunes. Esta tabla se expone a modo informativo.
Se recomienda memorizar únicamente las tres primeras filas. Por otra parte, la asociación de bits que
engloba 4 bits (Nibble) actualmente no tiene demasiada utilidad práctica, resultando obsoleta en la mayoría de las situaciones.

Al observar esta tabla podemos apreciar lo siguiente:


– El factor de multiplicación en la segunda columna es de 1.024 veces la cantidad anterior en
lugar de 1.000 como en otras magnitudes. Esto ocurre porque 1024 es el múltiplo de dos
más próximo a 1.000 (recordemos que trabajamos en sistema binario).
– El byte u octeto es considerado como la unidad más importante desde el punto de vista prác-
tico de la informática, así como el bit lo era en el aspecto teórico por representar la cantidad
de información más pequeña posible.
BYTE: agrupación de 8 bits que se trata como una única unidad de infor-
mación.
Existen otras asociaciones más complejas cuyo estudio queda para otros temas. Son las siguientes:
– CARÁCTER: representación de una letra, dígito, signo de puntuación o código especial. Se
representa con 8 bits, es decir con un byte.
– PALABRA: los ordenadores aprovechan las asociaciones de bits para realizar sus opera-
ciones. Por ejemplo, la comunicación por los circuitos internos de un ordenador se realiza
transmitiendo un determinado número de bits simultáneamente. Esta asociación de bits,
que depende de cada tipo de ordenador, da lugar a un concepto muy importante en arqui-
tectura de ordenadores:
PALABRA: número de bits que un ordenador puede procesar en una única
operación. Sus valores más comunes oscilan entre 16, 32, 64 y 128 bits.
– CAMPO: agrupación de información a nivel lógico. Es más compleja que todas las anteriores
en cuanto que almacena información más compleja, por ejemplo un nombre o la edad de
una persona.
– REGISTRO: agrupación lógica de campos, por ejemplo toda la información que el DNI posee
sobre una persona (nombre, fecha de nacimiento, etc.).

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 21


CONCEPTOS DE INFORMÁTICA

7. CONCEPTOS BÁSICOS DE ELECTRÓNICA DIGITAL


Es importante introducir algunas ideas de electrónica antes de estudiar la arquitectura interna de
un ordenador y sus componentes, ya que estos están compuestos básicamente por circuitos electró-
nicos. Existen también algunos elementos mecánicos, sobre todo en los periféricos (dispositivos que
acompañan al ordenador), pero su importancia es poco relevante desde el punto de vista del proceso
de la información.
La electrónica de un ordenador es digital, se basa en señales digitales, me-
diante las cuales es capaz de procesar información de forma muy compleja.
Existen dos niveles de aproximación a la electrónica:
– Electrónico.
– Lógico.

7.1. NIVEL FÍSICO: COMPONENTES Y CIRCUITOS


Los circuitos electrónicos están formados principalmente por resistencias, condensadores, tran-
sistores, etc. En los primeros tiempos de la electrónica estos componentes eran relativamente gran-
des y caros, y se situaban de forma aislada sobre placas de plástico o de material aislante con pistas
conductoras sobre ellos.

Componentes electrónicos discretos dispuestos en un circuito.

Actualmente los componentes más utilizados, los transistores, han evolucionado y se agrupan en
circuitos integrados muy pequeños y complejos. Esto se consigue mediante un importante proceso
de miniaturización e inclusión en pequeñas pastillas de silicio. Estas se protegen del exterior en una
cápsula de plástico, constituyendo los chips o circuitos integrados.

Un chip de ordenador. El encapsulamiento se suele hacer en una pastilla de plástico


en cuyo interior se encuentra el diminuto circuito electrónico que procesa las señales digitales. Obsérvense
los pines en forma de patitas plateadas que se utilizan para conectar el dispositivo al resto del sistema.

Por el interior de los chips circula una corriente eléctrica de bajo voltaje que activa su funciona-
miento. Al ser circuitos digitales sólo admiten dos valores de voltaje eléctrico.

22 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


CONCEPTOS DE INFORMÁTICA

7.2. NIVEL LÓGICO: PUERTAS LÓGICAS Y ÁLGEBRA DE BOOLE


A nivel físico encontramos componentes electrónicos y señales digitales. El nivel lógico, sin em-
bargo, se basa en operaciones matemáticas sobre las señales digitales, para ello se utilizan las pro-
piedades del sistema binario.
El funcionamiento del ordenador se basa en estas operaciones matemáticas, denominada álge-
bra booleana (también lógica booleana o lógica binaria).
CURIOSIDAD: el término “Álgebra Booleana” se acuñó en honor a su descu-
bridor: un matemático inglés llamado Boole.
El álgebra booleana gobierna el funcionamiento de los circuitos electrónicos digitales. El nivel
lógico independiza este funcionamiento de los detalles físicos de los circuitos, como su construcción,
rango de las señales y otros aspectos. El nivel lógico se apoya en unos circuitos digitales ideales que
realizan las operaciones booleanas básicas. Estos circuitos ideales se denominan puertas lógicas y
mediante su combinación podemos conseguir operaciones muy complejas.
Las puertas lógicas son circuitos digitales elementales que transforman una
información de entrada muy básica en otra de salida según los principios de la
lógica booleana.
Las puertas lógicas tienen una o varias entradas y una salida. Por estos canales se mueven las
señales digitales que son transformadas según la función de la puerta lógica. Las transformaciones
que sufren las señales al pasar por la puerta se representan en unas tablas denominadas tablas de
la verdad.
Las tablas de la verdad indican cómo reaccionan las puertas lógicas ante una combinación
en sus señales de entrada (recordemos que las señales sólo toman dos valores, representados
como 0 o 1). Todas las operaciones que un ordenador es capaz de realizar están basadas en es-
tos circuitos básicos. Las puertas lógicas se combinan entre sí para formar unidades mucho más
complicadas.
En la figura podemos observar las puertas lógicas más comunes, los símbolos utilizados para su
representación en los circuitos digitales y sus tablas de la verdad.

NOT A Salida XOR A B Salida


    
    
  
  

AND A B Salida NAND A B Salida


     
     
     
     

OR A B Salida NOR A B Salida


     
     
     
     

Representación y tablas de la verdad de las puertas lógicas que forman los circuitos
de un ordenador digital. La primera columna de cada tabla muestra el nombre de la puerta lógica
y el símbolo por el que se representan. El resto de las columnas constituyen las tablas de la verdad, donde A y B
son las señales de entrada (nótese que la puerta NOT sólo tiene una entrada).

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 23


CONCEPTOS DE INFORMÁTICA

8. SISTEMAS, SUBSISTEMAS, MÓDULOS E INTERFACES


El concepto de sistema es muy importante en el mundo de los ordenadores.
Sistema: conjunto de elementos relacionados funcionalmente cuya misión es
realizar una tarea y obtener ciertos resultados.
Podemos considerar, por ejemplo, un coche como un sistema compuesto por múltiples mecanis-
mos relacionados cuyo objetivo final es trasladar personas.
Una propiedad importante de los sistemas es que frecuentemente aquellos que son complejos
pueden dividirse en otros más sencillos. Hablamos entonces de subsistemas o módulos.
Siguiendo con el ejemplo anterior, el coche es un sistema muy complejo, formado por el subsiste-
ma eléctrico, el subsistema de arranque, el subsistema de transmisión, etc. Cada subsistema cumple
tareas más o menos independientes, para contribuir al correcto funcionamiento global del coche.

Los sistemas complejos se componen de otros más sencillos, como el motor de la figura.
Este es un principio muy importante en informática, pues permite abordar sistemas muy
complejos mediante el estudio, diseño y combinación de otros más sencillos.

CURIOSIDAD: los ordenadores son los sistemas artificiales más complejos que
existen. El cuerpo humano, sin embargo, es un sistema infinitamente más com-
plicado que el más potente ordenador, pero no es producto de la inteligencia del
hombre, sino de millones de años de evolución natural.
Aplicando el razonamiento anterior, podemos afirmar que un ordenador es un sistema que se pue-
de dividir a su vez en subsistemas más sencillos. Desde nuestro contexto informático podemos definir:
Subsistema o módulo: unidad intercambiable que realiza una función concre-
ta y que está acoplada al resto del sistema mediante unas conexiones especiales.
El uso de módulos aporta grandes ventajas al diseño de dispositivos electrónicos. Un buen ejem-
plo lo constituyen los equipos de música, donde podemos ver el amplificador, el giradiscos o el re-
productor de compactos como módulos interconectados por medio de cables y clavijas. Es muy fácil
(si tenemos el dinero necesario) sustituir nuestro viejo amplificador por otro más moderno; tan sólo
hay que desenchufar el viejo y conectar el nuevo. El sistema completo, el equipo de música, sigue
funcionando perfectamente aunque hayamos sustituido uno de sus módulos. Este principio cobra
especial importancia en el ámbito de la informática.

Un equipo de música es un buen ejemplo de diseño modular.


Varios subsistemas con distintas funciones forman el equipo completo.

24 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


CONCEPTOS DE INFORMÁTICA

En general, si se conoce la función de un módulo y sus conexiones, éste se puede ser sustituido
por otro que cumpla las mismas características, sin importar su marca, fabricante o tecnología. Esta
idea es muy importante en diversos aspectos de la informática actual, desde el diseño y la construc-
ción de ordenadores hasta en las modernas técnicas de programación.
Los módulos necesitan mecanismos de conexión con otros módulos. Una interfaz es un punto
de contacto entre dos módulos o entre un módulo y el exterior del sistema. Los cables y conectores
que unen el amplificador con el giradiscos son una buena muestra de interfaz entre módulos.

La clavija de la figura es una interfaz del dispositivo.

Las interfaces de un sistema con el exterior son muy importantes, ya que definen la forma de
comunicarnos con dicho sistema. Por ejemplo, cuando deseamos escuchar la música más fuerte
actuamos sobre la interfaz adecuada: giramos el mando del volumen.
Si aplicamos todas estas ideas al mundo de la informática, podemos pensar en un ordenador
como un sistema compuesto por cierto número de módulos o subsistemas conectados entre sí me-
diante sus correspondientes interfaces. Esta es la idea principal sobre la que basar el estudio de la
estructura y el funcionamiento de un ordenador.

Las flechas señalan las conexiones o interfaces de diversos componentes o subsistemas informáticos.

9. ALGORITMOS, PROGRAMAS E INSTRUCCIONES


Este apartado introduce una nueva perspectiva de la informática: aquella que trata sobre el
aprovechamiento efectivo de los ordenadores. Los resultados que esperamos de un ordenador se
consiguen mediante el diseño y posterior uso de programas y aplicaciones informáticas.
Pensemos en primer lugar que cualquier tarea puede ser descrita mediante una sucesión de
pasos a seguir. La descripción de este conjunto de pasos se denomina algoritmo. Técnicamente la
definición de algoritmo es:
ALGORITMO: descripción detallada de un proceso o tarea mediante la especi-
ficación de los pasos a seguir para su consecución.
Este concepto es muy importante para los programadores de ordenadores y fundamental en in-
formática, ya que el diseño de un buen algoritmo constituye una fase previa al desarrollo de cualquier
programa.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 25


CONCEPTOS DE INFORMÁTICA

Aunque el término algoritmo esté muy ligado a la informática, puede aplicarse a cualquier tarea de la
vida cotidiana. Por ejemplo, veamos el algoritmo que seguimos para lavarnos los dientes por las mañanas:
1. Entramos en el cuarto de baño.
2. Abrimos el tubo dentífrico.
3. Cogemos el cepillo.
4. Aplicamos la pasta.
5. Cerramos el tubo dentífrico.
6. Cepillamos durante dos minutos.
7. Nos enjuagamos la boca.
El ejemplo anterior describe una tarea muy humana, pero igualmente pueden describirse proce-
sos técnicos más complejos. Cuando los algoritmos se traducen a un lenguaje apropiado para que los
ordenadores lo entiendan, hablamos de programas.
PROGRAMA: conjunto de instrucciones que controla el funcionamiento de un
ordenador para conseguir resultados.
A continuación presentamos un algoritmo sencillo que describe el proceso para sumar dos nú-
meros y el programa correspondiente.

PASOS ALGORITMO PROGRAMA


1 Pedir el primer número a sumar INPUT A
2 Pedir el segundo número a sumar INPUT B
3 Calcular el resultado LET C=A+B
4 Imprimir el resultado PRINT “La suma resultante es:“, C
Un algoritmo sencillo y su traducción a un programa informático. Obsérvese que el algoritmo utiliza un lenguaje
mucho más parecido al humano que el programa, que requiere una sintaxis más estricta.

NOTA: los programas de ordenador también se denominan aplicaciones infor-


máticas. Más recientemente se ha introducido el término “aplicativo” para referirse
también a ellos. En la literatura encontraremos generalmente los dos primeros.

Para que el programa resultante sea correcto, el algoritmo que sirve de punto de partida debe
reunir una serie de características, por ejemplo, que tenga un número finito de pasos, o que en algún
momento llegue a un final. El estudio de los algoritmos, sus propiedades, tipos, etc. se denomina
Algorítmica, y es una ciencia muy relacionada con la informática.
La traducción de un algoritmo a su correspondiente programa de ordenador se hace mediante
un lenguaje de programación. El lenguaje de programación tiene una sintaxis propia que regula la
escritura de las instrucciones en un formato adecuado.
Por ejemplo en el programa que vimos anteriormente, la instrucción para introducir un número
en el ordenador era INPUT seguida de una variable (debemos pensar en esta variable como el lugar
donde se almacena dicho número, en nuestro caso se llama A). Por tanto la sintaxis completa de esta
instrucción se puede resumir:
INPUT + <Variable>
Otros lenguajes de programación tienen distintas sintaxis, formas diferentes de expresar la ante-
rior instrucción. Una analogía son los idiomas español, francés, inglés, etc.
Independientemente del lenguaje de programación utilizado, las instrucciones que componen los
programas se clasifican en los siguientes grupos:
– Instrucciones de entrada/salida: mueven información entre periféricos, memoria central o
microprocesador. Por ejemplo la instrucción INPUT mueve un dato del teclado a la memoria.
NOTA: una clasificación de los periféricos se basa en el sentido en que circula
la información que procesan: de entrada (por ejemplo un teclado), de salida (un
monitor o una impresora) y de entrada/salida (como los módems o las unidades
externas de almacenamiento).

26 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


CONCEPTOS DE INFORMÁTICA

– Instrucciones de proceso o tratamiento: realizan operaciones aritméticas y lógicas. Las


operaciones de suma, resta, etc., son las más comunes.
– Instrucciones de bifurcación o control: condicionan el flujo de un programa por un cami-
no u otro dependiendo generalmente del resultado de una comparación. Por ejemplo, si la
edad introducida es menor que 18, visualiza un mensaje en la pantalla, en caso contrario
muestra otro distinto.
Si consideramos un programa como una tarea compleja, podemos aplicar la técnica de diferen-
ciar partes más sencillas, de forma análoga a los subsistemas que forma sistemas más complicados.
Entonces podemos dividir el programa en módulos con sus interfaces adecuadas, pensando así en él
como en un conjunto de subtareas que operan conjuntamente.
Las subtareas fruto de dividir una tarea compleja en otras más sencillas se de-
nominan subrutinas, subprogramas o funciones en la terminología informática.
Esta idea facilita en gran medida el desarrollo de programas, ya que las subrutinas podrían desa-
rrollarse de forma independiente, por ejemplo por varios equipos de técnicos. Mediante esta técnica
aplicamos las ventajas del diseño modular a la creación de programas de ordenador.

10. HARDWARE Y SOFTWARE


Cuando nos encontramos con un ordenador ejecutando un programa, observamos en realidad
dos entidades de distinta naturaleza.
– En primer lugar el propio ordenador, que podemos percibir directamente (tocar y ver) porque
posee una naturaleza física, como un árbol, un coche o una mesa.
– Por otra parte está el programa que se ejecuta en el ordenador, del cuál realmente sólo
apreciamos su interfaz con el exterior: resultados impresos, mensajes en la pantalla, etc.
El programa en sí no está compuesto de piezas ni de elementos materiales, más bien es algo
abstracto, análogo a un razonamiento o a una idea. Dentro del ordenador no es más que una serie
de señales eléctricas invisibles que corren por circuitos y chips. Decimos por ello que los programas
tienen una naturaleza lógica. Es este elemento lógico el que controla el comportamiento del orde-
nador.
Los términos hardware y software se utilizan para definir las partes físicas y lógicas de un siste-
ma informático respectivamente. Las definiciones de ambos términos son:
Hardware: componentes y dispositivos físicos de un sistema informático.
Software: programas que controlan el funcionamiento de un sistema infor-
mático.
El término software hace referencia a cualquier programa que se ejecute en un ordenador. Estos
programas tienen funciones muy variadas y abarcan muchas áreas, por eso es necesario realizar
algún tipo de clasificación. La elección más lógica es aquella que clasifica los programas por sus ob-
jetivos, es decir, según para lo que sirvan. Inicialmente podemos distinguir tres grandes grupos:
– Software de sistema. Programas imprescindibles para el funcionamiento de un ordenador,
administran los recursos hardware de éste y facilitan ciertas tareas básicas al usuario y a
otros grupos de programas.
– Software de desarrollo. También se les denomina lenguajes de programación o siste-
mas de desarrollo. Son programas que sirven para crear otros programas. Utilizan los ser-
vicios prestados por el software del sistema. Han evolucionado a partir de dos tendencias.
Propuestas teóricas que realizan los especialistas informáticos sobre lenguajes de programa-
ción de alto nivel.
El desarrollo de la propia tecnología (como la arquitectura de los procesadores) que condi-
ciona cierto tipo de lenguajes básicos sobre el que se apoyan los más complejos.
– Software de aplicación. Son el resultado de los desarrollos realizados con los lenguajes de
programación del grupo anterior, que originan las aplicaciones que manejan los usuarios fi-
nales. Son los más variados, ya que se aplican a multitud de problemas y entornos de trabajo

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 27


CONCEPTOS DE INFORMÁTICA

distintos. En este grupo localizamos los procesadores de textos, editores gráficos, programas
de diseño, bases de datos, y un largo etcétera. Al igual que el grupo anterior, hace uso de
los recursos que ofrece el software del sistema.



 



   
  









 



 
 


   
 
  

 
   
 



  
 
 

 

Relación entre los tres grupos principales de software. Tanto el software de desarrollo
como el de aplicación trabajan utilizando los servicios proporcionados por el software de sistema, el cual
actúa directamente sobre el hardware. Los programadores utilizan el software de desarrollo para producir
nuevo software; los usuarios por su parte utilizan el software de aplicación obteniendo resultados.

11. INFORMÁTICA Y SISTEMA INFORMÁTICO

11.1. INFORMÁTICA
La información es fruto de la comunicación. Cuando un emisor transmite un mensaje a través
de un medio hacia un receptor, el conocimiento de este último se incrementa. Desde una perspec-
tiva exclusivamente natural, esta característica supone un gran salto evolutivo. Un organismo capaz
de transmitir información compleja tiene más posibilidades de supervivencia que sus competidores;
aumenta su capacidad para la toma de decisiones correctas, para generar experiencias válidas y para
coordinar la vida en comunidad, entre otros factores.
Las ciencias dedicadas al tratamiento de la información son tan antiguas como la existencia del
propio hombre; estas ciencias se han ido potenciando y sofisticando a lo largo de la historia hasta dar
el gran salto tecnológico en la etapa electrónica.
El esfuerzo intelectual y económico dedicado a mejorar el tratamiento de la información y a la
automatización de tareas se debe fundamentalmente a las siguientes razones:
– Realización de funciones que el hombre, por sí solo, no puede realizar (comunicación a larga
distancia, radares, etc.).
– Realizar tareas que al hombre le requieren gran cantidad de tiempo, por ejemplo la elabora-
ción de cálculos muy complejos.
– Necesidad de obtener seguridad en la realización de ciertas tareas (mediciones muy exactas,
procesos libres de errores, etc.).
– Liberar al hombre de tareas muy monótonas o penosas, como los robots en las cadenas de
montaje.
La gestión de una empresa actual precisa una estructura de comunicación que le facilite informa-
ción base para las decisiones más eficientes, contribuyendo al logro de objetivos. Cuando el volumen
de datos a tratar es grande, el proceso de obtener información rápidamente y con un alto nivel de
verosimilitud sólo puede obtenerse por medios informáticos que automaticen los procedimientos.

28 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


CONCEPTOS DE INFORMÁTICA

El término informática se origina en Francia en el año 1962 bajo la denominación INFORMATI-


QUE y procede de la contracción de las palabras INFORmation y autoMATIQUE. Posteriormente fue
reconocido por el resto de países, siendo adoptado en España en 1968 con el nombre de INFOR-
MÁTICA. Sin embargo en los países anglosajones se conoce con el nombre de Computer Science,
traducible como “Ciencia de Computadoras”.
La informática se puede precisar de muchas formas y de hecho existe una gran variedad de estas
definiciones en libros y publicaciones, si bien lógicamente todas ellas giran en torno a la misma idea.
La definición más sencilla y extendida es la siguiente:
Informática: ciencia que estudia el tratamiento automático y racional de la
información.
En la definición encontramos las siguientes ideas:
– Un tratamiento en este caso consiste en obtener unos resultados a partir de una informa-
ción inicial.
– Se dice que el tratamiento es automático porque los trabajos de captura, proceso y presen-
tación de la información los realizan máquinas.
– Se habla de racional por estar todo el proceso definido a través de programas que siguen
ciertas reglas y estructuras lógicas.
A modo de comparación, exponemos otras definiciones de Informática equivalentes, incluida la
definición formal dada por la Real Academia Española:
Informática: conjunto de conocimientos científicos y técnicos que hacen posi-
ble el tratamiento automático de la información por medio de ordenadores.
Informática: cuerpo de conocimientos científicos y técnicos que se ocupa del
tratamiento de la información por medios automáticos, principalmente mediante
equipos electrónicos de proceso de datos.
Podríamos decir entonces que la materia prima de la informática es LA INFORMACIÓN mientras
que su objetivo formal es EL TRATAMIENTO DE LA MISMA.
La informática se considera tanto una ciencia como una ingeniería. Como todas las ciencias
modernas, se divide en distintas ramas relacionadas en mayor o menor grado. Las más importantes
son las que estudian:
– El desarrollo de nuevas máquinas.
– El desarrollo de nuevos métodos de trabajo.
– La construcción y mejora de aplicaciones informáticas (programas).
Efectivamente, desde la aparición de las primeras máquinas de cálculo, la investigación se ha
acelerado notablemente para obtener dispositivos cada vez más potentes, rápidos, pequeños y ba-
ratos. Paralelamente se potencia la investigación para conseguir nuevos métodos de trabajo, formas
innovadoras de explotación de los ordenadores y mejores métodos para aprovechar sus recursos.
Esto supone un enorme rango de aplicaciones, que abarca aspectos tan variados como la inves-
tigación de redes de ordenadores de alta velocidad, la integración del ordenador en el automóvil, el
desarrollo de la multimedia orientada a la educación y a la comunicación, el comercio electrónico y
un largo etcétera.

11.2. SISTEMA INFORMÁTICO


Pero un ordenador por sí mismo no es capaz de realizar una tarea útil. Esta debe ser programa-
da, supervisada y aprovechada por seres humanos. Además el ordenador necesita un software para
realizar dichas tareas.
Un Sistema Informático es el conjunto formado por uno o varios ordenadores
y sus periféricos (componentes físicos o hardware), que ejecutan aplicaciones infor-
máticas (componente lógico o software) y que son controlados por cierto personal
especializado (componente humano).

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 29


CONCEPTOS DE INFORMÁTICA

Veamos estos componentes con más detalle:


– Físico: constituye el hardware del sistema informático y se encuentra distribuido en el orde-
nador, los periféricos y el subsistema de comunicaciones. Los elementos físicos proporcio-
nan la capacidad de proceso y la potencia de cálculo del sistema informático, así como la
interface con el mundo exterior.
– Lógico: hace referencia a todo aquello que no es materia y que en términos vulgares se ha
considerado programación. Está constituido por los conjuntos de instrucciones escritas en
lenguajes especiales, y organizadas en programas, que hacen que el sistema físico pueda
trabajar realizando diferentes tareas sobre los datos: unas de tipo genérico y otras específi-
cas. El software se encuentra distribuido en el ordenador, los periféricos y el subsistema de
comunicaciones.
– Componente humano: constituido por las personas que participan el la dirección, diseño,
desarrollo, implantación y explotación de un sistema informático. El personal, según las
funciones que realice, se puede clasificar en Director, Jefe de Proyecto, Técnico de Siste-
mas, Administrador de Bases de Datos, Analista Funcional u Orgánico, Programador, Jefe de
Explotación, Operador, Grabador, etc.
En la práctica el término “Sistema Informático” se utiliza desde en dos sentidos:
– En un sentido amplio: conjunto de elementos, hardware, software y personal que hacen po-
sible el tratamiento automático de la información. Hablamos del sistema informático global
de una organización.
– En un sentido restringido: nos referimos a un ordenador con su software correspondiente.
Este sentido es más modesto que el anterior, pero se usa habitualmente con frecuencia.
La Arquitectura de un sistema informático se define como el subconjunto de reglas, normas y
procedimientos que especifican las interrelaciones que deben existir entre los componentes y ele-
mentos, físicos y lógicos, de un sistema informático y las características que deben cumplir cada uno
de estos componentes.
El subconjunto de normas, reglas y procedimientos de tipo organizativo, aplicadas dentro de una
organización y en las que intervenga el componente humano, constituyen una metodología.

11.3. CLASIFICACIÓN DE LOS SISTEMAS INFORMÁTICOS


Los sistemas informáticos pueden ser de uso general, para variados tipos de aplicaciones, o de
uso específico, que se caracterizan por ejecutar uno o muy pocos programas. En los sistemas de uso
específico las unidades de entrada/salida están completamente adaptadas a la aplicación como son
los programas de los videojuegos o de los robots.
En relación con las prestaciones que proporcionan los sistemas informáticos se pueden clasificar en:
– Supercomputadores: es el tipo de computador más rápido, también son los más caros
y se emplean para aplicaciones especializadas que requieren gran proceso de cálculo, por
ejemplo, las predicciones del tiempo, animaciones gráficas, cálculo dinámico de fluidos,
investigaciones nucleares y exploraciones de petróleo.
– Sistemas grandes o mainframes: es un computador de gran precio y potencia capaz de
soportar cientos, incluso miles de usuarios simultáneamente. La diferencia primordial con
los supercomputadores es que estos canalizan toda su capacidad en ejecutar unos pocos
programas con la mayor rapidez posible, mientras que un mainframe en ejecutar múltiples
programas concurrentemente. En un sentido se podría pensar que un mainframe es más
potente que un supercomputador porque es capaz de soportar más programas simultánea-
mente, pero un solo programa lo ejecutaría con menor rapidez que un supercomputador.
– Sistemas Medios o Miniordenadores: es un sistema multiprocesador de tamaño medio
capaz de unos cientos de usuarios simultáneamente a un coste inferior al de un sistema
grande. En este grupo se incluyen equipos de prestaciones muy variadas, desde los que so-
portan unos pocos de usuarios, a equipos que soportan cientos de usuarios y que compiten
con los mainframes más pequeños. Estos últimos son los superminiordenadores.

30 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


CONCEPTOS DE INFORMÁTICA

– Estaciones de Trabajo: tipo de computador utilizado en aplicaciones de ingeniería CAD/


CAM, diseño gráfico, desarrollo de software y otros tipos de aplicaciones que requieren una
moderada capacidad de computación y altas cualidades gráficas. Suelen tener pantallas
de alta resolución, al menos 64 MB de RAM, soporte de redes y los SO más comunes que
utilizan son UNIX y Windows NT.
La diferenciación entre un PC de altas prestaciones y una Workstation baja es prácticamente
nula así como entre una Workstation de altas prestaciones y un minicomputador. Los líderes
en fabricación de workstations son Sun Microsystems, HP, Silicon Graphics y Compaq.
– Microordenadores: computador relativamente barato diseñado para un usuario individual aunque
se utiliza conjuntamente con otros formando redes de ordenadores. Integran toda la CPU en un
solo chip. Su uso es muy variado, desde procesador de textos, contabilidad, aplicaciones de bases
de datos, juegos. En este grupo destacan los Personal Computer (PC) introducidos por IBM, cuyas
capacidades han sido copiadas por otras empresas que ofrecen al mercado una gran variedad de
PCs clónicos. También destaca Apple Computer que fue el primero que en la década de los setenta
fabricó el primer microordenador, el IBM PC surgió ya en la década de los ochenta.
Hay que tener presente que las diferencias entre los distintos tipos pueden no estar muy definidas por
lo que los criterios para clasificar un sistema en uno u otro tipo varían con el desarrollo tecnológico.

11.4. EVOLUCIÓN Y DISTRIBUCIÓN FÍSICA DE LOS SISTEMAS INFORMÁTICOS


El sistema informático, como soporte del sistema de información, ha evolucionado desde una
primera situación en que todos los componentes del Sistema –físicos, lógicos y personales– se en-
contraban centralizados en una sala de ordenadores, a la situación actual en que los componentes
del sistema se encuentran ampliamente distribuidos en diferentes lugares físicos.
Este camino hacia la implantación progresiva de sistemas distribuidos ha pasado por diferentes
fases y no se puede dar por finalizado pensando en la evolución futura hacia sistemas repartidos.
– Primera fase: inicios de los procesos de informatización en las organizaciones, los recursos
se encuentran totalmente centralizados.
– Segunda fase: se inicia con la distribución de los componentes físicos y en algunos casos hu-
manos del sistema. Esta fase se caracteriza por la introducción de los terminales no inteligentes
asociados a las primeras redes de teleproceso. En esta segunda fase toda la capacidad de
proceso y almacenamiento se encuentra centralizada, sin embargo, la entrada y salida de datos
se ha distribuido físicamente. Los inconvenientes de este tipo de sistemas eran los costes de las
comunicaciones y la gran complejidad de los sistemas centralizados que soportaban las redes de
teleproceso. Estos sistemas consumían gran cantidad de recursos en su gestión interna.
– Tercera fase: se distribuyen además los elementos lógicos, introduciendo cierta inteligencia
en los terminales. En realidad esta es una fase de transición porque el abaratamiento de
costes de los equipos y el desarrollo tecnológico permitieron pasar rápidamente a la informá-
tica distribuida de hoy día. No obstante, este tipo de organización del sistema informático en
el que existen terminales con cierta capacidad de proceso conectados a un equipo central,
se sigue manteniendo en muchas organizaciones, ya que es netamente preferible al modelo
anterior, sobre todo por el menor coste de las comunicaciones.
– Cuarta fase: por último, llegamos al modelo más avanzado de informática distribuida en
que tanto la capacidad de proceso como la capacidad de almacenamiento se encuentran
distribuidas en diferentes lugares.

11.5. ORGANIZACIÓN DE LOS SISTEMAS INFORMÁTICOS


Los sistemas distribuidos pueden organizarse de forma vertical/jerárquica o de forma horizontal.
En una distribución vertical/jerárquica existen varios niveles:
– En un primer nivel se encuentran los equipos más potentes mainframes. Este nivel del sis-
tema informático soporta el Sistema General de Información de la corporación o entidad,
es el nivel de la lnformática Corporativa. En los equipos situados en este nivel se realizan

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 31


CONCEPTOS DE INFORMÁTICA

trabajos en batch o por lotes. Los mainframes admiten entrada remota de trabajos, trabajan
en tiempo compartido, satisfaciendo las necesidades de los equipos situados en niveles
inferiores.
– En un segundo nivel se encuentra el sistema informático de unidades organizativas inferio-
res, por ejemplo el sistema informático de una delegación o de un departamento. Se conoce
como nivel de Informática departamental. Tradicionalmente el Sistema Informático De-
partamental ha estado constituido por ordenadores que interaccionaban con los mainframes
y con elementos del nivel inferior. Hoy día, en unas ocasiones, las redes locales pueden
constituir los Sistemas Informáticos Departamentales en lugar de los miniordenadores.
– El tercer nivel es el de la Informática personal constituido hoy por un único microordenador
o una estación de trabajo. El Sistema Informático personal dispone de herramientas especia-
lizadas para el trabajo personal e interacciona a través de las redes de comunicaciones con
los Sistemas Departamentales y Corporativos.
En una distribución horizontal todos los equipos tienen la misma categoría o por lo menos no
existe un equipo central en el primer nivel de la jerarquía. En realidad suelen existir un conjunto de equi-
pos interconectados que cooperan entre sí, pero sin que ninguno de ellos centralice la información.
La evolución previsible de estos sistemas de informática distribuida es hacia los sistemas de
informática repartida en la que únicamente existirán recursos –de capacidad de proceso, inteligencia
y de almacenamiento– repartidos por las unidades de la organización. El software general del sistema
permitirá actuar al componente que en un momento determinado sea necesario. Las funciones de
proceso, almacenamiento y control de los datos las realizará directamente el sistema de forma global,
optimizando la calidad del servicio y disminuyendo al máximo los costes.

12. EQUIPO INFORMÁTICO (ORDENADOR) Y SISTEMA OPERATIVO


Desde el punto de vista técnico, el equipo informático más importante y ampliamente utilizado
para el tratamiento de la información es el computador, computadora u ordenador, que se define
como sigue:
Un ordenador es una máquina compuesta de elementos físicos, en su ma-
yoría de origen electrónico, capaz de realizar una gran variedad de trabajos a gran
velocidad y con gran precisión siempre que se le proporcionen las instrucciones
adecuadas.
En principio los datos que maneja un ordenador constituyen una información no elaborada. Una
vez procesados (ordenados, sumados, comparados, etc.) se transforma en información útil o simple-
mente resultados.
Como vimos en apartados anteriores, el conjunto de instrucciones que se dan a un ordenador
para que realice un proceso determinado se denomina programa.
Recordemos ahora la siguiente definición:
El sistema operativo está integrado por una serie de programas impres-
cindibles para el funcionamiento de un ordenador, que administran los recursos
hardware de este y facilitan ciertas tareas básicas al usuario y a otros grupos de
programas.
Al conjunto de uno o varios programas más la documentación correspondiente para realizar un
determinado trabajo se conoce como aplicación informática.
Al conjunto de operaciones que se realizan sobre una información se le denomina tratamiento
de la información.

32 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


TEMA
2

El ordenador electrónico. Antecedentes


históricos. Evolución de la tecnología
de los ordenadores

El ordenador electrónico es el dispositivo más complejo jamás fa-


bricado por el hombre. Además constituye el elemento físico funda-
mental de la informática, la materialización de teorías matemáticas y
físicas que permiten hacer de la informática una ciencia aplicada y
productiva.
Este tema nos aproxima a sus principios, definición y funciona-
miento básico.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 33


EL ORDENADOR ELECTRÓNICO. ANTECEDENTES HISTÓRICOS

ESQUEMA INICIAL

1. Concepto de ordenador

2. La información y el ordenador
2.1. Instrucciones
2.2. Datos

3. Estructura y funcionamiento básico


3.1. Elementos físicos
3.2. Elementos lógicos
3.2.1. Lenguajes de programación
3.2.2. Sistema Operativo o Software de Base
3.2.3. Software de aplicación

4. Antecedentes históricos
4.1. Primeros orígenes
4.2. Avances históricos hacia la informática actual

5. Generaciones de ordenadores
5.1. Primera generación (1940-1952)
5.2. Segunda generación (1952-1964)
5.3. Tercera generación (1964-1971)
5.4. Cuarta generación (1971-1981)
5.5. Quinta generación (1981-hasta la actualidad)

6. Tendencias actuales de los sistemas informáticos


6.1. Informática centralizada
6.2. Informática distribuida
6.3. Nuevos modelos
6.4. Tendencias
6.5. Procesos cooperativos y arquitectura cliente/servidor
6.5.1. Definición y ventajas de los procesos cooperativos
6.5.2. Conceptos básicos de arquitecturas cliente/servidor

7. Evolución de la tecnología de los ordenadores: el futuro de la informática

8. Niveles de arquitectura: Tipos de ordenadores


8.1. Superordenadores
8.2. Mainframes
8.3. Miniordenadores
8.4. Estación de trabajo
8.5. Microordenadores

34 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


EL ORDENADOR ELECTRÓNICO. ANTECEDENTES HISTÓRICOS

1. CONCEPTO DE ORDENADOR
La definición más sencilla de ordenador es la siguiente:
Ordenador: máquina digital electrónica diseñada para realizar tratamientos
automáticos de la información.
En primer lugar observamos que un ordenador es una máquina. Efectivamente, se encuentra
en la misma línea que un molino de viento, una máquina de vapor, o un frigorífico, aunque a nivel de
diseño y construcción un ordenador es mucho más complejo que los ejemplo citados.
Es importante resaltar el carácter artificial del ordenador porque, aunque se trate del más potente
del mundo, se parece más a cualquier máquina que al cerebro humano, sobre el cual no tiene com-
paración en complejidad y versatilidad (aunque sí en potencia y velocidad de cálculo).
La gran variedad de máquinas inventadas por el hombre se clasifican según diversos criterios.
Uno de ellos es la tecnología en la que se fundamentan. Un ordenador es una máquina digital, es
decir, procesa señales discretas. Al ser electrónico pertenece a una rama distinta de los molinos de
viento o las máquinas de vapor, que se mueven por fuerzas físicas. La electricidad es la fuerza motriz
en un ordenador.
NOTA: existen ordenadores analógicos que procesan magnitudes físicas con-
tinuas y que fueron diseñados para la resolución de problemas concretos. Son los
ordenadores analógicos. Hoy en día están en franco desuso y no tienen interés en
nuestro estudio.
Históricamente el tratamiento de la información es un concepto tan antiguo como el hombre,
aunque ha sido la era de la electrónica la que ha posibilitado el despegue de esta ciencia. En nuestro
contexto describe las tareas que los ordenadores son capaces de ejecutar. Casi todas las cosas que
podemos realizar con ellos suponen algún tipo de tratamiento de la información, desde escribir una
carta hasta enviar un robot al planeta Marte. Existen innumerables actividades económicas y pro-
ductivas directamente relacionadas con este concepto, por ejemplo una transacción bancaria puede
considerarse casi exclusivamente una actividad de este tipo.
Cabe citar otra de las características más relevantes de los ordenadores: son máquinas de pro-
pósito general, dada la cantidad de actividades distintas que pueden desarrollar (ya hemos visto que
la expresión “tratamiento de la información” abarca un amplio rango de funciones).
Una definición más compleja que abarca todo lo expuesto es la siguiente:
Ordenador: un ordenador es una colección de recursos que comprende dis-
positivos electrónicos digitales, programas almacenados y conjuntos de datos, que
son capaces de aceptar y procesar datos según dichos programas, produciendo
de forma automática resultados controlados por las descripciones formuladas en
dichos programas.
Esta definición necesita algunas aclaraciones. Ya se ha mencionado el concepto de programa,
aprovechemos ahora para concretarlo: un programa es un conjunto de instrucciones, en un formato
especial aceptable por un ordenador y que controlan su comportamiento. Se denomina almacenado
porque las instrucciones que un ordenador está ejecutando en un determinado momento se encuen-
tran dentro de éste.
Esta capacidad de almacenar un juego completo de instrucciones que más adelante podrán ser
ejecutadas es una de las características distintivas de los ordenadores, aunque de forma estricta
también un vídeo o una lavadora pueden realizarla.
Por otra parte, el “procesado de datos” puede abarcar un conjunto de actividades muy amplio:
ordenarlos, sumarlos, hallar la media, contar palabras, representar una función de forma gráfica, etc.
Estas actividades que pueden llegar a un extremo grado de complejidad no deben hacernos pensar
que un ordenador es un dispositivo inteligente. El ordenador procesa los datos siguiendo las instruc-
ciones de un programa, el cual ha sido concebido, diseñado y creado por un ser humano. El ordena-
dor, por tanto, es tan sólo una potente herramienta con una capacidad de cálculo mucho mayor que
la de una persona, pero carente totalmente de la inteligencia de ésta.
Otras de las características más relevantes de los ordenadores es que son máquinas de propósi-
to general, lo cual viene originado por la cantidad de actividades que pueden desarrollar (ya hemos
dicho que la expresión “proceso de datos” abarca un amplio rango de funciones).

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 35


EL ORDENADOR ELECTRÓNICO. ANTECEDENTES HISTÓRICOS

Terminamos señalando que los ordenadores son las más complejas creaciones artificiales jamás
producidas. Los conceptos de módulo e interfaz son esenciales para poder tratar esta complejidad,
tanto desde el punto de vista hardware como software.

2. LA INFORMACIÓN Y EL ORDENADOR
El ordenador es una máquina que sólo trabaja en función de la información que se le facilita. Esta
información se divide básicamente en dos tipos:

2.1. INSTRUCCIONES
Son las órdenes que dictan al ordenador lo que ha de hacer en cada momento. Cada instrucción
sirve para ejecutar una operación determinada. Las podemos clasificar en cuatro grandes grupos:
– Instrucciones de entrada/salida: gobiernan los intercambios de información entre memo-
ria principal y periféricos.
– Instrucciones de tratamiento: ordenan la ejecución de operaciones aritméticas y lógicas.
– Instrucciones de manipulación: ordenan los trasiegos de información de una zona a otra
de la memoria; mueven y transforman la información.
– Instrucciones de bifurcación y control: influyen sobre la marcha de los programas, depen-
diendo, generalmente, de comparaciones.
Un conjunto de instrucciones ordenadas de forma lógica es lo que constituye un programa; éste
se puede considerar como un reglamento que rige el funcionamiento del ordenador. El programa es
la herramienta lógica que usa el ordenador para tratar la información.

2.2. DATOS
Los datos son la información a procesar por el ordenador siguiendo los pasos marcados en el
programa. Los resultados facilitados por el ordenador, como consecuencia del tratamiento de la in-
formación, también son datos.
Los datos pueden ser:
– Datos de Entrada: información que facilitamos al ordenador para que sea procesada.
– Datos de Salida o Resultados: información que nos ofrece el ordenador, una vez han sido
tratados los datos de entrada.






    

   
 

Esquema de un ordenador y la información que maneja: los datos de entrada


son procesados según una serie de programas, obteniéndose unos resultados

36 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


EL ORDENADOR ELECTRÓNICO. ANTECEDENTES HISTÓRICOS

3. ESTRUCTURA Y FUNCIONAMIENTO BÁSICO


Un ordenador es un dispositivo digital, es decir, trabaja con representaciones binarias de la infor-
mación. Dentro del hardware del ordenador podemos distinguir las siguientes partes:
– Unidades de entrada y salida de datos: son las unidades que enlazan al ordenador con
el exterior, ya sea para la captación de datos, como para ofrecer unos resultados.
– Elementos de proceso de la información: son aquellos componentes, que bajo las ins-
trucciones de un programa, tratan la información, la almacenan o la comparan, y ofrecen
unos resultados.
Para que el ordenador sea capaz de entender la información que le facilite el usuario, ésta debe
sufrir una transformación. No podemos decir al ordenador algo como lo siguiente: “suma 10 + 23
y dame el resultado”. Este lenguaje, natural para nosotros, es incomprensible para la máquina. El
ordenador es una máquina que funciona gracias al paso de la corriente eléctrica, por tanto, sólo es
capaz de entender si pasa corriente o no por sus circuitos.
Esta idea, que hemos desarrollado de forma más o menos escueta en el párrafo anterior, es la
filosofía del único lenguaje que es capaz de comprender el ordenador, el Lenguaje Máquina. Esta
forma de operar, como podemos ver, se fundamenta en el álgebra de Boole, según la cual bastan dos
elementos distintos para expresar pensamientos lógicos.
En lenguaje máquina sólo hay dos opciones: pasa corriente (1) o no pasa (0). Lo que ocurre es
que, combinando de esas dos variables en grupos, posibilita que el ordenador sea capaz de compren-
der muchas operaciones diferentes. El sistema de numeración que sólo cuenta con dos elementos
diferentes (el 1 y el 0), es el sistema o código binario.
Según su forma de representar la información nos encontramos con:
– Ordenadores analógicos, las entradas de datos son magnitudes físicas (coeficientes de
elasticidad, intensidades eléctricas, etc.). Suelen estar diseñados para la resolución de un
problema específico.
– Ordenadores digitales, actúan sobre cantidades discretas (recepción de impulso eléctrico
o no recepción, lo que equivale a 0 o 1 en sistema binario). Internamente, el ordenador trata
la información de esas dos maneras (1 = desactivado o 0 = activado). La mayoría de los
ordenadores son de este tipo.

3.1. ELEMENTOS FÍSICOS


El hardware es el conjunto de máquinas que, debidamente enlazadas e íntimamente relaciona-
das entre sí, configuran el Sistema de Tratamiento de la Información capaz de efectuar operaciones
aritméticas, lógicas e intermedias bajo el control de un programa previamente registrado.
Se basa en tres disciplinas: la Tecnología, la Lógica y la Arquitectura de ordenadores, siendo esta
última el estudio de las distintas configuraciones a establecer en función de las distintas Unidades
que integran la totalidad del Sistema.

3.2. ELEMENTOS LÓGICOS


El software o logical es la parte inmaterial del sistema. Dirige el funcionamiento de los elementos
físicos del ordenador de una forma adecuada ya que el ordenador, a diferencia de otras máquinas,
no es un elemento específico (no es una cortadora de papel que sólo sirve para esa tarea), sino que
se trata de una máquina programable que puede realizar tareas muy diversas, según el programa
adecuado.
Podemos distinguir los siguientes tipos de software:
– Lenguajes de Programación.
– Sistema Operativo o Software de Base.
– Software de aplicación.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 37


EL ORDENADOR ELECTRÓNICO. ANTECEDENTES HISTÓRICOS

3.2.1. Lenguajes de programación


Los lenguajes de programación son los encargados de realizar la codificación de las instrucciones
de modo similar a como se dirían en lenguaje hablado, facilitando así la labor de programación.
En función del grado de aproximación del lenguaje de programación hacia el hombre o hacia la
máquina, tenemos varios tipos de lenguajes de programación:
– Lenguajes de alto nivel.
– Lenguajes de bajo nivel.
– Lenguaje máquina.

3.2.2. Sistema Operativo o Software de Base


El sistema operativo es un programa que ha de cargarse como paso previo a la ejecución de
cualquier tarea con el ordenador. El sistema operativo debe controlar el funcionamiento de todo el
sistema, gestionando los recursos del sistema (memoria, periféricos, etc.), así como controlando la
ejecución de programas.
Los programas que componen el sistema operativo pueden clasificarse en dos tipos:
– Programas de Control.
– Programas de Proceso.

3.2.3. Software de aplicación


Como hemos visto hasta ahora, ninguno de los softwares anteriores ofrece unos resultados que
satisfagan las necesidades de los usuarios habituales del sistema (escribir una carta, hacer cálculos,
consultar un archivo, etc.). Los programas encargados de resolver estas tareas son los programas de
aplicación.
Los programas de aplicación más usuales son:
– Tratamiento de textos.
– Hojas de cálculo.
– Bases de datos.
– Programas de comunicaciones.
– Generadores de gráficos.

4. ANTECEDENTES HISTÓRICOS

4.1. PRIMEROS ORÍGENES


Los orígenes de la informática datan de antaño. De forma estricta podemos afirmar que al menos
ciertos conceptos básicos pueden encontrarse en las civilizaciones griegas, babilónica y egipcia. Los
sabios de esas épocas remotas sentaron las dos aspectos o aproximaciones fundamentales en las
que se basan la informática y muchas otras ciencias:
– Aspecto abstracto: consiste en la sistematización del razonamiento, es decir, sentar las
bases para desarrollar las cuestiones teóricas de las ciencias.
– Aspecto práctico: intenta desarrollar métodos prácticos para conseguir resultados precisos
y eficaces. La teoría que gobierna una ciencia proporciona los fundamentos de estos méto-
dos prácticos.
Estos dos aspectos van a condicionar el desarrollo histórico de todas las ciencias experimentales,
y la informática no queda fuera de esta categoría.

38 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


EL ORDENADOR ELECTRÓNICO. ANTECEDENTES HISTÓRICOS

Un hecho común a estas ciencias consiste en que a menudo los avances teóricos suelen ser
más rápidos que los prácticos. En efecto, este hecho es una constante en la historia de la ciencia, y
se debe principalmente a que la tecnología para poner en práctica las ideas teóricas es más difícil de
conseguir que la propia teoría. No hay que olvidar que las ideas y teorías provienen del pensamiento
lógico y del uso racional de la mente, mientras que los aspectos prácticos dependen casi exclusiva-
mente del desarrollo tecnológico disponible en un momento histórico dado.
Estas cuestiones han llamado la atención de los pensadores durante miles de años. Entre todas
las culturas antiguas fue la antigua Grecia la más relevante, ya que realizó una contribución enorme
en la sistematización del razonamiento (el aspecto teórico).
Entre los logros de los griegos podemos citar, por ejemplo, el desarrollo de la geometría como
un sistema de deducción lógica: en lugar de realizar experimentos con círculos y analizar los datos
(método práctico muy utilizado por los egipcios), los matemáticos griegos definieron el concepto de
círculo y derivaron las propiedades de éstos utilizando el razonamiento formal (método teórico).
Los griegos también consiguieron grandes avances en la clarificación de los criterios a seguir
para realizar un razonamiento correcto. Los trabajos de Aristóteles fueron los mayores exponentes en
este sentido, ya que sentaron las bases de la lógica formal; sin embargo, no se produjeron avances
revolucionarios en este campo hasta el siglo XIX.
Los babilonios y egipcios, en cambio, no fueron razonadores sistemáticos como los griegos. En
su lugar desarrollaron una gran cantidad de métodos de cálculo, con la intención de facilitar éstos
y basados, fundamentalmente, en los métodos de prueba-y-error. Algunos de sus logros fueron la
obtención de:
– Tablas de multiplicar.
– Tablas de cuadrados y cubos.
– Tablas de raíces cuadradas y cúbicas.
– Tablas de inversos.
– Tablas de exponenciales para poder obtener el interés compuesto.
Una fórmula para resolver ecuaciones cuadráticas.
Un método para completar el cuadrado.
Pero los egipcios no fueron lo únicos en desarrollar el cálculo de forma práctica; sobre el 3.500
a.C., en los valles del Tigris y Éufrates se construyó un artilugio a base de unos soportes de madera y
unas pequeñas piedras planas sujetas mediante varillas que servía para contar y realizar operaciones
matemáticas básicas, como sumas y restas. Posteriormente se le dio el nombre de Ábaco, término
proveniente de la palabra fenicia Abak. Se han encontrado también ábacos en China, llamados Suan-
Pan, y en Japón (Soroban), aunque ambos de forma más tardía (sobre el 2.500 a.C.).
CURIOSIDAD: la palabra cálculo tiene raíz latina calculus, que significaba pie-
dra (recuérdese la enfermedad denominada cálculo de riñón, en alusión a la piedra
que se forma en este órgano). La razón por la que se adoptó este término para de-
finir una de las más importantes ramas de las matemáticas, es que antiguamente
se utilizaban piedras para contar.
El ábaco estuvo vigente en Europa hasta el siglo XVI, dejando paso entonces a otras herramien-
tas más potentes. Sin embargo, en algunos países orientales el ábaco conserva toda su vigencia y
se utiliza comúnmente para realizar operaciones sencillas en mercados y escuelas. Esto muestra la
potencia de esta sencilla herramienta inventada hace más de 5.000 años.

4.2. AVANCES HISTÓRICOS HACIA LA INFORMÁTICA ACTUAL


Por otra parte, las mejoras sobre métodos computacionales se sucedieron a lo largo de los siglos
en diferentes partes del mundo. Por ejemplo, el término algoritmo se deriva del nombre del matemá-
tico persa Abu Ja´far Mohammed ibn Musa al-Kowarizmi, que vivió alrededor del 825 d.C.
La acepción original fue algorism y hacía referencia al proceso de prueba de cálculos realizados
utilizando números arábigos, que constituía el tema central del libro de al-Kowarizmi.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 39


EL ORDENADOR ELECTRÓNICO. ANTECEDENTES HISTÓRICOS

Tuvieron que transcurrir muchos siglos para el siguiente descubrimiento de importancia trascen-
dental para las matemáticas (y por ende para la informática); se realizó a finales del siglo XVI y co-
mienzos del XVII, cuando François Viète (1540-1603) estableció las bases del álgebra, mediante la
utilización de letras para simbolizar valores desconocidos. Aunque en un principio pueda parecer que
este descubrimiento no revista demasiada importancia, fue el causante de todo el desarrollo posterior
de los distintos tipos de ecuaciones, fundamentales para el progreso de muchas ciencias.
En efecto, a partir de ese momento se vive una intensa sucesión de conquistas matemáticas
acompañada esporádicamente de nuevas herramientas prácticas, fruto de éxitos tecnológicos. En
1614 John Napier (1550-1616) idea y desarrolla la teoría de los logaritmos, que pronto se dispone
como una valiosa herramienta de ayuda al cálculo; además construyó un calculador basado en tar-
jetas (denominado Estructura de Napier) que puede considerarse como un dispositivo intermedio
entre el ábaco y las primeras calculadoras mecánicas.
Pocos años después, en 1620, Edmund Gunter (1581-1626) inventó un precursor de la regla de
cálculo, que tras varias modificaciones originó la propia regla del cálculo, cuyos principios han llegado a la
actualidad casi sin variaciones. La principal mejora la realizó en 1650 un científico llamado Patridge.
Galileo (1563-1642) realizó numerosas contribuciones valiosísimas al desarrollo de las ciencias.
Cabe destacar su aportación de un método conciso, compacto y no ambiguo de expresar sucesos
científicos, además de sentar las bases de la formulación matemática de las ciencias físicas.
Otro ilustre pensador, René Descartes (1596-1650), descubrió e impulsó la geometría analítica
que permitió la aplicación del álgebra a problemas de geometría y dinámica, abriendo las puertas de
varias ramas de la física.
En 1623, Wilhelm Schickard diseñó y construyó un dispositivo, denominado posteriormente la
Calculadora de Schickard o Reloj Calculante, que realizaba sumas y restas de forma totalmente au-
tomática. Aunque las operaciones de multiplicación y división no eran completamente automáticas, se
podían realizar también con gran efectividad. Este dispositivo se considera hoy en día la primera calcu-
ladora digital, aunque en aquellos tiempos no tuvo demasiada difusión y aceptación, sobre todo porque
su inventor y toda su familia murieron víctimas de una epidemia tan comunes en esas fechas.
CURIOSIDAD: en la época de Schickard las técnicas de fabricación no estaban
lo suficientemente avanzadas como para permitir que su calculadora mostrase toda
su potencia, por ello, a principio del siglo XX, ingenieros de la IBM construyeron la
máquina ideada por Schickard siguiendo exclusivamente los planos de éste.
Veinte años más tarde del desgraciado final de Schickard, Blaise Pascal (1623-1662), insigne
matemático y pensador francés, retomó su línea de investigación con cierto éxito, siendo actualmente
considerado (un tanto injustamente) como el inventor de la calculadora. Además esta calculadora de
Pascal sólo podía sumar y restar, por lo que técnicamente fue inferior a su predecesora.
Pascal construyó su calculadora sobre la base de un diseño teórico que consistía en un artilugio
de complicados conjuntos de ruedas dentadas y piezas mecánicas (este artilugio fue denominado
Pascalina en sus primeros momentos, aunque después tomó el nombre de Máquina Aritmética de
Pascal). Aunque la Pascalina en teoría debía ofrecer resultados satisfactorios, la tecnología de aque-
llos días seguía siendo inapropiada para producir las piezas con la precisión requerida, resultando por
ello una máquina de escasa fiabilidad. He aquí un buen ejemplo de cómo las ideas teóricas siempre
han ido por delante de las posibilidades de la tecnología para ponerlas en práctica.
De forma paralela a Pascal, el matemático inglés Samuel Morland inventa en 1666 otro dispo-
sitivo denominado Máquina Aritmética de Morland, cuyo funcionamiento, diseño y prestaciones se
acercaban mucho a la Pascalina.
Un contemporáneo de Pascal, y figura de igual importancia, fue Gottfried Wilhelm von Leibniz
(1646-1716), que acompañó de un poderoso pragmatismo a su condición de excelente pensador
teórico. Baste citar que fue, junto con Isaac Newton, el descubridor del cálculo infinitesimal, el cual
abriría muchas puertas a las ciencias. Una de las citas más relevantes de Leibniz fue la siguiente:
“Es una pérdida de tiempo que personas cualificadas pierdan horas como
esclavos en la labor de calcular, lo que podría ser delegado en cualquier otro si se
pudieran utilizar máquinas.”
Leibniz ideó un dispositivo que fue llamado la Rueda de Leibniz o Calculadora Universal, si
bien es verdad que tuvo como base los trabajos anteriores de Pascal, este dispositivo podía realizar

40 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


EL ORDENADOR ELECTRÓNICO. ANTECEDENTES HISTÓRICOS

de forma automática sumas, restas, multiplicaciones y divisiones, llegando a superar con creces la
antigua calculadora de Schickard. Los principios técnicos y teóricos que Leibniz desarrolló fueron tan
trascendentales que hasta la segunda guerra mundial se construyeron máquinas basadas en ellos.
Otra no menos importante aportación de Leibniz a la ciencia de la computación fueron sus ideas
sobre lógica simbólica, expuestas en sus estudios sobre la posibilidad de utilización de máquinas
para la validación de hipótesis, la equiparación del razonamiento a la realización de cálculos y en sus
investigaciones pioneras sobre aritmética binaria.
El francés Charles-Xavier Thomas (1785-1870), basándose en el modelo de Leibniz, construyó
una de las primeras máquinas calculadoras que funcionó correctamente, hasta tal punto que su co-
mercialización resultó un verdadero éxito. Se llevó al mercado con el nombre de Aritmómetro.
De forma independiente, Mathieu Hahn construye en 1779 un curioso dispositivo basado en
un modelo circular que era capaz de realizar las operaciones aritméticas básicas: sumas, restas,
multiplicaciones y divisiones.
Aun así podemos apreciar en el siglo XVIII cierta relajación de los impulsos investigadores que do-
minaron el siglo anterior, tendencia que cambia al entrar en el siglo XIX, el cual abre un período donde
proliferan los avances en computación. Esta vez la constante perfección de los métodos de cálculo y
el desarrollo de la sistematización del razonamiento originaron teorías revolucionarias e innovadoras,
sentándose definitivamente los pilares de la moderna informática.
El primer gran invento del siglo XIX, lo aportó el francés Joseph Marie Jacquard en 1805, cuan-
do, después de ciertos intentos fallidos, consigue fabricar un telar automático controlado por tarjetas
perforadas que actúan sobre las agujas tejedoras, haciendo que éstas dibujasen figuras en el tejido.
Esta máquina puede ser considerada como el primer dispositivo programable del mundo, y su perfec-
ción llegó hasta tal punto que se pudo realizar con ella un retrato en tela del propio Jacquard.
En 1791 nacía en Inglaterra Charles Babbage que, con el tiempo, llegaría a ser una gran figura
de la ciencia de la computación. Entre sus méritos podemos destacar su condición de profesor en
Cambridge, su participación en la fundación de la prestigiosa Royal Astronomical Society además
de ser el primer receptor de su medalla de oro, galardonando su trabajo titulado “Experiencias en la
aplicación de maquinaria en los cálculos de tablas matemáticas”. Este estudio lo llevó a la práctica
mediante la construcción de dos máquinas: la Máquina de Diferencias y la Máquina Analítica, que
en cierta manera pueden ser consideradas las primeras computadoras de la historia (curiosamente su
fuente de energía era una máquina de vapor).
De ambas máquinas, la Máquina Analítica estaba conceptualmente muy cerca de los modernos
ordenadores de propósito general, incluyendo un “almacén”, que correspondería a la actual memoria,
y de una muela, que vendría a ser el procesador.
Babbage diseñó la programación de su sistema mediante una serie de cartones perforados,
idea que tomó del telar de Jacquard. Las tarjetas de Babbage, sin embargo, contenían instrucciones
y datos que utilizaba la Máquina Analítica, la cual, por otra parte, nunca llegó a funcionar correcta-
mente debido a la imprecisa tecnología del momento. De nuevo tenemos otro ejemplo de la falta
de paralelismo entre el desarrollo teórico y el tecnológico, sin embargo su diseño fue revolucionario
por su complejidad basándose en un intrincado mecanismo de ruedas dentadas controlado por los
mencionados cartones perforados.





 



  

Esquema de la máquina analítica de Babbage. Esta máquina se ideó para resolver tablas de logaritmos
y cálculos trigonométricos, y por su diseño y estructura se considera a Babbage como el primer padre de la informática.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 41


EL ORDENADOR ELECTRÓNICO. ANTECEDENTES HISTÓRICOS

NOTA: como anécdota curiosa mencionamos que fue la condesa de Lovelace


la encargada de preparar las tarjetas que se utilizaban con la Máquina Analítica, por
lo que es considerada la primera programadora del mundo.
Pehr George Scheutz, ingeniero sueco, construye en 1854 una máquina de características
similares a la de Babbage, contando con el apoyo de su gobierno. Al dispositivo se le denominó Má-
quina de Tabular y constituyó un nuevo ejemplo de éxito comercial, ya que, curiosamente, se utilizó
con profusión por las compañías de seguros para realizar tablas de valores.
En 1815 nacía en Londres el que sería uno de los padres de la moderna Informática y creador de
una nueva rama de las matemática y de la lógica: George Boole, auténtico ejemplo de inteligencia
privilegiada y aprendizaje autodidacto (aprendió latín, griego, francés, italiano y alemán por su cuenta).
Boole dominó completamente las matemáticas conocidas en sus días, y en 1854 publicó un
estudio sobre las leyes de la verdad que supuso la piedra angular de toda la teoría del proceso de ra-
zonamiento, identificando operaciones fundamentales y variables en este campo y representándolas
de forma simbólica.
Por ejemplo, introdujo variables que sólo podían tomar dos valores posibles (verdadero o falso, blan-
co o negro, arriba o abajo, etc.), desarrollando una nueva rama del álgebra centrada en estas expresio-
nes (el álgebra de Boole o booleana), la cual resultó fundamental cerca de 100 años más tarde, cuando
se utilizó como base matemática del diseño de la unidad aritmético-lógica de un ordenador digital.
Boole no llegó a ser consciente de la transcendencia que tendrían sus trabajos, ya que éstos
llegarían a ser la base de la actual lógica formal y fundamentales en el desarrollo de los modernos
ordenadores digitales. Por todo ello se le considera como uno de los padres de la informática.
Cabe destacar en este momento las aportaciones del único gran pensador español de la época
a la ciencia de la computación. En 1893, Leonardo Torres Quevedo (1852-1936) tomó con gran
interés los estudios y diseños de Babbage, proponiendo una máquina electromecánica basada en las
propuestas éste, y llegando a construir incluso cierto tipo de autómata, en concreto una especie de
robot capaz de jugar al ajedrez.
Hasta 1890 la Oficina del Censo de los Estado Unidos realizaba el censo de la población de este
país de forma manual, pero el rápido incremento de la población americana a finales del siglo pasado
hizo que esta actividad se hiciese imposible dada la cantidad de datos a manejar. Ante estos incon-
venientes, en 1890 Herman Hollerith, ingeniero mecánico, inventa una nueva técnica basada en
tarjetas perforadas, la cual dio un resultado espectacular, no sólo facilitando y acelerando el trabajo,
sino permitiendo incluso que se ampliase el cuestionario que rellenaba la gente, por lo que se pudo
disponer de mayor información de una forma más rápida y eficiente.
Este éxito animó a Hollerit a fundar en 1896 su propia compañía, la Tabulating Machine Com-
pany. Más adelante, esta compañía se convertiría en la International Business Machines Inc (la
famosa IBM).
La compañía de Hollerith, basada inicialmente en su tabulador de tarjetas perforadas fue fundada
con fines exclusivamente comerciales. Aun así la compañía fue la primera en aplicar un dispositivo
eficaz con fines científicos cuando en 1928 se utilizó el tabulador para calcular las posiciones de la
luna en el cielo.
En realidad los científicos pronto tomaron consciencia de las ventajas que supondría disponer de
un dispositivo que ahorrara interminables horas de cálculo. Fue esta necesidad de equipos de cálcu-
lo más eficientes orientados al mundo científico lo que impulsó a Wallace J. Ecker (1920-1971),
inicialmente formado como astrónomo, a proponer a la IBM ciertas extensiones en el diseños de sus
máquinas tabuladoras para su aplicación a fines científicos.
Fleming, científico inglés, inventa en 1904 un dispositivo destinado a producir la primera revolu-
ción tecnológica en el mundo de los ordenadores; se trata de la válvula de vacío, destinada a sustituir
a los relés electromecánicos y utilizada como elementos biestables (pueden estar en dos estados
posibles). La aplicación de válvulas de vacío redujeron el tamaño de los primeros ordenadores y mul-
tiplicaron su velocidad por mil. Las válvulas de vacío aún pueden encontrarse en antiguos aparatos
de radio y televisión.
Otro pensador y lógico inglés llamado Alan Turing (1912-1954), publicó en 1936 un trabajo
que fue trascendental para la construcción de la primera computadora digital años más tarde. En su
estudió demostró que un cálculo efectivo puede ser conceptualmente formulado como un tipo parti-

42 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


EL ORDENADOR ELECTRÓNICO. ANTECEDENTES HISTÓRICOS

cular de máquina abstracta (máquinas de Turing). Inicialmente estas ideas supusieron un importante
avance teórico, aplicándose en la práctica una década después.
Otra persona que estuvo fuertemente involucrada en el diseño de computadoras digitales electro-
mecánicas fue Howard T. Aiken (1900-1973). En 1937 identificó cuatro características que debía po-
seer una computadora de uso científico y que no poseían las máquinas de gestión de aquella época:
– La posibilidad de manipular tanto números positivos como negativos.
– La capacidad de utilizar determinadas funciones matemáticas.
– La capacidad de operar de forma totalmente automática.
– La capacidad de realizar cálculos extensos en su secuencia natural.
En 1944 Aiken y sus colaboradores, junto con un grupo de ingenieros de la cada vez más po-
derosa IBM, diseñaron y construyeron una máquina electromecánica que ponía a su disposición las
características citadas anteriormente. Entre sus logros podríamos citar la capacidad de multiplicar dos
números en seis segundos y la de dividirlos en doce. Los programas estaban codificados en una cinta
de papel. Fue la primera computadora electromecánica y fue denominada popularmente Mark-I.
CURIOSIDAD: la Mark-I medía 16,6 metros de largo por 2,6 metros de alto, su
peso se aproximaba a 70 toneladas, poseía 800.000 piezas móviles y la longitud
total de los cables utilizados en su construcción alcanzaba 800 kilómetros.
Bell Telephone Laboratories, la empresa creada por Alexander Bell (inventor del teléfono), cons-
truyó una máquina de similares posibilidades que fue terminada con éxito en 1940. Algunas otras
versiones mejoradas se construyeron a lo largo de esos años, todas basadas en tecnología electro-
mecánica, teniendo el relé como componente principal de conmutación.
En 1938, Claude E. Shannon, del Instituto Tecnológico de Massachusetts (el prestigioso MIT),
contribuyó al desarrollo de la informática con otro éxito notable. Shannon demostró que el análisis de
circuitos de conmutación complejos podía realizarse mediante el álgebra de Boole, lo que supuso un
enlace muy importante entre la teoría y el diseño de los futuros ordenadores.
NOTA: el término BIT (Binary Digit) fue acuñado por Shannon en esas fechas, cuando publica sus
estudios sobre la teoría de la comunicación.
En 1940 un físico llamado John V. Atanasoff, profesor de la Universidad de Iowa (Estados
Unidos), y un alumno suyo, Clifford E. Berry, construyen la primera computadora digital totalmente
electrónica, las piezas electromecánicas en sus circuitos fueron sustituidas por válvulas. La llamaron
ABC (Atanasoff Berry Computer). Esta computadora utilizaba aritmética binaria y estaba construida
con el único propósito de resolver sistemas de ecuaciones lineales, principal interés de Atanasoff, por
lo cual no se consideró nunca como una herramienta decisiva de propósito general.
Aun así, la ABC ejerció una influencia decisiva sobre dos científicos de la Escuela Moore de Inge-
niería Eléctrica: John W. Mauchly y John Presper Eckert, diseñadores de la primera computadora
digital a gran escala. Esta computadora, llamada ENIAC, fue diseñada y construida entre 1943 y
1945 y contenía 18.000 válvulas y 1.500 relés. Entre los miembros del equipo que construyeron la
ENIAC se encontraban Atanasoff y Berry, cuyas experiencias con la ABC resultaron fundamentales.
La ENIAC estaba basada en válvulas de vacío, técnica que aceleró los cálculos mil veces respecto
a la MARK-I, ya que era capaz de sumar dos números en dos diezmilésimas de segundo. Aun así la
ENIAC ocupaba una superficie de 160 metros cuadrados, pesaba casi 30 toneladas y tenía aproxima-
damente 17.500 válvulas que consumían 200.000 watios, razón por la cual, la primera vez que entró
en funcionamiento, las luces de la ciudad de Filadelfia se oscurecieron.
CURIOSIDAD: el ejército de los Estados Unidos utilizó con frecuencia la ENIAC
para el cálculo de las trayectorias de los proyectiles de artillería.
Un matemático del Institute for Advanced Study de la Princeton University (Estados Unidos),
se interesó mucho por la construcción de la ENIAC. Su nombre era John von Neumann (1903-1957),
y puede ser considerado un genio en todos sus sentidos: fue doctor en matemáticas, graduado en física
experimental y química cuando contaba sólo con veintidós años. Al cumplir los veintitrés ya era un renom-
brado matemático en todo el mundo, colaborando con Hilbert (otro famoso matemático) en sus estudios
sobre la axiomatización de las matemáticas y realizando importantes estudios sobre lógica formal.
Por otra parte Von Neumann estaba muy interesado en la resolución de ciertos problemas plan-
teados por los modelos matemáticos de dinámica de fluidos que exigían cálculos complicados y

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 43


EL ORDENADOR ELECTRÓNICO. ANTECEDENTES HISTÓRICOS

tediosos. Por todo ello, Von Neumann conjugó en sus logros en computación dos antiguos intereses
de la historia de la ciencia: la sistematización de la lógica (aspecto teórico) y la posibilidad de realizar
cálculos de forma rápida y fiable (aspecto práctico).
En agosto de 1944 Von Neumann fue incluido en el proyecto de la ENIAC, formando parte de un
comité que dictó los fundamentos del diseño de una nueva máquina, la EDVAC, con la que se preten-
dían corregir las deficiencias de la ENIAC. El diseño de la estructura lógica de este nuevo dispositivo
cayó bajo la responsabilidad de Von Neumann, siendo durante este trabajo cuando ideó muchos de
los postulados e ideas más importantes de la informática actual, entre los que se incluyen:
– Una notación para describir los aspectos lógicos de los circuitos de un ordenador, la cual
fue adaptada de un método utilizado anteriormente en medicina para describir el sistema
nervioso.
– Un conjunto detallado de instrucciones para la EDVAC.
– El concepto de programa almacenado, idea por la cual éste y los datos que utiliza pueden
almacenarse en memoria.
– El primer programa almacenado que ordenó y mezcló los números de una lista.
– La noción de secuenciamiento de operaciones basada en la idea de que, aunque una com-
putadora trabaje muy deprisa, una tarea puede subdividirse en una secuencia de pasos,
realizables uno detrás de otro. Esta idea fue decisiva en la simplificación de la circuitería de
la EDVAC en relación a la de la ENIAC.
– Al contrario de la ENIAC, que utilizaba aritmética decimal, la EDVAC utilizaba notación binaria
tanto para el almacenamiento como para la manipulación de números e instrucciones.
El diseño de computadoras evolucionó rápidamente en varias direcciones desde la construcción
de EDVAC, ya que las contribuciones de Von Neumann fueron tan trascendentales que forman las
bases de diseño de los modernos ordenadores; de hecho, hoy en día, en ciertos ámbitos, se utiliza el
término de máquina de Von Neumann para referirnos a ellos.
A partir de ese momento termina la etapa “prehistórica” de la informática. Nuevos desarrollos
como la comunicación de señales en paralelo, el uso de soportes magnéticos y la introducción de los
núcleos de ferrita como elementos principales de la memoria, abren nuevas etapas, que pasamos a
describir a continuación.

ORDENADORES AÑO DE APARICIÓN INVENTORES


ABC 1940 John V. Atanasoff, Clifford E. Berry
MARK-I 1944 Howard T. Aiken
ENIAC 1945 John W. Mauchly, John Presper Eckert
BINAC 1949 John W. Mauchly, John Presper Eckert
UNIVAC-I 1951 John W. Mauchly
EDVAC 1952 John von Neumann
Ordenadores que supusieron hitos históricos y sus inventores

El nacimiento de la moderna infor-


mática puede datarse en la década
de los 50 en Estados Unidos

44 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


EL ORDENADOR ELECTRÓNICO. ANTECEDENTES HISTÓRICOS

5. GENERACIONES DE ORDENADORES
Desde mediados del siglo XX hasta finales de la década de los ochenta, los avances tecnológicos
se suceden sin cesar. A lo largo de este período diferenciamos ciertas etapas denominadas genera-
ciones de ordenadores, que vienen definidas principalmente por los siguientes aspectos:
– La tecnología vigente en un momento dado.
– Las técnicas de programación utilizadas.
– El impacto de la informática en la sociedad.
Por otra parte, y debido al increíble ritmo de desarrollo de los últimos diez años, esta forma de cla-
sificación ha perdido la efectividad que tenía. Actualmente es muy difícil separar una etapa de otra.

5.1. PRIMERA GENERACIÓN (1940-1952)


El comienzo de la historia actual de la informática lo constituyen todos aquellos ordenadores
construidos a base de válvulas de vacío como elemento principal de control. El uso principal de estos
primeros ordenadores fueron aplicaciones científicas y militares, y se programaban directamente en
lenguaje máquina.
La primera generación incluye ordenadores con las siguientes características:
– Utilizan relés electromecánicos, válvulas y tubos de vacío como elementos principales de
control.
– Las memorias estaban constituidas por tarjetas y cintas perforadas, y posteriormente por
líneas de demora de mercurio, tecnologías ya totalmente desfasadas.
– La velocidad de proceso se mide en milisegundos.
– El uso principal de estos primeros ordenadores fueron aplicaciones científicas y militares. Se
construyeron para tareas muy concretas.
– Se programaban directamente en lenguaje máquina, cerrando o abriendo manualmente una
serie de interruptores.

5.2. SEGUNDA GENERACIÓN (1952-1964)


A principio de los años cincuenta un nuevo dispositivo denominado transistor supuso la segun-
da revolución tecnológica en el campo de la computación. El transistor fue inventado por Walter
Brattain, John Barden y W. Shockley en los laboratorios Bell en 1947, y fue tal su impacto que
fueron galardonados con el premio Nobel.
El transistor sustituyó a la válvula de vacío, reduciendo el tamaño de los circuitos, su consumo
y su coste; además aumentaron la fiabilidad de los ordenadores. Estas ventajas, apoyadas por la
introducción de las memorias de núcleos de ferrita y los soportes de información magnéticos, dieron
paso a la segunda generación.
Ahora los ordenadores ya no eran costosísimas máquinas a disposición de unos cuantos orga-
nismos privilegiados, se extendieron con velocidad por empresas y universidades, ampliándose sus
aplicaciones a los campos administrativos y de gestión. Para ello fue necesario desarrollar nuevos
métodos de programación más asequibles y adaptados al ser humano, por lo que hicieron su apari-
ción los lenguajes evolucionados como el Ensamblador, Fortran, Cobol y Algol.
La aplicación del transistor en la construcción de ordenadores supuso el comienzo de la segunda
generación de ordenadores que estuvo caracterizada por:
– La sustitución de la válvula de vacío por el transistor, reduciendo el tamaño, el consumo y el
coste de los ordenadores y aumentando su fiabilidad.
– La introducción de las memorias de núcleos de ferrita y de los soportes de información mag-
néticos.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 45


EL ORDENADOR ELECTRÓNICO. ANTECEDENTES HISTÓRICOS

– La sustitución del cableado por circuitos impresos, otro factor importante en el aumento de
la velocidad de los ordenadores, pues se disminuye la distancia que tienen que recorrer las
señales eléctricas.
– La aparición de los primeros periféricos que simplifican el diseños de los sistemas hard-
ware.
– La rápida expansión de los ordenadores por empresas y universidades, ampliándose sus
aplicaciones a los campos administrativos y de gestión.
– La necesidad de desarrollar nuevos métodos de programación más asequibles y adaptados
al ser humano: aparecen los lenguajes de programación evolucionados (Ensamblador, For-
tran, Cobol y Algol).

5.3. TERCERA GENERACIÓN (1964-1971)


El descubrimiento del transistor dio paso a su uso como elemento discreto en los circuitos de los
ordenadores. A mediados de la década de los sesenta, se comenzaron a construir circuitos que inte-
graban en un solo dispositivo varios transistores, naciendo así la industria de los circuitos integrados,
destinada a provocar la tercera revolución tecnológica.
Aplicación práctica de lo que se llamó SSI (Short Scale Integration) o pequeña escala de integra-
ción, mediante la cual se introdujeron diez transistores en una única pastilla de tamaño reducido.
Años más tarde esta tecnología evolucionaba hacia la MSI (Medium Scale Integration), que
integraba hasta 1.000 transistores en una única pastilla o chip, apareciendo los primeros circuitos
integrados del mercado.
La miniaturización consecuente tuvo sus consecuencias en los ordenadores: de nuevo se redujo
su tamaño y su precio, apareciendo las primeras minicomputadoras.
Se producen otros avances hardware. Aplicación práctica de las memorias de semiconductores y
de los discos magnéticos como medio para almacenar información de forma permanente.
El software aportó el desarrollo y difusión de los sistemas operativos y de técnicas como el pro-
ceso en tiempo real, el modo interactivo y la multiprogramación.
Aparece el lenguaje de programación BASIC.

5.4. CUARTA GENERACIÓN (1971-1981)


Las tecnologías LSI (Large Scale Integration) y VLSI (Very Large Scale Integration), alta escala de
integración y muy alta escala de integración, respectivamente, posibilitaron la introducción de más de
10.000 puertas lógicas por chip, apareciendo así en 1971 el primer microprocesador, dispositivo
que incluía toda la unidad central de proceso de un ordenador en un único chip.
Aparecen los primeros ordenadores personales (el famoso IBM PC), que utilizaba los disquetes
(floppy disk) como medio de almacenamiento externo, además de multitud de lenguajes de progra-
mación.
Nuevas tecnologías como las redes de ordenadores y la teleinformática (combinación de tecno-
logías informáticas y de comunicaciones), contribuyeron a esta cuarta generación.

5.5. QUINTA GENERACIÓN (1981-HASTA LA ACTUALIDAD)


En 1981 se anuncia por parte de los principales productores de alta tecnología (Estados Unidos y Ja-
pón principalmente) el nacimiento de una nueva generación, entre cuyas características podemos citar:
– Utilización masiva de componentes VSLI.
– Técnicas de Inteligencia Artificial y Sistemas Expertos.
– Creación de lenguajes de programación cercanos al lenguaje natural.

46 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


EL ORDENADOR ELECTRÓNICO. ANTECEDENTES HISTÓRICOS

– Aplicación de los ordenadores a muchos aspectos de la vida cotidiana.


– Sistemas operativos orientados al usuario. La aplicación de interfaces gráficas y de disposi-
tivos como el ratón acercan la informática al gran público.
– Interconexión global de ordenadores mediante redes internacionales (INTERNET).
– Integración de datos, imágenes y sonidos: nace la multimedia.

6. TENDENCIAS ACTUALES DE LOS SISTEMAS INFORMÁTICOS


Las organizaciones complejas evolucionan desde una concepción tradicional, centralizada y jerár-
quica, donde los distintos departamentos tienen cometidos fijos y predeterminados, a otra más abier-
ta en la que cada unidad organiza sus propias actividades sobre la base de criterios de cumplimiento
de objetivos, adquiriendo mayor grado de responsabilidad y de autonomía y realizando funciones más
dispares.
El modelo tradicional define claramente las jerarquías y flujos de los datos. En los nuevos mode-
los las jerarquías se acortan sensiblemente y proliferan las relaciones cruzadas y los flujos de datos
son más directos desde quien produce la información hasta quien la necesita.
Desde la construcción del primer ordenador comercial, en 1946, la tecnología experimenta una
fuerte evolución desde los primeros sistemas de alto coste y sólo manipulables por personal especia-
lizado, a la gran disparidad de plataformas software, hardware y de servicios que se ofrecen hoy en
día en el mercado de la informática.
Para los usuarios la informática pasa de ser una gran desconocida a ser una herramienta de
trabajo habitual. Los diseñadores de sistemas informáticos han oscilado a la hora de diseñar modelos
de arquitecturas informáticas entre estos extremos:
– Informática centralizada.
– Informática distribuida.

6.1. INFORMÁTICA CENTRALIZADA


La informática centralizada se caracteriza porque todo reside en un ordenador
central de gran complejidad y coste.
En las primeras generaciones de ordenadores (desde la primera a la tercera), la única arquitec-
tura posible es la centralizada. Los datos viajaban desde los distintos departamentos al departamento
informático, donde eran introducidos en el ordenador central mediante convertidores de fichas per-
foradas a cintas.

6.2. INFORMÁTICA DISTRIBUIDA


Con la aparición de los microordenadores y, por tanto, el abaratamiento de los costes, surge una
gran expansión de la informática personal.
En las arquitecturas distribuidas cada usuario dispone de su propio sistema
informático a la medida de sus necesidades.

6.3. NUEVOS MODELOS


Con el avance tecnológico surge una pugna entre los adeptos de cada uno de los tipos de arqui-
tecturas, centralizado y distribuido, que da lugar a la aparición de nuevos modelos que tratan de llegar
a un compromiso entre una y otra:
– Terminales no inteligentes que se conectan al ordenador central.
– Miniordenadores departamentales con aplicaciones homogéneas que periódicamente vier-
ten sus datos al ordenador central.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 47


EL ORDENADOR ELECTRÓNICO. ANTECEDENTES HISTÓRICOS

– Sistemas informáticos departamentales que trabajan aisladamente, ya que realizan funcio-


nes independientes del resto de departamentos.

6.4. TENDENCIAS
Si bien en los sistemas informáticos corporativos subsisten de forma mayoritaria las arquitecturas
centralizadas, continúa la búsqueda de soluciones hacia arquitecturas distribuidas.
Estas soluciones dependen enteramente de la aparición de gestores de bases de datos distribuidas
suficientemente potentes, de modo que el usuario no tuviera que preocuparse de dónde se encuentran
los datos que estarían dispersos por los distintos equipos y bajo el control del propio sistema.
El acceso a los datos y servicios, así como la integridad y consistencia de éstos, estarían garan-
tizados desde cualquier puesto conectado mediante el sistema de comunicaciones de forma total-
mente transparente al usuario.
Según esto, parece que el tipo de arquitectura informática distribuida marca la tendencia actual
más firme.

6.5. PROCESOS COOPERATIVOS Y ARQUITECTURA CLIENTE/SERVIDOR

6.5.1. Definición y ventajas de los procesos cooperativos


El proceso cooperativo es aquel en el que dos o más elementos lógicos dife-
rentes interactúan entre sí en la realización de una tarea común.
De forma más extendida el concepto de proceso corporativo consiste en un conjunto de ordena-
dores que ejecutan una misma aplicación. Normalmente un ordenador central y múltiples microorde-
nadores que comparten la ejecución de un proceso global.
Las ventajas de los procesos cooperativos frente al modelo convencional, se derivan de la utilización
eficiente de los equipos microordenadores y la consiguiente descarga de tareas del ordenador central.

6.5.2. Conceptos básicos de arquitecturas cliente/servidor


El concepto de servidor se aplica de forma genérica a equipos informáticos
que suministran servicios de base de datos.
Con más precisión se atribuye a procesos lógicos que aportan servicio a formulaciones de solici-
tudes, también lógicas.
Los clientes son estaciones de trabajo u ordenadores personales que realizan peticiones lógicas
al servidor.
Los procesos lógicos que requieren servicio de un servidor, también se denominan clientes. El
diálogo entre cliente y servidor siempre se inicia a requerimiento del cliente. Varios clientes pueden
compartir un mismo servidor.
El principal objetivo de la arquitectura cliente/servidor es permitir a las aplicaciones clientes ac-
ceder a servicios ajenos de gestión de datos.

7. EVOLUCIÓN DE LA TECNOLOGÍA DE LOS ORDENADORES: EL


FUTURO DE LA INFORMÁTICA
La informática, en la mayoría de sus áreas, sigue en pleno desarrollo en esta primera década del
nuevo siglo, abriendo sorprendentes e innovadores campos de investigación.
Los procesos de diseño y fabricación de procesadores están en continuo avance, duplicándose
la potencia de éstos anualmente y desarrollándose nuevas técnicas y conceptos. Tal es el caso de los
procesadores paralelos, que representan el próximo paso de los postulados de Von Neumann, ya que
ejecutan instrucciones de forma paralela y no secuencial.

48 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


EL ORDENADOR ELECTRÓNICO. ANTECEDENTES HISTÓRICOS

Von Neumann supuso que la electrónica siempre sería lo suficientemente rápida para ejecutar
todos los pasos de un algoritmo de forma secuencial, pero debido a la evolución tecnológica los or-
denadores se han ido utilizando en la resolución de problemas cada vez más complejos, habiéndose
llegado a un nivel en que la suposición de Von Neumann ha dejado de ser válida. El diseño de los
procesadores paralelos parecen ofrecer la solución.
Por otra parte los lenguajes de programación también se han desarrollado enormemente en los
últimos años, incluyendo las técnicas de orientación a objetos, permitiendo el aislamiento de módulos
de software reutilizables y originando la construcción de programas más fiable.
Otra de las áreas de máximo interés es el desarrollo de redes de ordenadores, que tienen su
máximo exponente en Internet. Los ordenadores ya no son unidades aisladas; sino que forman parte
de redes que les permiten compartir recursos y comunicarse a grandes velocidades.
Con la difusión y popularización de los ordenadores personales hemos entrado en una nueva era
de las tecnologías de la información, cuyo horizonte parece perfilarse como la sociedad automatizada
o sociedad del ocio en un futuro no muy lejano. Los especialistas, interpretando las repercusiones
de esta revolución de la información en la sociedad, consideran que el impacto ha sido mucho más
profundo que el que causó en su día la revolución industrial.
No es fácil predecir los futuros avances y mucho menos los plazos en que éstos ocurrirán, de-
bido fundamentalmente a que la evolución y el desarrollo de la tecnología aumenta a un ritmo cada
vez más acelerado. No obstante, a partir de los logros alcanzados y de otros en experimentación, se
puede vislumbrar el efecto de su implantación masiva en la sociedad.
La gestión de las empresas se realizará de forma totalmente automatizada, mediante el uso de
los sistemas de información, eliminando así la mayor parte del trabajo manual.
En la industria, el uso de robots con capacidad de variar su producción con tan sólo modificar el
programa de su funcionamiento, hará posible el abaratamiento de productos personalizados o de con-
sumo minoritario, fabricados en pequeña escala, de forma similar a la actual producción en masa.
En el campo de la medicina, las bases de datos, las redes entre hospitales, los sistemas expertos
de diagnóstico y los de vigilancia de pacientes, facilitarán la labor de médicos y personal sanitario para
salvar vidas, no sólo en los grandes centros urbanos, sino en los entornos rurales o aislados, los cua-
les dispondrán prácticamente de las mismas posibilidades gracias a las redes de telecomunicación.
En educación, los programas tutoriales de enseñanza asistida por ordenador se generalizarán en
los centros docentes, universidades y departamentos de formación de las empresas, lo que facilitará
la labor del profesor en la atención personalizada y la adaptación a los diversos ritmos de aprendizaje
de los alumnos, así como en educación especial a discapacitados. Mediante reconocedores y gene-
radores de voz se facilitará la comunicación con el ordenador, el cual será capaz incluso de detectar
el estado anímico de un alumno.
En ciencias e ingenierías, los grandes y complejos programas de simulación eliminarán la necesi-
dad de costosos modelos a escala, y el proceso estadístico de enormes cantidades de datos facilitará
la planificación y la toma de decisiones.
Actualmente se está estudiando el funcionamiento del cerebro humano y de las redes neuro-
nales, con el fin de impulsar de forma decisiva las técnicas de inteligencia artificial y su posterior
aplicación a la robótica.
Existen multitud de opiniones sobre el efecto de todos estos cambios en la sociedad del futuro,
no todas coincidentes. Unos piensan que proporcionarán mayor libertad individual y una sociedad
más humana, por ejemplo, la fabricación controlada mediante ordenador implicará un aumento de la
productividad, una reducción de la jornada laboral, un nivel de vida superior y en definitiva un paso
fundamental hacia la sociedad del ocio.
Por el contrario, los más pesimistas auguran el control y el dominio de los ordenadores sobre la
vida del individuo, social y privada, y de su efecto deshumanizador.
Para finalizar, podemos decir que efectivamente no todas las aplicaciones de los ordenadores
son beneficiosas y ni siquiera efectivas, pero lo que resulta innegable es que, hoy por hoy, hemos de
considerar la informática como una herramienta imprescindible en nuestra vida diaria, que resuelve
muchos más problemas de los que genera, dependiendo sus consecuencias futuras sobre el individuo
y sobre la sociedad de la orientación que le demos.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 49


EL ORDENADOR ELECTRÓNICO. ANTECEDENTES HISTÓRICOS

8. NIVELES DE ARQUITECTURA: TIPOS DE ORDENADORES


Los equipos informáticos se pueden clasificar según diversos criterios. Uno de los más frecuentes
es el tamaño, término que incluye: potencia de cálculo, capacidad de almacenamiento interno y nú-
mero de periféricos que pueden soportar. Estas características están condicionadas por las distintas
unidades que componen el ordenador (procesador, memoria, etc.), y es lo que llamamos Arquitectura
del ordenador. Según estas tenemos los siguientes tipos:
– Superordenadores
– Mainframes
– Miniordenadores
– Microordenadores

8.1. SUPERORDENADORES
Son los ordenadores más potentes que existen. Las prestaciones de velocidad y capacidad de
proceso son impresionantes, pues están diseñadas especialmente para cálculos muy complejos.
Poseen un gran número de procesadores que trabajan en paralelo, con lo que se consiguen realizar
billones de operaciones por segundo. Existen relativamente pocas unidades en el mundo, y se utilizan
para fines muy concretos: predicciones meteorológicas, control de satélites, aplicaciones militares,
etc. Un ejemplo de ellos es el Cray Y-MP de Cray Research Inc.

8.2. MAINFRAMES
Son grandes equipos orientados generalmente a la gestión de grandes empresas y a procesar
grandes bases de datos. Su potencia de cálculo es inferior a la de las anteriores, ejecutando varios
millones de operaciones por segundo. Disponen de varios Gb de memoria RAM y de palabras de 64
o 128 bits. Una de sus características principales es la de soportar un gran número de terminales
trabajando de forma simultánea. La IBM 3090 admite aproximadamente 5000 usuarios. Esto se
consigue mediante técnicas de tiempo compartido y multiprogramación.
Funcionan dirigidos por un sistema operativo muy específico (estudiaremos los sistemas opera-
tivos más adelante), y pueden intervenir en procesos distribuidos donde se conectan varios de ellos,
de forma que se reparten el trabajo a realizar.

Mainframe. Obsérvese el tamaño


relativo de la pantalla

50 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


EL ORDENADOR ELECTRÓNICO. ANTECEDENTES HISTÓRICOS

8.3. MINIORDENADORES
Son máquinas de tipo medio. Se utilizan para gestionar empresas u organizaciones de tamaño
moderado. Su capacidad de proceso es inferior a la de las anteriores y controlan un menor número
de terminales que puede llegar hasta 64. Sus sistemas operativos son poco estándares y pueden
llegar a ser muy específicos, dependiendo del constructor. Dos ejemplos muy típicos de este tipo de
computadoras son la VAX de Digital Equipment Corporation y la AS400 de IBM.

8.4. ESTACIÓN DE TRABAJO


Pequeño ordenador comparado con el tamaño de los anteriores, pero de gran potencia. Se utiliza
para trabajos de ingeniería, diseño gráfico o similares, tareas que requieren una alta capacidad de
proceso, pero que no requieren algunas de las prestaciones de los miniordenadores (por ejemplo la
conexión de terminales). Posee componentes especialmente preparados para acelerar tareas críticas,
como la gestión de vídeo e imágenes.

8.5. MICROORDENADORES
Son equipos orientados al trabajo personal o monousuario. Estos ordenadores han permitido la
gran difusión de la informática que vivimos en nuestros días, y son fruto de los avances tecnológicos,
especialmente de miniaturización de componentes, y de la continua reducción de precios.

Los modernos ordenadores PC ofrecen elevadas prestaciones


a un precio moderado. Son equipos potentes, versátiles y
adecuados para muchas tareas cotidianas, tanto en entornos
profesionales como domésticos

La estructura y funcionamiento se basa en un microprocesador, que ofrece prestaciones limita-


das respecto a las anteriores categorías, pero suficientes para que esta arquitectura haya tenido un
gran éxito en pequeñas empresas y en el hogar de muchos usuarios. Además, la conexión en red de
estos ordenadores supone una alternativa muy interesante a los grandes ordenadores multiusuarios
(mainframes).
Según el tipo de microprocesador empleado, se define la arquitectura del ordenador. Dos or-
denadores con la misma arquitectura (y con el mismo sistema operativo) serán capaces de ejecutar
el mismo programa, decimos entonces que los ordenadores son compatibles, lo que supone una
gran ventaja de estandarización. Las principales arquitecturas son los compatibles PC (basados en
los microprocesadores de INTEL) y los MacIntosh de APPLE (basados en los microprocesadores de
Motorola), con gran ventaja de mercado para los primeros.
Los microordenadores se clasifican en varios tipos:
– Ordenador personal de sobremesa. Está muy extendido tanto en el ámbito doméstico
como empresarial. Los más modernos poseen potentes microprocesadores y gran capacidad
de memoria RAM que puede alcanzar hasta 256 Mb, prestaciones que los acercan a los
miniordenadores de gama baja.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 51


EL ORDENADOR ELECTRÓNICO. ANTECEDENTES HISTÓRICOS

– Portátil. Se trata de un microordenador cuyas características físicas permiten fácilmente su


transporte (pesan menos de 5 Kg). Suelen tener el teclado integrado en la CPU y pantallas de
cristal líquido, así como algún dispositivo apuntador integrado (ratón, trackball o similar). Debido
a estas particularidades y la miniaturización de sus componentes, son más caros que los de so-
bremesa.

Un ordenador portátil

– Notebook. Es un microordenador similar al portátil, pero aún más pequeño, de menor peso
y más especializado. Tiene útiles aplicaciones como la de agenda electrónica, procesador de
textos, etc.

Un ordenador notebook

52 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


EL ORDENADOR ELECTRÓNICO. ANTECEDENTES HISTÓRICOS

– Palmtop. Es el dispositivo más pequeño que puede considerarse ordenador. Son muy re-
cientes, y van incorporando muchas prestaciones en un tamaño realmente reducido.

Ordenadores palmtop o PDAs

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 53


TEMA
3

Equipos informáticos. Elementos


principales. Utilización. Concepto de
memoria y de sus distintas clases.
Características y función de la memoria
principal de un ordenador
El ordenador electrónico constituye el elemento fundamental de
la informática a nivel práctico. Este tema introduce los conocimientos
básicos sobre su estructura y funcionamiento.
Además estudiaremos la memoria del ordenador, cómo funciona,
las tecnologías existentes, cómo se presentan físicamente y los diferen-
tes tipos existentes en los ordenadores actuales.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 55


EQUIPOS INFORMÁTICOS. ELEMENTOS PRINCIPALES

ESQUEMA INICIAL

1. Elementos principales
1.1. Estructura básica
1.2. Unidad Central de Proceso
1.2.1. Unidad de control
1.2.2. Unidad Aritmético-Lógica (UAL)
1.2. Memoria central
1.3. Buses

2. Utilización: funcionamiento básico de un ordenador

3. Operaciones básicas
3.1. Entrada de datos
3.2. Salida de datos
3.3. Transmisión/recepción de datos
3.4. Tratamiento de datos

4. Aplicaciones de los ordenadores

5. Memoria

6. Tecnologías
6.1. ROM: Read Only Memory (Memoria de sólo lectura)
6.1.1. ROM
6.1.2. PROM, Programmable ROM (ROM Programable)
6.1.3. EPROM, Erasable Programmable ROM (ROM Programable que se pue
de borrar)
6.1.4. EEPROM, Electrically Erasable Programmable ROM (ROM Programable
que se puede borrar eléctricamente)
6.2. BIOS, CMOS y ROM shadowing
6.3. RAM: Random Access Memory (Memoria de acceso aleatorio)
6.3.1. SRAM: Static RAM (RAM estática)
6.3.2. DRAM: Dynamic RAM (RAM dinámica)
6.4. Memoria Caché

7. Organización y funcionamiento básico de la memoria


7.1. Organización física y lógica
7.2. Proceso de acceso básico

8. Factores relacionados con la memoria


8.1. El controlador de memoria
8.2. Tiempo de acceso

56 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


EQUIPOS INFORMÁTICOS. ELEMENTOS PRINCIPALES

8.3. DRAM síncrona y DRAM asíncrona


8.4. El bus de memoria
8.5. Estados de espera y system timing
8.6. Acceso en modo ráfaga (Burst Mode)
8.7. Interleaving
8.8. Memoria real y virtual
8.9. Capacidad
8.10. Paridad y memoria ECC

9. Módulos de memoria
9.1. Módulos DIPs (Dual Inline Package)
9.2. Módulos estándar y propietarios
9.3. Módulos SIMMs (Single Inline Memory Module)
9.4. Módulos DIMMs (Dual Inline Memory Modules)
9.5. Módulos RIMM
9.6. Bancos de memoria

10. Estructura lógica de la memoria


10.1.Segmentos y desplazamientos
10.2. Zonas de la memoria
10.2.1. Memoria convencional
10.2.2. Área de memoria superior (Upper Memory Area) o UMA
10.2.3. Área de memoria alta (High Memory Area) o HMA
10.2.4. Memoria extendida (XMS) y expandida (EMS)

1. ELEMENTOS PRINCIPALES

1.1. ESTRUCTURA BÁSICA

La estructura hardware de un ordenador digital quedó definida básicamente en la década de los


50, casi a comienzos de la historia de la informática. Desde entonces pocas cosas han cambiado
en dicho diseño (al menos en sus módulos esenciales). Sin embargo sí se han desarrollado muchas
mejoras en la tecnología empleada para llevar a la práctica el diseño teórico.
El hardware de un ordenador se estructura en tres subsistemas bien diferenciados, con funciones
bien definidas, pero trabajando totalmente integradas. Son las siguientes:
– La unidad central de proceso (UCP o CPU utilizando el término inglés).
– La memoria central.
– Las unidades de entrada/salida o periféricos.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 57


EQUIPOS INFORMÁTICOS. ELEMENTOS PRINCIPALES

A veces se considera la CPU y la memoria como una única unidad, debido a la fuerte relación
existente entre ellas y a su proximidad física dentro de la carcasa del ordenador (en contrapartida a
los periféricos que suelen encontrarse más distantes). Desde el punto de vista académico conviene
separar estas dos unidades, ya que tanto sus características como sus funciones son diferentes.

 

   
    

   


  

Esquema de la estructura básica de un ordenador. El bloque marcado con una C representa un elemento controlador de la
unidad de entrada/salida. Este controlador junto con la unidad es el periférico (recuadro punteado). El controlador puede
situarse físicamente junto a la unidad o cerca de la UCP (caso que representa la figura). La comunicación entre los subsiste-
mas se realiza por los buses del sistema y conexiones externas

1.2. UNIDAD CENTRAL DE PROCESO


También denominado CPU (Central Processing Unit). Es el subsistema más importante en un or-
denador, actúa como su cerebro, coordinando y supervisando el funcionamiento del resto del sistema
y procesan las instrucciones que componen los programas.
NOTA: la analogía con el cerebro humano es sólo válida en el sentido de que
controla y coordina todas las operaciones del ordenador, pero nunca respecto a su
complejidad y versatilidad, cualidades únicas de las personas.
La secuencia de operación de la CPU es siempre la misma:
1. Extraer de la memoria una instrucción del programa que se está ejecutando.
2. Analizar dicha instrucción.
3. Realizar las operaciones necesarias para su realización.
Este ciclo es invariable para todos los programas, independientemente de su naturaleza y de su
propósito.
Actualmente la CPU está formada por un conglomerado de circuitos electrónicos integrados en
un chip denominado microprocesador, aunque también se utiliza la palabra procesador para sim-
plificar. El microprocesador se sitúa sobre un circuito integrado de mayor tamaño denominado placa
base o placa madre (debido a que es el principal sistema de un ordenador), y suele acompañarse
de algún dispositivo refrigerador, ya que genera una importante cantidad de calor.
NOTA: según lo expuesto hasta ahora, los siguientes términos son equivalen-
tes: “UCP”, “CPU”, “microprocesador”, “procesador”.
Un criterio de clasificación para los ordenadores es el tipo de procesador que poseen. Si clasifi-
camos los ordenadores por este criterio hablamos de ordenadores con arquitecturas compatibles.
Decimos que un ordenador es compatible con otro si sus procesadores son del mismo tipo, lo
que generalmente conlleva una arquitectura semejante. Los microprocesadores del mismo tipo,

58 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


EQUIPOS INFORMÁTICOS. ELEMENTOS PRINCIPALES

no necesariamente idénticos, se engloban en familias. En apartados posteriores estudiaremos


una familia de ordenadores basados en un tipo de microprocesador muy extendido: la familia
80x86 de INTEL.
Cualquier microprocesador moderno incluye varios millones de transistores en varios centímetros
cuadrados. Esta gran complejidad se estructura en varias unidades, siguiendo el principio del diseño
modular. Por tanto un microprocesador se compone básicamente de los siguientes subsistemas:
– Varios registros de acceso rápido donde se almacenan datos temporalmente.
– La unidad de control.
– La unidad aritmético-lógica.
Registro: pequeña zona de memoria de acceso muy rápido y directo por parte
del procesador que almacena un dato, instrucción o dirección de memoria.

1.2.1. Unidad de control


La unidad de control es la parte más importante del microprocesador. Controla y gobierna todas
las operaciones excepto las operaciones aritméticas. La unidad de control tiene la siguiente estruc-
tura:
– Reloj: la realización de una instrucción u operación en un ordenador se divide en una serie
de ciclos básicos. El reloj proporciona una sucesión de impulsos con frecuencia constante
que marcan los instantes en los que deben empezar dichos ciclos. Podemos decir que el
reloj es el “pulso” del ordenador.
La frecuencia del reloj es muy elevada, por ejemplo, los procesadores Pentium IV trabajan
hasta a 2000 MHz o 2 GHz, esto significa que se producen 2000 millones de pulsos por se-
gundo. Esto no quiere decir que pueda ejecutar igual número de instrucciones por segundo,
ya que muchas de ellas requieren hasta varios centenares de pulsos.

 
   


 

 


     

   

Esquema de la unidad de control de un microprocesador

– Contador de programa (CP): el contador de programa es un registro también llamado de


control de secuencia (RCS). Las instrucciones del programa en ejecución están almacena-
das en memoria, cada una en una dirección. El CP contiene en todo momento la dirección
de la memoria de la siguiente instrucción a ejecutar, así el procesador sabe dónde tiene que
buscarla cuando acabe de procesar la actual.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 59


EQUIPOS INFORMÁTICOS. ELEMENTOS PRINCIPALES

Esto puede plantear una curiosa pregunta: ¿qué ocurre al encender el ordenador cuando se
ejecuta la primera instrucción?. Al encender el ordenador el CP toma un valor por defecto
que es donde debe encontrarse la primera instrucción.
– Registro de instrucción (RI): contiene la instrucción que se está ejecutando en un momen-
to dado. Como veremos, las instrucciones tienen dos partes: el código de operación (indica
qué acción se va a realizar) y los operandos (indican dónde se va a realizar dicha acción).
– Decodificador: el decodificador extrae el código de operación de la instrucción del RI, lo
analiza y lo comunica al controlador.
– Controlador (o secuenciador): este elemento es el encargado de interpretar el código de
operación y de llevarlo a cabo. Para ello genera las llamadas microórdenes, que actúan sobre
el resto del sistema en sincronía con los impulsos del reloj.

1.2.2. Unidad Aritmético-Lógica (UAL)


También se le llama ALU (Arithmetic Logic Unit). La ALU realiza todas las operaciones elemen-
tales de tipo aritmético: sumas, restas, multiplicaciones y divisiones, además de otras de tipo lógico
(comparaciones, desplazamientos, etc.).


 




 
 
 


   
       

 
    
Esquema de la unidad aritmético-lógica (comprendida en el recuadro punteado)

60 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


EQUIPOS INFORMÁTICOS. ELEMENTOS PRINCIPALES

La ALU se comunica con el sistema mediante el bus de datos, y tiene la siguiente estructura:
– Circuito operacional (COP): es el elemento más importante de la ALU. Contiene todos
los circuitos digitales necesarios para realizar las operaciones. Los registros de entrada pro-
porcionan los datos sobre los que operar. El bus de control indica qué operación hay que
ejecutar (suma, resta, comparación, etc.).
– Registros de entrada (REN): estos registros almacenan los datos u operandos sobre los
que se ejecuta la operación en el COP. Pueden servir también para almacenar resultados
intermedios de las operaciones en curso.
– Acumulador: los resultados finales se colocan aquí. Es un registro especial conectado a los
registros de entrada. Existe también una conexión directa al bus de datos que posibilita el
envío directo de los resultados a memoria o a la unidad de control.
– Registro de estado: registro que almacena información sobre ciertas condiciones y estados
acerca de la última operación realizada. Por ejemplo, si el resultado de una comparación ha
sido positivo o negativo, mayor o menor, etc.

1.2. MEMORIA CENTRAL


También denominada principal o interna. Es otro de los componentes esenciales en la estruc-
tura de un ordenador. Su misión es almacenar las instrucciones que componen los programas y los
datos que éstos procesan.
La memoria se organiza en celdillas que se localizan mediante una dirección única. Estas celdillas
almacenan información mientras el ordenador está encendido; cuando éste se apaga la informa-
ción se borra, por tanto este tipo de memoria sirve como almacenamiento temporal y se denomina
memoria RAM. El nombre RAM es el acrónimo de Random Access Memory, o memoria de acceso
aleatorio.
Por el contrario, la llamada memoria ROM, Read Only Memory (memoria de sólo lectura) es
memoria no volátil (no se borra), y es de sólo lectura. Los programas almacenados en ROM no se
pierden al apagar el ordenador, sino que se mantienen impresos en los chips ROM durante toda su
existencia. Al ser esta memoria de sólo lectura, los programas almacenados en los chips ROM no se
pueden modificar, por ello es ideal para almacenar ciertos programas básicos para el funcionamiento
del ordenador, por ejemplo, aquel que arranca el ordenador.
La memoria RAM presenta dos ventajas muy importantes: por una parte, trabaja a gran velocidad
y, por otra, el microprocesador puede acceder directamente a los datos almacenados. Pero tiene el
gran inconveniente antes mencionado: su contenido se pierde cuando se apaga el ordenador.
Otros tipos de memoria son los siguientes:
– PROM (Programable Read Only Memory): memoria de sólo lectura programable. Su fun-
cionamiento es idéntico al de las memorias ROM, con la particularidad de que se pueden
escribir una única vez.
– EPROM (Eraseable Programable Read Only Memory): memoria de sólo lectura programable
con posibilidad de borrado. En condiciones normales también funcionan como las memorias
ROM, pero se pueden borrar y volver a escribir tantas veces como se desee mediante técni-
cas especiales (un programa de usuario no podría hacerlo, aspecto que las diferencia de las
memorias RAM).
Independientemente del tipo de memoria, el procesador utiliza las direcciones de las celdillas
(llamadas direcciones de memoria) para leer su contenido o escribir en él un valor nuevo. El acceso
se realiza directamente a cualquier casilla independientemente de su posición, por ello decimos que
la memoria central es un dispositivo de acceso directo.
El tiempo de acceso a la memoria es un factor importante a la hora de medir las prestaciones
de un ordenador. Los modernos PCs tienen unos tiempos de acceso que oscilan entre 60 y 80 na-
nosegundos y este tiempo continúa reduciéndose. Cuanto menor sea este tiempo más veloz será el
ordenador, aunque existen también otros parámetros a evaluar.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 61


EQUIPOS INFORMÁTICOS. ELEMENTOS PRINCIPALES

Otra característica importante de un ordenador es la longitud de palabra que posea, que se


define como sigue:
La longitud de palabra de un ordenador mide la cantidad de información
que puede introducirse o extraerse de la memoria central simultáneamente en un
instante dado.
Las longitudes de palabra más habituales en los ordenadores actuales son de 16, 32 y 64 bits
(2, 4 y 8 bytes, respectivamente, recordemos que 1 byte equivale a 8 bits), dependiendo de la po-
tencia de la máquina.
No hay que confundir el concepto de longitud de palabra con la información mínima manejable
por un ordenador. Aunque en un acceso a memoria se recuperen hasta 8 bytes, el ordenador puede
procesarlos independientemente una vez en el procesador.
Otra característica importante de la memoria central, y por ende del ordenador que la contiene, es
su capacidad. La capacidad se mide en múltiplos de un byte y puede resumirse en la siguiente tabla:

Kilobyte (Kb) 1024 bytes


Megabyte (Mb) 1024 Kb
Gigabyte (Gb) 1024 Mb
Terabyte (Tb) 1024 Gb

La capacidad de la memoria central de un ordenador personal ha variado significativamente des-


de principios de la década de los ochenta, cuando se lanzó al mercado el primer PC.
Estos ordenadores pioneros contaban con 640 Kb de memoria que, contrastados con los 256
Mb que podemos llegar a encontrar en la actualidad, suponen un aumento de cuatro órdenes de
magnitud. Este incremento de capacidad se debe sobre todo al continuo abaratamiento de los chips
de memoria, a la mejora en los diseños y métodos de construcción, y a la mayor necesidad de recur-
sos de las modernas aplicaciones informáticas.
La estructura de la memoria central está representada en la siguiente figura:

 





 
 



 


  
 



 

      





Esquema de la estructura de la memoria central

62 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


EQUIPOS INFORMÁTICOS. ELEMENTOS PRINCIPALES

– Registro de dirección de memoria (RD): este registro contiene, como su propio nombre
indica, la dirección de la celdilla a la que se accede, bien para leerla, bien para escribir sobre
ella. La dirección de memoria se obtiene del bus de direcciones del sistema.
– Registro de intercambio de memoria (RI): este registro sirve de almacén temporal en las
operaciones de lectura y escritura. En el primer caso el registro se carga con el dato leído
de la memoria, para posteriormente ser trasvasado al procesador mediante el bus de datos.
Si se tratase de una operación de escritura, el proceso es el inverso: en una primera fase
se carga el RI con el dato a escribir a la vez que el RD toma la dirección dónde escribirlo; en
una segunda fase el dato del RI pasa a la casilla seleccionada por el RD completándose así
la escritura a memoria.
– Selector de memoria: el selector es el elemento que transforma la dirección del RD (que
en realidad consiste en un dato numérico) en una dirección efectiva, activando y desactivan-
do las correspondientes líneas de los circuitos conectados a la memoria central.

Tamaño relativo de un chip de memoria.


El microprocesador tiene unas dimensiones algo mayores,
pero su estructura interna es mucho más compleja

1.3. BUSES
Ya hemos mencionado algunos de los buses presentes en la mayoría de los ordenadores. Se
tratan de un conjunto de circuitos que se encargan de la conexión y comunicación entre los diversos
componentes de un ordenador.
Esta comunicación se realiza en la práctica por medio de varias líneas eléctricas que se distribu-
yen por el sistema una al lado de la otra, permitiendo la transmisión de datos en paralelo. Los buses
del sistema se dividen en los siguientes tipos:
– Bus de control: transmite señales generadas en la unidad de control que son interpretadas
como órdenes por el resto de los dispositivos del sistema.
– Bus de direcciones: transporta las direcciones de memoria sobre las que se va a actuar en
operaciones de lectura y escritura.
– Bus de datos: traslada datos hacia y desde la memoria principalmente, aunque también se
conecta a otros dispositivos (puertos del ordenador, controladores de periféricos, etc.).

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 63


EQUIPOS INFORMÁTICOS. ELEMENTOS PRINCIPALES

2. UTILIZACIÓN: FUNCIONAMIENTO BÁSICO DE UN ORDENADOR


El funcionamiento de un ordenador se basa principalmente en la ejecución de programas. Para
ello el programa debe estar almacenado en la memoria central. Entonces el procesador toma una a
una sus instrucciones, las analiza y realiza las tareas correspondientes.
Las instrucciones que componen el programa se pueden clasificar según diversos criterios. Uno
de ello es el número de elementos que necesitan. Por ejemplo, una instrucción de suma necesitará al
menos dos números que sumar. A estos elementos se les denomina operandos de la instrucción.
Según el número de operandos tenemos:
– Instrucciones sin operandos: estas operaciones no actúan sobre ningún elemento en
concreto. Son útiles para funciones que no implican movimiento ni proceso de información.
Por ejemplo, para terminar un programa se podría utilizar la instrucción FIN.
– Instrucciones de un operando: actúan sobre un solo dato. Un ejemplo podría ser una
instrucción de salto a una dirección de memoria: SALTO 12345, después de la cual el pro-
grama seguiría ejecutándose a partir de esa dirección.
– Instrucciones de dos operandos: estas instrucciones necesitan dos elementos en su ejecu-
ción. Uno de ellos suele actuar como contenedor del resultado de la instrucción. Por ejemplo la
instrucción SUMA A,B sumaría los dos números y almacenaría el resultado en la dirección B.
– Instrucciones de tres operandos: al código de operación lo acompañan tres operandos,
los dos primeros son los datos a procesar y el tercero actúa como contenedor del resultado.
Son las instrucciones más cómodas desde el punto de vista del programador, pero también
son las que consumen más ciclos de reloj y las que necesitan mayor número de bits. Utilizan-
do el mismo ejemplo anterior, la instrucción SUMA A,B,C sumaría los dos primeros números,
representados por A y B, y dejaría el resultado en C.
Procesar una instrucción es una operación cuyo grado de complejidad depende de la propia
instrucción, pero todas ellas tienen fases comunes. Antes de estudiarlas es conveniente definir el
concepto de ciclo de instrucción.
Ciclo de instrucción: conjunto de acciones que realiza el ordenador para
ejecutar una instrucción.
Las fases de un ciclo de instrucción son las siguientes:
– Fase de búsqueda: la instrucción correspondiente es transferida de la memoria central
donde se encuentra almacenada, a la unidad de control que se encargará de su proceso.
La fase de búsqueda se compone de las siguientes etapas (véanse los correspondientes
esquemas anteriormente expuestos en este capítulo):
1. La unidad de control (UC) envía una microorden que transfiere el contenido del registro
contador de programa (CP) al registro de dirección de memoria (RDM) a través del bus
de direcciones. Recordemos que el CP contiene la dirección de la siguiente instrucción
a procesar, el cual ahora está en el RDM.
2. El selector de la memoria (SM) utiliza el contenido del RDM para acceder a la posición
de memoria deseada y transferir su contenido al registro de intercambio de memoria
(RIM), que ahora contiene la instrucción.
3. En una tercera etapa se transfiere la instrucción desde el RIM al registro de instrucción
(RI) de la unidad de control utilizando el bus de datos.
En este punto termina la fase de búsqueda (también denominada fetch) común a todas las
instrucciones, dando paso a la fase de ejecución. Se deja como ejercicio al lector la combi-
nación de los esquemas de los distintos módulos que toman parte en la ejecución de una
instrucción, y de numerar los circuitos según las etapas expuestas.
– Fase de ejecución: se ejecutan de todas las acciones que conlleva la instrucción. Esta fase
es muy distinta según el tipo de instrucción a procesar. En líneas generales consta de los
siguientes pasos:
1. El decodificador de la UC interpreta la instrucción que acaba de llegar al RI, y el secuen-
ciador activa los circuitos necesarios para su proceso, por ejemplo el sumador de la ALU
si se trata de una instrucción de suma.

64 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


EQUIPOS INFORMÁTICOS. ELEMENTOS PRINCIPALES

2. Por último, el registro contador de programa (CP) se autoincrementa en una unidad


(utilizando la ALU) apuntando así a la siguiente instrucción a ejecutar. Sin embargo, si la
instrucción ejecutada es de ruptura de secuencia (la veremos con detalle en este mismo
capítulo), el contador de programa (CP) se cargará con la dirección que corresponda.
Para ilustrar estos pasos supongamos la siguiente instrucción que suma dos números. Los dos
números están almacenados en dos direcciones de memoria, y el resultado de la operación se deja
en una tercera dirección. La orden tendría por tanto tres operandos, y podría ser algo así:
SUMA A, B, C
Donde A, B, C representan direcciones de memoria, siendo A y B las direcciones de los datos a sumar
y C la dirección donde se almacenará el resultado. La fase de operación de esta instrucción sería así:
1. La fase de búsqueda ha finalizado dejando la instrucción con sus operandos en el registro
de instrucción (RI) de la unidad de control. El primer paso transfiere la dirección del primer
operando desde el RI al registro de dirección de memoria (RDM).
2. El selector extrae de la memoria dicho dato depositándolo en el registro de intercambio de
memoria (RIM). Se ha obtenido de la memoria el primer dato A.
3. El contenido del RIM, es decir el primer dato a sumar, se transfiere al registro de entrada nº
1 de la unidad arimético-lógica (ALU).
4. Ahora se busca el segundo dato B, repitiendo los pasos anteriores hasta tener dicho dato en
el registro de entrada nº 2 de la ALU.
5. Preparados ya los datos, el secuenciador envía una microorden a la ALU para que ejecute la
operación de suma. El resultado de la operación quedará almacenado en el acumulador.
6. Obtenido el resultado se procede a escribirlo en memoria en la dirección correspondiente C.
Para ello se envía el resultado desde el acumulador al registro de intercambio de memoria
(RIM).
7. Ahora se transfiere el tercer operando del registro de instrucción (IR), que contiene la direc-
ción donde almacenar el resultado, es decir C, al registro de dirección de memoria (RDM).
8. Por último se almacena el resultado, transfiriéndose el contenido del RIM (el resultado) a la
dirección de memoria indicada en el RDM.
Un buen ejercicio para el lector consiste en la realización de un esquema de las unidades del
ordenador implicadas en el ejemplo anterior, reflejando la secuencia de pasos seguida.

3. OPERACIONES BÁSICAS
Si tenemos que hacer una clasificación de las actividades que un ordenador es capaz de realizar,
ésta sería la siguiente:

3.1. ENTRADA DE DATOS


Procesos que suministran a un ordenador los datos sobre los que va a operar. Se realizan ge-
neralmente mediante los periféricos de entrada. La forma más común es utilizando un teclado;
por ejemplo, las letras y palabras de este libro fueron datos de entrada al ordenador. Existen otras
alternativas para introducir datos en un ordenador, por ejemplo, mediante:
– Lectores de cintas, de discos magnéticos, de CDROMs.
– Scanners.
– Pantallas táctiles (sensibles al tacto).
– Sensores especializados de temperatura, presión, etc.
– Micrófonos.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 65


EQUIPOS INFORMÁTICOS. ELEMENTOS PRINCIPALES

3.2. SALIDA DE DATOS


Procesos mediante los que se obtiene información de un ordenador. Se realizan generalmente a
través de los periféricos de salida (de los cuales, junto con los de entrada, ya hablaremos). La for-
ma más común de salida de datos es su representación en una pantalla o utilizando una impresora,
aunque existen otras:
– Unidades grabadores de cintas, discos, CDROMs.
– Altavoces.
– Actuaciones de máquinas (robots).
En algunos casos las operaciones de entrada y salida pueden considerarse como de recupera-
ción y/o almacenamiento de información. Por ejemplo, al escribir la primera página de este libro, ésta
se almacena en un disco, por lo cual estamos realizando una operación de salida (aunque también
puede ser considerada como de almacenamiento).
Al día siguiente, cuando se prosigue con la escritura del libro, realizamos una operación de entra-
da al leer la página escrita el día anterior. Desde otro punto de vista, esto más bien es una operación
de recuperación, ya que la operación de entrada propiamente dicha consistirá en introducir nuevos
párrafos de texto.

3.3. TRANSMISIÓN/RECEPCIÓN DE DATOS


Consiste en transferir (o recibir) información de un ordenador a otro mediante una red de comuni-
cación de datos. Esta red puede tener diversas magnitudes, desde una red local limitada a un edificio,
hasta una de alcance internacional, con enlaces entre países lejanos vía satélite.

3.4. TRATAMIENTO DE DATOS


Constituyen los procesos más complejos y variados por los cuales se procesa la información,
transformándola mediante las instrucciones de un programa almacenado. Los datos se ordenan, se
seleccionan, se combinan, se clasifican, se calculan, etc. Son las operaciones que realmente aportan
versatilidad a un ordenador.
Recordamos que el tratamiento de la información no implica una inteligencia propia de la máqui-
na. Un ordenador no puede tomar iniciativas, responder a circunstancias imprevistas o emitir juicios
morales, entre otras muchas cosas. Un ordenador tan sólo sigue los pasos programas preestablecidos
por el hombre, si bien es verdad que éstos pueden llegar a ser muy complejos.
Aun así, existe un campo de investigación relativamente reciente que intenta atribuir algunas
de estas capacidades a los ordenadores: la Inteligencia Artificial, que en las últimas décadas ha
avanzando a grandes pasos.

4. APLICACIONES DE LOS ORDENADORES


Existen muchos procesos candidatos a ser efectuados con ayuda de un ordenador. La informática
encuentra campo de aplicación en aquéllos que reúnan algunas de las siguientes características:
– Manejo de un gran volumen de datos, por ejemplo la gestión de las cuentas bancarias de
una empresa.
– Gestión de datos comunes. Esto significa que los datos introducidos en un ordenador
sobre una persona (nombre, dirección, edad, etc.) pueden ser utilizados desde muchos pro-
gramas sin necesidad de repetirlos. Por ejemplo, un registro con sus datos puede servir tanto
para enviarle un extracto de su cuenta desde su banco, como para notificarle una sanción
desde la Jefatura de Tráfico.
– Repetitividad de procesos. Hace referencia a actividades que se repiten continuamente,
por ejemplo un programa que calcule la letra correspondiente a un DNI puede realizar esta

66 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


EQUIPOS INFORMÁTICOS. ELEMENTOS PRINCIPALES

actividad para una única persona o para todos los habitantes de una ciudad. Lógicamente el
tiempo empleado para ambas tareas será distinto, pero el proceso es siempre el mismo.
– Distribución de la información. Hoy en día la cuestión del acceso a grandes cantidades de
información desde cualquier lugar del mundo es un hecho. Seguro que el lector habrá oído
mencionar el fenómeno Internet, que conecta ordenadores en todo el mundo. Los modernos
equipos informáticos y de comunicaciones hacen posible esta realidad.
– Precisión y complejidad. Los ordenadores son especialmente adecuados para actividades
complicadas o que requieran una precisión muy elevada, por ejemplo la gestión del tráfico
aéreo o la predicción de cambios meteorológicos.
– Velocidad. Los ordenadores modernos pueden realizar millones de cálculos por segundo y
con una probabilidad de fallo nula. No hay ni que mencionar las ventajas que esto supone
frente a las capacidades humanas.

Los ordenadores encuentran multitud de aplicaciones en el mundo actual

5. MEMORIA
Debido a que existen varias memorias en un ordenador actual (del sistema, de vídeo, etc.), el
propio término “memoria” se hace un poco ambiguo, pero tradicionalmente se refiere a la memoria
del sistema principal o del sistema:
La memoria principal, del sistema (o simplemente memoria) almacena los programas y datos que
se están ejecutando en un ordenador en un momento dado.
La memoria está muy relacionada con otros componentes del ordenador, como la placa base, el
chipset y el procesador, y aporta características muy importantes a un ordenador:
– Rendimiento: la cantidad y tipo de memoria disponible es un factor fundamental para el
rendimiento global de un ordenador. Por ejemplo, una falta de memoria puede causar que
un procesador funcione al 50% de su capacidad real.
– Soporte de software: muchos programas actuales requieren una determinada capacidad
mínima de memoria para poder ejecutarse.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 67


EQUIPOS INFORMÁTICOS. ELEMENTOS PRINCIPALES

– Estabilidad del sistema: una memoria en mal estado es causa de fallos misteriosos en el
ordenador, difíciles de diagnosticar y reproducir.
– Actualización del sistema: existen muchos tipos de memoria, más o menos estándares.
Una buena elección en este aspecto es garantía de que el ordenador pueda adaptarse a los
nuevos avances técnicos del futuro (al menos durante cierto tiempo).

6. TECNOLOGÍAS
Como antes mencionábamos, en un ordenador conviven varios tipos de memoria. Son las siguientes:

6.1. ROM: READ ONLY MEMORY (MEMORIA DE SÓLO LECTURA)


Atendiendo al uso que se hace de la memoria tenemos una primera clasificación fundamental:
memorias RAM y ROM. La última toma su nombre de Read Only Memory (memoria de sólo lectu-
ra). De la memoria RAM hablaremos en el apartado siguiente, por ahora baste saber que RAM es la
abreviatura de Random Access Memory (memoria de acceso aleatorio).
Como su propio nombre indica, la memoria ROM contiene información que sólo puede ser leída,
y posee las siguientes características:
– Permanencia: los valores guardados no se borran nunca, independientemente de que el
ordenador esté encendido o apagado. Esta característica de la ROM es común con otros
dispositivos, por ejemplo los discos duros, con los que comparten la denominación de “al-
macenamiento no volátil”, debido a la permanencia de la información que retienen.
– Seguridad: la anterior característica aporta un factor de seguridad en cuanto a que la infor-
mación almacenada no puede ser borrada o alterada por causas accidentales o intenciona-
das. Por ejemplo, la memoria ROM es inmune a los virus.
El uso más frecuente de la ROM consiste en almacenar una serie de programas y datos utilizados
en el proceso de arranque de un ordenador. Esta información se denomina BIOS (Basic Input-Output
System) o sistema básico de entrada-salida, nombre que actualmente se debe más a razones histó-
ricas que a otra causa.
A pesar de lo dicho, existen algunas variantes de memoria ROM que, bajo ciertas condiciones
especiales, pueden cambiar su contenido, manteniéndolo inalterable en circunstancias normales. Las
describimos a continuación.

6.1.1. ROM
Está construida mediante una técnica denominada lógica cableada, que codificada la informa-
ción en el mismo soporte de silicio donde está instalada la memoria. Está específicamente designada
para realizar una misión que no varía y su funcionamiento a nivel de la utilización de los datos es
análogo a un CDROM: podemos leerlo muchas veces, pero no cambiar su contenido.

6.1.2. PROM, Programmable ROM (ROM Programable)


Es un tipo de ROM que se puede programar mediante un equipo especial. Esta operación sólo
puede realizarse una única vez; muy útil para pequeñas empresas que necesitan producir sus propias
ROMs sin tener que utilizar producciones masivas (que requieren unas inversiones mayores). Su fun-
cionamiento es similar a un CD-R, que podemos comprar en blanco y grabarlo una sola vez.

6.1.3. EPROM, Erasable Programmable ROM (ROM Programable que se puede borrar)
ROM que puede reprogramarse mediante una técnica especial: la memoria se construye cubrién-
dola de un cristal a través del cual la luz ultravioleta puede cambiar su contenido. Su funcionamiento
es análogo a un CD-R, que podemos regrabar muchas veces.

68 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


EQUIPOS INFORMÁTICOS. ELEMENTOS PRINCIPALES

6.1.4. EEPROM, Electrically Erasable Programmable ROM (ROM Programable


que se puede borrar eléctricamente)
Es la ROM más flexible, pues se puede alterar mediante software. Es la que se utiliza normal-
mente en los PCs para mantener la información de la BIOS. Aunque se podría pensar que la EEPROM
y la RAM (que veremos a continuación) son la misma cosa, existe una diferencia fundamental entre
ellas: la frecuencia de actualización; mientras la EEPROM varía muy pocas veces al año, la RAM lo
hace muchas veces por segundo.

6.2. BIOS, CMOS Y ROM SHADOWING


La BIOS del sistema (BIOS = Basic Input-Output System) o sistema básico de entrada-salida,
es un conjunto de programas y datos almacenado en el hardware de un ordenador. Estos programas
constituyen el nivel más elemental de software que ejecuta el PC, actuando como intermediario entre
los componentes de éste (chipset, placa base, etc.) y el sistema operativo.
Mediante este modo de funcionamiento la BIOS oculta al sistema operativo detalles concretos
referentes al ordenador, actuando como una capa traductora. Esto permite que los sistemas opera-
tivos se construyan de forma general y puedan funcionar en todos los PC, independientemente de la
configuración de éstos.
La BIOS tiene otras funciones, como mantener y permitir la configuración de parámetros del sis-
tema (tipo de disco duro, fecha y hora, etc.). La BIOS se mantiene en una memoria ROM que suele
ser del tipo EEPROM y estar localizada en la placa base del ordenador. La BIOS puede así actualizarse
bajo control de un programa especial, causa por la cual se denomina Flash BIOS. En los primeros
días del PC la única manera de realizar esta operación era sustituir físicamente el chip que contienen
la ROM.

Sección de una placa base que muestra el chip EEPROM que contiene
la BIOS y la pequeña pila circular que lo alimenta

Aunque la memoria EEPROM mantiene sus valores cuando el ordenador está apagado, necesita
una pequeña pila para mantener su información durante estos periodos, pila que suele durar años.
La tecnología utilizada en esta memoria se denomina CMOS (Complementary Metal Oxide Se-
miconductor) o semiconductor complementario de óxido metálico, y tiene la ventaja de requerir muy
poca energía para mantener su información. La CMOS, asimismo, contiene un mecanismo que ga-
rantiza su integridad denominado checksum.
NOTA: la memoria EEPROM es denominada a veces NVRAM (non volatil RAM)
o RAM no volátil.
El principal inconveniente de la BIOS, y de la ROM en general, es que resulta demasiado lenta,
al menos comparativamente con la RAM. Mientras que el tiempo de acceso de la RAM varía entre 50
y 70 ns, la ROM lo incrementa hasta 200 ns. Además el acceso a la RAM se hace con buses más
anchos que a la ROM.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 69


EQUIPOS INFORMÁTICOS. ELEMENTOS PRINCIPALES

Estos factores hacen necesario un mecanismo para acelerar el trabajo con la ROM, que resulta
tan sencillo como trasvasar parte de la ROM a la RAM y proteger ésta contra accesos de escritura,
con lo que en la práctica se comporta como una ROM rápida. Este mecanismo se conoce como ROM
Shadowing.

6.3. RAM: RANDOM ACCESS MEMORY (MEMORIA DE ACCESO ALEATORIO)


El tipo de memoria utilizado para almacenar los programas y datos que se están ejecutando se
denomina RAM (Random Access Memory).
Estas siglas hacen referencia a que la información en una RAM puede leerse y escribirse de for-
ma aleatoria, en el sentido de que tenemos la posibilidad de cambiar su contenido a conveniencia,
cuantas veces queramos. Esta es una de las principales diferencias con la ROM.
NOTA: algunos autores llaman a esta memoria RWM (Read-Write Memory) o
memoria de lectura-escritura, denominación poco utilizada pero mucho más preci-
sa en cuanto a las características que presenta su funcionamiento. Las siglas RAM
son más aceptadas, aunque tienen su origen en razones históricas ya desfasadas.
La RAM se clasifica como volátil en referencia a que su contenido se pierde cuando el ordenador
se apaga (otra diferencia con la ROM). Esto aumenta el riesgo de pérdida de trabajo si éste no ha
sido salvado en una memoria no volátil, por ejemplo, el disco duro. Desgraciadamente este hecho es
frecuentemente conocido entre los usuarios de ordenadores (¿quién no ha perdido alguna vez horas
de trabajo a causa de un corte eléctrico?).
Debido a su diseño, la RAM es mucho más rápida que la ROM (tercera diferencia), por lo que en
los ordenadores se suele traspasar el contenido de la ROM a RAM para acelerar su rendimiento. Esta
técnica se conoce como Memory Shadowing.
NOTA: existe alguna confusión en el sentido de interpretar RAM como opuesto
a ROM: dado que la RAM es de acceso aleatorio, la ROM no lo es. Esta idea es
falsa; puesto que la ROM también es de acceso aleatorio. La RAM debe su nombre
a razones técnicas actualmente obsoletas como antes comentábamos.

6.3.1. SRAM: Static RAM (RAM estática)


SRAM es un tipo de RAM que almacena información sin necesidad de una técnica adicional de-
nominada refresco, en contraste con la DRAM, que debe ser actualizada (refrescada) muchas veces
por segundo. La SRAM se utiliza en los ordenadores cuando sus ventajas son mayores que sus incon-
venientes, tal es el caso de una memoria especial denominada caché, que ya estudiaremos.
Ventajas:
– Simplicidad: no requiere el circuito adicional que produce el refresco.
– Velocidad: es más rápida que la DRAM.
Inconvenientes:
– Coste: considerablemente más cara que la DRAM.
– Tamaño: mucho más voluminosa que la DRAM.

6.3.2. DRAM: Dynamic RAM (RAM dinámica)


Esta memoria sólo mantiene la información si es continuamente accedida por un sistema deno-
minado circuito de refresco, de aquí toma el adjetivo de dinámica.
El circuito de refresco accede a cada celda de la memoria DRAM cientos de veces por segun-
do, proceso que, dado el diseño de dichas celdas, mantiene correctamente su información. Si este
proceso falla, independientemente de que el ordenador siga encendido, ocasiona la pérdida de infor-
mación de la DRAM.

70 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


EQUIPOS INFORMÁTICOS. ELEMENTOS PRINCIPALES

Los ordenadores utilizan DRAM en su memoria principal, aun siendo más lentas y complicadas
que las SRAM y necesitando el circuito de refresco. Las razones de ellos son dos: su coste (conside-
rablemente más baratas) y que ocupan mucho menos espacio (menos de ¼ que las SRAM).
Existen muchas clases de memorias DRAM. Aunque la idea principal es la misma, las diferencias
se dan atendiendo a su tecnología y velocidad. Las diferencias son en su mayoría referentes a su or-
ganización y tipo de acceso, cada vez más eficientes y rápidos, para estar a la altura de los modernos
procesadores.
El factor más importante que condiciona el tipo de DRAM de un ordenador es el chipset de su placa
base, circuito que controla entre otras cosas el acceso a memoria. Estos tipos de DRAM son los siguien-
tes:
– DRAM convencional: es la DRAM original y por tanto más antigua. Las celdas se organizan
matricialmente, con el acceso a las celdas definido por las direcciones de su fila y columna.
Actualmente resulta obsoleta.
– FPM (Fast Page Mode): es más rápida que la anterior porque utiliza la dirección de la fila para
el acceso de varias celdas conjuntas, con lo que dicha dirección sólo debe ser especificada una
vez.
Aunque aún se puede encontrar en ciertos PCs, resulta antigua y lenta, y no es compatible
con los modernos buses de memoria a más de 66 MHz.
– EDO (Extended Data Out): algunas veces también denominada Hyper Page Mode. Resulta
ligeramente superior que la FPM (sobre un 5%) debido a que el acceso a una celda de me-
moria puede comenzar sin que el anterior haya aún finalizado.
La memoria EDO es muy usual todavía, siendo la tecnología estándar para los ordenadores
de 5ª y 6ª generación a partir de 1994, aunque los modernos PCs ya no la utilizan siendo
sustituida por SDRAM.
– BEDO (Burst Extended Data Out): combinación de memoria EDO y tecnología pipeline,
permitiendo velocidades de acceso considerablemente más altas.
Al contrario que EDO, BEDO no ha extendido su uso en el mercado, debido sobre todo a la
imposición de SDRAM. Aun con rendimientos similares, no ha contado con el apoyo de la
todopoderosa empresa INTEL, que no llegó a adaptar sus chipsets a esta tecnología.
– SDRAM (Synchronous DRAM): esta tecnología relativamente nueva (1999) se caracteriza
por ser síncrona, a diferencia de las anteriores que eran asíncronas. El acceso se realiza en
sincronismo con el reloj del sistema, en modo burst (ráfaga) e introduciendo la tecnología
interleaving, resultando todo ello en rápidas velocidades compatibles con los buses de 100
MHz. SDRAM se ha impuesto en el mercado desbancando a los demás sistemas.
– DDR SDRAM (Double Data Rate SDRAM): constituye uno de los nuevos estándares pro-
puestos. Aunque similar a SDRAM en muchos aspectos, dobla la velocidad al optimizar el
uso del reloj del sistema (utiliza tanto los flancos de subida como los de bajada de la se-
ñal).
– DRDRAM (Direct Rambus DRAM): otro candidato al mercado del futuro, con el aliciente
de que no se trata de mejoras de tecnologías preexistentes, sino de un revolucionario nuevo
diseño que utiliza la memoria como si fuese un bus interno. De hecho está basada en un
bus de 16 bits a 400 MHz, dando un rendimiento de 1,6 Gb por segundo. Aunque el bus se
ha reducido de 64 a 16 bits, este último es capaz velocidades mucho más elevadas.
DRDRAM se utiliza en unos módulos especiales denominados RIMM (Rambus Inline Memory
Module).
– SLDRAM (Synchronous-Link DRAM): nueva tecnología desarrollada por un grupo de unas
20 empresas de la industria de los ordenadores. Es un diseño evolutivo destinado a mejorar
el rendimiento de la memoria SDRAM.
Se basa en un bus de 64 bits a 200 MHz, ofreciendo una velocidad de 3,2 Gb por segundo
(doblando a DRDRAM). Además esta tecnología tiene el atractivo de ser un sistema abierto,
de patente pública.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 71


EQUIPOS INFORMÁTICOS. ELEMENTOS PRINCIPALES

– VRAM (Video RAM): los modernos adaptadores de vídeo utilizan su propia memoria, separada
de la memoria del sistema. El rendimiento exigido a los sistemas de vídeo es mucho mayor, lo
que ha llevado a soluciones revolucionarias en este campo, pero incrementando el coste.
Tecnología Velocidad del bus Velocidad de la memoria (ns)
Conventional 4.77-40 80-150
FPM 16-66 60-80
EDO 33-75 50-60
BEDO 60-100 !?
SDRAM 60-100+ 6-12
Tabla comparativa de tecnologías de memorias

6.4. MEMORIA CACHÉ


En el principio de los tiempos, las velocidades relativas de los procesadores y de la memoria
del sistema eran equivalentes. A medida que la tecnología avanzaba, ambos dispositivos han incre-
mentado su velocidad de operación, pero no al mismo ritmo. En la actualidad la memoria ha sufrido
un incremento en un factor de 20, mientras el procesador lo ha hecho en un factor de 2000. La
diferencia habla por sí misma: la memoria del sistema está causando un cuello de botella en las
prestaciones del ordenador.
La memoria caché es un tipo especial de memoria, de pequeña capacidad pero muy rápida, que
se sitúa entre el procesador y la memoria del sistema. Su función es mantener parte de esta última
para que el procesador pueda acceder rápidamente a la memoria.
Cuando un dato de memoria no se encuentra en la caché, entonces se busca en la memoria
principal y se le pasa al procesador, pero también se almacena en la caché junto a la información
adyacente. Entonces hay una alta probabilidad de que la caché contenga la información que el pro-
cesador va a necesitar a continuación.
NOTA: los programas y la información se rigen por el llamado principio de locali-
dad; con frecuencia el siguiente dato necesario está a continuación del que se acaba
de procesar.
La memoria caché es responsable de grandes aumentos de prestaciones en los ordenadores y su
importancia no debe ser escatimada. La técnica en la que se basa consiste en general en actuar de
intermediario entre un dispositivo rápido y otro relativamente más lento, técnica cuyo uso se amplía
a otros tipos de componentes, creándose así una jerarquía de caché:
– Nivel 1 o caché primaria: constituye la memoria más rápida presente en un ordenador,
con velocidades equivalentes al mismo procesador. Se sitúa dentro de éste y su tamaño es
relativamente pequeño: 16 a 128 Kb.
– Nivel 2 o caché secundaria: ligeramente más lenta que la anterior pero de mayor tamaño,
hasta 2 Mb. Se encuentra en la placa base, razón por la cual a veces se la denomina externa.
– Caché de disco (RAM del sistema): se utiliza para acelerar el acceso al disco, reservando
para ello una parte de la RAM del sistema.
– Caché de periferia: algunos dispositivos cuyos accesos iniciales son lentos (por ejemplo un
CDROM) pueden utilizar la técnica de la caché para almacenar parte de su información en el
disco duro, relativamente más rápido que éstos.

Level Devices Cached


Nivel 1 Caché de nivel 2, RAM del sistema, Disco duro / CDROM
Nivel 2 RAM del sistema, Disco duro / CDROM
RAM del sistema Disco duro / CDROM
Disco duro / CDROM —

72 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


EQUIPOS INFORMÁTICOS. ELEMENTOS PRINCIPALES

Jerarquía de cachés. Cada capa es más rápida que la anterior y se encuentra más cerca del
procesador. El límite se encuentra en el nivel 1, incluida físicamente dentro de éste.
NOTA: el término caché se refiere por sí mismo a la caché de 2º nivel o secun-
daria, haciendo referencia al sistema entre el procesador y la memoria principal.

7. ORGANIZACIÓN Y FUNCIONAMIENTO BÁSICO DE LA MEMORIA

7.1. ORGANIZACIÓN FÍSICA Y LÓGICA


El soporte físico de la memoria consiste en una serie de circuitos integrados (chips) que se colocan so-
bre la placa base del ordenador. Internamente estos chips se organizan como un conjunto de transistores y
otros componentes estructurados de una forma particular; es lo que denominamos organización física.
Por otra parte, de cara al funcionamiento del ordenador, existe otra organización denominada
lógica que simplifica la forma de manejar la memoria. Independientemente de la construcción del
chip, éste se organiza de forma lógica como un conjunto de celdas en forma matricial, es decir, iden-
tificadas por filas y columnas.

1 2 3 4 5 ...

3 H O L A

...

Organización matricial de la memoria en filas y columnas

Esta estructura lógica supone un nivel de abstracción sobre la organización física que simplifica
la gestión de la memoria. En efecto, ahora podemos acceder a una celda de memoria con tan sólo
especificar su fila y su columna. Por ejemplo, la fila 3, columna 4 contiene una letra H.
Los ordenadores, al trabajar en sistema binario, no utilizarían exactamente el ejemplo dado
anteriormente. Ellos enviarían un valor 011 (correspondiente binario a la fila 3) y 100 (ídem para la
columna 4). En realidad, al ser la matriz de la memoria muy extensa, las cadenas de unos y ceros
utilizadas son muy grandes, pero se mantiene la misma filosofía aquí expuesta.
El circuito que controla este sistema consta de unas líneas que transportan a la memoria los
valores de las filas y columnas. Estas líneas se denominan bus de direcciones.
La razón de organizar la memoria en forma matricial y no lineal es que en este último caso nece-
sitaríamos un bus de direcciones más ancho. En efecto, al no acceder por filas y columnas, no dividi-
mos la dirección de una celda, por lo que el bus de direcciones tendría que ser el doble de ancho. En
la práctica esto ocasiona que la producción de chips de memoria se complique y se encarezca, razón
por la cual el sistema de filas y columnas se ha impuesto.

1 2 3 4 5 6 7 8 ...

H O L A

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 73


EQUIPOS INFORMÁTICOS. ELEMENTOS PRINCIPALES

Organización lineal de la memoria. Aunque en teoría esta estructura es perfectamente válida para
el acceso a las celdas, en la práctica supone un gran encarecimiento en la producción de los chips
de memoria. Esta es la razón por la que se impone la estructura matricial.
NOTA: los chips de memoria también guardan una estructura en la placa base
del ordenador; se organizan en módulos y en bancos.

7.2. PROCESO DE ACCESO BÁSICO


Teniendo en cuenta lo aprendido anteriormente, vamos a describir cómo se desarrolla el proceso
básico de acceso a una celda de memoria:
– Primero se envía por el bus de direcciones la fila.
– Un circuito especial denominado Decodificador analiza la dirección recibida y activa las fila
correspondiente de la matriz de memoria.
– A continuación se envía la dirección de la columna.
– El decodificador selecciona la columna especificada de la fila activada anteriormente.
– El dato obtenido (el contenido de la celda a la que se acaba de acceder) se coloca en el bus
de datos, donde el procesador u otro dispositivo pueden disponer de él.
Este es un ejemplo muy simplificado. En la práctica existen otros factores que complican con-
siderablemente el proceso: señales de control y sincronismo, acceso al chip adecuado, accesos de
lectura o de escritura, etc.

8. FACTORES RELACIONADOS CON LA MEMORIA

8.1. EL CONTROLADOR DE MEMORIA


Como su propio nombre indica, es el sistema que gestiona la memoria del ordenador, generando las
señales necesarias para los procesos de lectura y escritura y conectando la memoria a los otros sistemas
que componente el ordenador. El controlador de memoria está generalmente integrado en el chipset.

8.2. TIEMPO DE ACCESO


El tiempo empleado en el proceso anterior, desde que se especifica la dirección hasta que se
consigue el dato de la memoria, se denomina Tiempo de acceso y se mide en nanosegundos (ns).
Los sistemas de memoria actuales tienen unos tiempos de acceso que varían entre 5 y 70 ns.

8.3. DRAM SÍNCRONA Y DRAM ASÍNCRONA


Los ordenadores poseen un reloj del sistema que coordina ciertas operaciones internas generan-
do una señal periódica. La memoria asíncrona funciona de forma independiente a esta señal, y es
adecuada para sistemas antiguos, más lentos que los actuales, perdiendo sus ventajas cuando las
velocidades del ordenador sobrepasan los 66 MHz.
La DRAM síncrona se sincroniza con la señal del reloj, realizando sus operaciones bajo un control
más estricto que garantiza unos tiempos de operación ajustados y predecibles. Es muy adecuada para
los ordenadores modernos donde ofrece excelentes prestaciones.

8.4. EL BUS DE MEMORIA


El bus de memoria se compone de una serie de líneas cuya misión es transportar las direcciones
y los datos hacia y desde la memoria. Se compone de dos partes: el bus de direcciones y el de datos,
y se comparte con otros componentes como el procesador y el chipset.

74 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


EQUIPOS INFORMÁTICOS. ELEMENTOS PRINCIPALES

Cuanto más ancho sean estos buses, más información pueden transmitir simultáneamente. Sus
señales viajan sincronizadas por el reloj del sistema, factor fundamental a la hora de medir las presta-
ciones de un ordenador. El ancho de banda de un bus es una medida de la cantidad de información
(en bits) que puede transmitir por unidad de tiempo y se mide en MHz (Megaherzios).
NOTA: podemos pensar en bus de datos como una autopista con una serie de
carriles, y el ancho de banda como el número de coches que circulan cada cierto
tiempo. La capacidad total depende del número de carriles (ancho del bus) y de la
velocidad a la que circulan los coches (reloj del sistema).
En cuanto al bus de direcciones, su anchura determina la cantidad total de memoria direcciona-
ble: con más líneas disponemos de más dígitos, lo que incrementa el número utilizado para especifi-
car filas y columnas de la memoria.
Generación del Velocidad del
Tecnología DRAM Velocidad de DRAM
procesador bus de memoria
1ª, 2ª 4.77-20 Convencional 100-120
Convencional, Page
3ª, 4ª 16-40 70-100
Mode, FPM, EDO
5ª, 6ª 50-100 FPM, EDO, BEDO, SDRAM 8-10 (SDRAM) 50-70 (asíncrona)
SDRAM, DDR SDRAM,
Futuro 125+ ?
DRDRAM, SLDRAM
Tabla comparativa de datos referentes a la memoria. Todos los tiempos en nanosegundos.
Los símbolos de interrogación representan tecnologías futuras

8.5. ESTADOS DE ESPERA Y SYSTEM TIMING


El bus de memoria es actualmente el principal límite del rendimiento total del sistema. Aunque
los antiguos ordenadores tenían procesadores cuya velocidad era igual al del bus de memoria, los
actuales la superan varias veces, por lo que deben esperar a que los accesos a memoria finalicen
para continuar funcionando. Esta es la razón de ser de la memoria caché y su gran importancia en el
rendimiento general de un ordenador.
La velocidad real de la memoria se denomina system-timing, definido como el número de ciclos
de reloj necesarios para completar una lectura o escritura a memoria. El system-timing está limitado
por los siguientes factores:
– La velocidad y tecnología de la DRAM.
– La velocidad permitida por el chipset y la placa base.
Dado que el procesador es más rápido que la memoria, éste debe esperar algunos ciclos de reloj
antes que el acceso a memoria finalice; son los denominado wait states o estados de espera. Un
estado de espera de cero significa que la memoria necesita un solo ciclo para realizar una operación.
Si necesitase dos ciclos, sería necesario 1 estado de espera, y así sucesivamente.

8.6. ACCESO EN MODO RÁFAGA (BURST MODE)


Como explicábamos anteriormente, el acceso a una celda de memoria requiere una serie de ope-
raciones que necesitan su tiempo. El tiempo necesario para el primer acceso a memoria se denomina
tiempo de latencia.
La mayor parte de este tiempo se emplea en gestionar las direcciones de las celdas a acceder.
Parece lógico que una vez accedida la memoria intentemos transferir cuanto más datos mejor, con
objeto de mejorar el rendimiento. En los modernos ordenadores, una vez accedido a la memoria,
no sólo se recupera un dato, sino una serie de ellos, por ejemplo de 64 a 256 bits. Así con un solo
acceso conseguimos transferir varios valores de memoria. Esta técnica se conoce como acceso a
ráfagas.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 75


EQUIPOS INFORMÁTICOS. ELEMENTOS PRINCIPALES

El tiempo necesario se define mediante 4 números en la forma X-Y-Y-Y, por ejemplo: 5-2-2-2, donde
el primero indica el número de ciclos necesarios para transferir el primer dato y los demás indican los
ciclos para los datos consecutivos. El tiempo de latencia viene indicado por el primer número.

8.7. INTERLEAVING
Este término define una técnica muy moderna consistente en disponer de varias líneas de acceso
a la memoria, de forma que los datos se puedan recuperar o escribir simultáneamente. La memoria
queda así divida en bloques, generalmente 2 o 4, de acceso simultáneo. Es una técnica cara utilizada
en ordenadores de altas prestaciones.

8.8. MEMORIA REAL Y VIRTUAL


La memoria real es la que se encuentra instalada en el ordenador, donde se ejecutan los progra-
mas y los datos que éstos utilizan. Existen casos en los que un programa o sus datos son mayores
que la capacidad de la memoria real, originando el concepto de memoria virtual.
La memoria virtual es una técnica que permite simular más memoria de la realmente disponible
utilizando el disco duro del ordenador.
Veamos un ejemplo: supongamos que un programa necesita 80 Mb, mientras que nuestra me-
moria real es de 32 Mb. Un programa especial del sistema operativo carga en memoria los primeros
32 Mb del programa, y crea un fichero en disco de 80-32 = 48 Mb donde almacena el resto que no
ha cabido en memoria.
Cuando se necesita la parte del programa que está en el fichero del disco, se traspasa la informa-
ción de la memoria al fichero y de éste se toma el siguiente bloque de 32 Mb y se carga en memoria,
continuando la ejecución del programa como si realmente dispusiésemos de 80 Mb.
NOTA: el fichero creado por esta técnica se denomina swap file o fichero de
intercambio, y a los bloques que se intercambian entre memoria y disco se les
llama páginas.
La técnica de memoria virtual ha resultado un gran avance en informática. Ha permitido, entre
otras cosas, la multitarea, que consiste básicamente en poder ejecutar varias aplicaciones a la misma
vez, por ejemplo un procesador de textos, una hoja de cálculo, etc. Aplicaciones que no cabrían juntas
en la memoria real del ordenador.
El principal inconveniente de la memoria virtual es el tiempo necesario para realizar el cambio de
páginas entre la memoria real y el fichero de intercambio. Cuando este tiempo se incrementa hasta
bloquear el sistema, decimos que ha ocurrido un thrashing.

8.9. CAPACIDAD
La capacidad se define como la cantidad máxima de información que una memoria puede alma-
cenar. Existen varias unidades de medida; en el caso de la memoria RAM la más adecuada es el Mb
(Megabyte), equivalente aproximadamente a 1 libro con un millón de letras.
Existen varios factores que limitan la capacidad máxima en un ordenador. Son los siguientes:
– Límite de direccionabilidad: determinado por el ancho del bus de direcciones, indica la
dirección más alta de fila-columna que cabe en dicho bus.
– Limites del sistema operativo: especialmente los antiguos, como el MSDOS, que debido
a su diseño no permitían trabajar con más de una cantidad determinada de memoria. En los
sistemas operativos actuales este límite, aunque existente, está más allá de las necesidades
más exigentes.
– Límites del controlador de memoria: dispositivo incluido en el chipset del ordenador que
traduce las direcciones de fila-columna en señales de control a la memoria. Este factor está
limitado entre 512 Mb y 1 Gb en los modernos PCs.

76 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


EQUIPOS INFORMÁTICOS. ELEMENTOS PRINCIPALES

– Límites físicos de los chips y de la placa base: los chips de memoria imponen otro límite,
así como los espacios reservados para ellos en la placa base.
Actualmente, en la mayoría de los casos, estos límites dejan suficiente margen para las necesi-
dades que pudiéramos tener.
La capacidad de memoria de un ordenador tiene una influencia decisiva en su funcionamiento.
Una falta de memoria RAM resulta en una disminución de las prestaciones que el equipo podría ofre-
cer. Cambiar el procesador por uno superior en semejantes circunstancias no resuelve gran cosa.
Estrictamente hablando, hay que señalar que aumentar la memoria no cambia la velocidad del
ordenador ni de ninguno de sus componentes, pero disminuye el trasiego producido por la memoria
virtual. Efectivamente, el traspaso de información hacia/desde el disco duro debido a que los progra-
mas no caben en la RAM, causa una degradación en la velocidad del ordenador. Un aumento en la
memoria RAM disminuye este fenómeno, por la sencilla razón de que el disco duro es un dispositivo
miles de veces más lento que la memoria.
NOTA: la memoria tiene un tiempo de acceso de nanosegundos (10-9 sg) mientras que en el
disco duro estos tiempos se elevan hasta los milisegundos (10-3 sg).
Por otra parte, existe un límite pasado el cual un aumento de memoria no resulta apreciable en la
respuesta del ordenador. Este límite depende mucho del tipo de programas que se ejecuten en el orde-
nador.

8.10. PARIDAD Y MEMORIA ECC


Los módulos de memoria pueden disponer o no de paridad. Mientras que los módulos conven-
cionales dedican una línea para cada bit almacenado, la paridad implica un bit adicional cada 8 bits
de datos. Este bit adicional se usa para la detección y corrección de posibles errores.
Los módulos de memoria ECC (Error-Correcting Code) son más modernos e incluyen varios bits
extras que mejoran el proceso anteriormente descrito. Tanto los módulos con paridad como los ECC
resultan más caros que los ordinarios, debido a que requieren un aumento del 12,5% de su capaci-
dad para almacenar la información de los bits adicionales.

9. MÓDULOS DE MEMORIA
La memoria, como los procesadores, están hechos de diminutos semiconductores que deben
empaquetarse en una estructura física que aporte solidez y manejabilidad.

9.1. MÓDULOS DIPS (DUAL INLINE PACKAGE)


Una forma de presentar la memoria es empaquetada en recipientes plásticos o cerámicos deno-
minados DIPs. Un DIP consiste en un chip rectangular con filas de conectores a lo largo de sus lados
que encajan en la placa base. Esta técnica fue utilizada en la construcción de las primeras memorias
de los PCs e incluso en los procesadores.
Los DIPs originalmente se soldaban directamente en la placa base del ordenador, cuando poca
memoria era suficiente para todas las necesidades. El principal inconveniente de esta técnica era que
si se producía un fallo en un DIP, había que desechar el resto del sistema.
Este inconveniente se supera mediante los sockets o conectores donde insertar los chips. Pero
de nuevo aparece otro problema: debido a dilataciones y contracciones térmicas, los DIPs acababan
saliéndose de sus ranuras produciendo fallos.
Los modernos sistemas no usan los DIPs directamente. Éstos se presentan soldados en peque-
ños módulos que se insertan en conectores especiales que eliminan todos los inconvenientes antes
mencionados, facilitando enormemente los problemas de sustitución, ampliación y reutilización de
la memoria.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 77


EQUIPOS INFORMÁTICOS. ELEMENTOS PRINCIPALES

9.2. MÓDULOS ESTÁNDAR Y PROPIETARIOS


Los módulos de memoria que estudiaremos a continuación, están muy cerca de convertirse en
un estándar generalizado del mercado, con todas las ventajas que esto representa (interoperabilidad,
flexibilidad, precios más económicos, etc.).
Aun así, podemos encontrar compañías que siguen utilizando un sistema de memoria propie-
tario, es decir, de uso exclusivo. Esta elección ocasiona más restricciones a la hora de actualizar la
memoria de un ordenador y limita nuestras alternativas de compra.

9.3. MÓDULOS SIMMS (SINGLE INLINE MEMORY MODULE)


Sistema que ha gozado de gran éxito entre los fabricantes de PCs, pero que actualmente se en-
cuentra en desuso. Los módulos SIMMs se presentan en dos modalidades, dependiendo del número
de conectores o pines que poseen:
– SIMM de 30 pines: estándar más antiguo muy popular entre los ordenadores de 3ª y 4ª
generación. La capacidad varía entre 1, 4 y 16 Mb y disponen de 8 bits de datos (1 byte) y
1 bit adicional para controlar la paridad (en las versiones que incluyan esta característica).
– SIMM de 72 pines: utilizados en ordenadores de 4ª, 5ª y 6ª generación. La capacidad varía
entre 1, 2, 4, 8, 16 y 32 Mb. Manejan 4 bytes simultáneamente (32 bits) más 4 para control
de paridad. Existen dos versiones: la que tiene DIPs en una sola cara y la que los presenta
por ambas.
La mayoría de las placas base diseñadas para módulos SIMMs funcionan con uno u otro tipo,
pero rara vez permiten el uso simultáneo de ambos.

9.4. MÓDULOS DIMMS (DUAL INLINE MEMORY MODULES)


Los módulos DIMM son más recientes y están diseñados para funcionar con ordenadores de 5ª y
6ª generación. Estos módulos tienen 168 conectores y manejan 64 bits simultáneamente, es decir 8
bytes. Es muy raro encontrar un módulo DIMM de menos de 4 Mb de capacidad, ya que se diseñan
para equipos que requieren más memoria. Las capacidades más usuales son 8, 16, 32, 64 y 128
Mb. Los módulos DIMM sustituyen a los SIMM y tienen una amplia aceptación en el mercado.
Otra diferencia importante entre SIMM y DIMM es que este último posee conectores en ambos
lados del módulo que son independientes. Aunque los SIMMs también tienen conectores a ambos
lados, éstos están duplicados; es decir, un pin de un lado del módulo está conectado al del otro lado.
Esto resulta en que un módulo DIMM tiene 84 conectores en cada lado no redundantes.
Los módulos DIMM tienen variantes en cuanto al voltaje que los alimenta (3,3 y 5,0 V) y respecto
a una técnica denominada buffering. También aparecen en un formato especial para ordenadores
portátiles denominado SODIMM (Small Outline DIMM).
NOTA: los módulos de memoria y los conectores deben ser del mismo metal para evitar posibles
fallos. Existen dos variantes, plateados y dorados, tanto en los módulos de memoria como en los
sockets que los alojan, que, aun siendo compatibles, pueden ocasionar problemas con el tiempo.

9.5. MÓDULOS RIMM


Los módulos RIMM empaquetan la memoria RDRAM. Son físicamente similares a los módulos
DIMM, pero utilizan una configuración diferente en sus pines (conectores).
NOTA: aunque en principio se pueda deducir que RIMM es un acrónimo de
Rambus Inline Memory Module, esto no es así. La empresa Rambus Technology
registró la palabra RIMM como un término independiente.

78 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


EQUIPOS INFORMÁTICOS. ELEMENTOS PRINCIPALES

Sección de una placa base que dispone de conectores (sockets) para módulos SIMMs
(los 4 blancos más cortos) y DIMMs (los dos negros más largos)

Memoria en formato SIMMs (los dos de arriba) y DIMMs (el de abajo).


Obsérvese la diferencia de tamaño y los módulos DIPs como pequeños chips negros que los forman

9.6. BANCOS DE MEMORIA


La información fluye entre los distintos dispositivos de un ordenador a través del bus de datos.
Con objeto de optimizar este flujo de información, se impone la memoria que complete el ancho del
bus en cada transferencia.
Se denomina banco de memoria a la cantidad de memoria que completa el ancho del bus de
datos. Este ancho puede ser de 32 o 64 bits, dependiendo de la antigüedad de la placa base. Un
ordenador no podrá leer parcialmente un banco de memoria, debe estar completo.
La mayoría de los PCs disponen de más de un banco de memoria, numerados desde el cero en
adelante. Este orden determina cómo deben rellenarse con los módulos de memoria, los cuales de-
ben elegirse de forma que completen el ancho del bus de datos. En caso de que se necesite más de
un módulo para completar un banco, éstos deben tener la misma capacidad y ser del mismo tipo.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 79


EQUIPOS INFORMÁTICOS. ELEMENTOS PRINCIPALES

10. ESTRUCTURA LÓGICA DE LA MEMORIA


Cuando la empresa IBM creó los primeros PCs a principios de los 80, estructuró la memoria de
estos primeros ordenadores de una forma que ha mantenido su influencia aun en tiempos actuales,
pasados más de 20 años. Desgraciadamente muchos de los límites en la memoria de los PCs se
deben a ciertas decisiones que se tomaron con poca visión de futuro.
En esta sección estudiamos la configuración y uso de la memoria en los PCs, sus características
y limitaciones.

10.1. SEGMENTOS Y DESPLAZAMIENTOS


La forma más sencilla de referenciar la memoria es la lineal, es decir asignar un número o direc-
ción consecutivo a cada celda de memoria, independientemente de la organización física de éstas.
Sin embargo los procesadores de los PCs no utilizan este método, sino una combinación de 2 partes:
segmentos y desplazamientos.
La combinación de estas dos partes produce la dirección real, que se representa como dos
cantidades hexadecimales de 4 dígitos cada una separada por dos puntos. Ambas partes utilizan
la notación hexadecimal (sistema numérico de base 16) por conveniencia con el diseño interno del
procesador. La combinación de las dos partes se produce multiplicando por 16 la dirección del seg-
mento y añadiéndole el desplazamiento. Este sistema no resulta muy intuitivo, teniendo que buscar
las causas de su diseño de nuevo en la estructura y funcionamiento internos del procesador.
Memoria en formato SIMMs (los dos de arriba) y DIMMs (el de abajo). Obsérvese la diferencia de
tamaño y los módulos DIPs como pequeños chips negros que los forman
NOTA: en hexadecimal, multiplicar por 16 equivale a desplazar una cantidad
un dígito a la izquierda, de la misma forma que en decimal multiplicar por 10 equi-
vale a añadir un cero al final.
Este sistema tiene una peculiaridad: una dirección única puede expresarse de formas diferentes,
por ejemplo:

Segmento Segmento x 16 Desplazamiento Dirección real

C000 C0000 8000 C800:0000

C800 C8000 0000 C800:0000

NOTA: las direcciones pueden expresarse, para más facilidad, de forma lineal.
Así C800:0000 se convertiría en C8000.

10.2. ZONAS DE LA MEMORIA


Aunque solemos referirnos a la memoria de nuestros PCs con un solo número (“Mi ordenador
tiene 32 Mb de memoria”), ésta está en realidad dividida en diferentes áreas, como herencia de los
antiguos PCs y del sistema operativo MSDOS.

10.2.1. Memoria convencional


Primeros 640 Kb de la memoria del sistema. Su nombre proviene de que es donde el MSDOS y
los programas diseñados para este sistema se ejecutan, además de muchos de los drivers existentes,
programas residentes (que permanecen en memoria aunque no estén activos en un momento dado)
y cualquier otro código ejecutado bajo MSDOS.
La razón de este límite de 640 Kb tuvo su origen en una nefasta decisión por parte de IBM
(constructores de los primeros PCs), consistente en reservar la memoria para el sistema por encima

80 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


EQUIPOS INFORMÁTICOS. ELEMENTOS PRINCIPALES

de la memoria para los programas, limitando ésta. Entonces la decisión parecía acertada porque se
pensaba que los programas nunca necesitarían más de 640 Kb para ejecutarse. Esta idea provoca
risa entre los usuarios actuales.
A medida que los programas crecían en complejidad y prestaciones los límites de la memoria
convencional se hicieron insuficientes. Microsoft intentó atacar este problema mediante dos solucio-
nes:
Cargar el sistema operativo en el área de memoria alta, técnica que liberaba unos 45 Kb de
memoria convencional.
Trasladar algunos drivers al área de memoria superior, con el mismo objeto que la anterior solución.
Afortunadamente estos problemas y soluciones a medias se terminan con los nuevos sistemas
operativos, los cuales se ejecutan en un modo especial denominado protegido que permite superar el
límite de los 640 Kb, disponiendo las aplicaciones de tanta memoria como disponga el sistema.

10.2.2. Área de memoria superior (Upper Memory Area) o UMA


Zona situada inmediatamente después de la memoria convencional y que completa el primer
megabyte. Dispone de 384 Kb y se reserva para dispositivos del sistema y usos especiales, tales
como ROM shadowing y ciertos drivers. Utiliza las direcciones A0000 hasta FFFFF (recordemos que
utilizamos notación hexadecimal).
Existe un problema con el rango de direcciones ocupado por la UMA: parte de la ROM comparte
dicho rango. Para solucionarlo, parte de la RAM de la UMA permanece “escondida” al sistema y des-
perdiciada, a menos que se utilice para ROM shadowing.
A continuación se listan dispositivos cuyas memorias ROM ocupan espacio en la UMA:
– BIOS de los controladores de vídeo VGA.
– BIOS de los controladores de discos duros.
– BIOS del sistema.
NOTA: la UMA no es adecuada para programas convencionales, entre otras
causas porque el tamaños de los bloques disponibles es demasiado pequeño. Por
otra parte estos bloques son ideales para alojar diminutos programas residentes o
TSR.

10.2.3. Área de memoria alta (High Memory Area) o HMA


Comprende los primeros 64 Kb (menos 16 bytes) del segundo megabyte de memoria. Técnica-
mente son los primeros 64 Mb de la memoria extendida (que veremos a continuación), pero puede
ser accedida por uno de los modos de funcionamiento del procesador (modo real), lo que la diferencia
del resto de la memoria extendida. Se utiliza principalmente para aumentar la memoria convencional
trasladando aquí cuanto drivers quepan. Ocupa la zona comprendida entre las direcciones 100000
a 10FFFF.

10.2.4. Memoria extendida (XMS) y expandida (EMS)


Toda la memoria comprendida desde la zona anterior hasta el final de la memoria física disponi-
ble. La utilizan los sistemas operativos que trabajan en modo protegido, como Windows. Se extiende
desde la dirección 10FFFF hasta la última dirección disponible.
Existe un estándar más antiguo cuyo nombre siempre ha llevado a confusión: Especificaciones de
Memoria Expandida o EMS (Expanded Memory Specifications). Este sistema se desarrolló a mediados
de los 80 para la primera generación de procesadores Intel 8088 y 8086 por un conjunto de tres empre-
sas: Lotus, Intel y Microsoft, creando el estándar LIM EMS (LIM por las iniciales de las empresas que lo
crearon).
EMS hacía necesario un dispositivo que se añadía al PC con memoria adicional dividida en
páginas o bancos. Estos bancos se traspasaban a medida que se hacían necesarios a la memoria

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 81


EQUIPOS INFORMÁTICOS. ELEMENTOS PRINCIPALES

UMA, permitiendo a los programas crecer en tamaño. Este sistema se basa en el mismo principio de
intercambio que la memoria virtual.
XMS sustituyó a EMS debido a la alta ineficiencia de este último, que necesitaba mucho tiempo
para realizar los traspasos de páginas de memoria. MSDOS incluye un controlador llamado EMM386.
EXE que emulaba la XMS utilizando la EMS.
Existen dos formas de utilizar la XMS:
– Modo protegido: utiliza la XMS directamente (tal es el caso de los sistemas operativos
como Windows NT).
– El modo real: se necesita un controlador de XMS que gestione los accesos a esta memoria.
Tal es el caso de MSDOS y Windows 95. El controlador más conocido es el HIMEM.SYS
Afortunadamente los modernos sistemas operativos nos permiten olvidarnos de este maremag-
num de siglas, técnicas y configuraciones que durante los primeros años del PC complicaron tanto la
existencia a los usuarios.
 




 
  

       

     


  
 

    


  
 

 



  
 

Estructura de la memoria de un PC,


con las diferentes zonas guardando proporción con sus tamaños relativos

82 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


TEMA
4

Principales unidades de entrada y salida


de datos y su utilización.
Principales unidades
de almacenamiento de datos y su
utilización
Un ordenador es una potente herramienta para realizar multitud
de operaciones, pero estas posibilidades deben ser complementadas
con otros dispositivos periféricos. Las unidades de entrada permiten
introducir en el ordenador la información que se procesa para obtener
resultados. Las unidades de salida, por otra parte, aportan los medios
para ofrecer al usuario final dichos resultados.
El trabajo con un ordenador se basa en procesar información. Esta
información necesita un soporte físico donde podamos almacenarla.
Este tema estudia dichos soportes, sus principios de funcionamiento,
clasificaciones, y características.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 83


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

ESQUEMA INICIAL

1. Equipos de impresión
1.1. Evolución histórica
1.2. Impresoras
1.2.1. Impresoras matriciales o de agujas
1.2.2. Impresoras de tipos (margarita)
1.2.3. Impresoras de banda
1.2.4. Impresoras de tambor
1.2.5. Impresoras térmicas
1.2.6. Impresoras electrostáticas
1.2.7. Impresoras láser
1.2.8. Impresoras de inyección o de chorro de tinta
1.2.9. Impresoras de burbuja
1.2.10. Impresoras de sublimación
1.2.11. Impresoras de ceras (transferencia térmica)
1.3. Conceptos básicos sobre impresoras
1.3.1. Alimentadores de hojas
1.3.2. Soportes de impresión
1.3.3. Memoria RAM
1.3.4. Emulaciones
1.3.5. Lenguajes de descripción de página
1.3.6. Fuentes
1.3.7. Interfaces
1.3.8. Fungibles y consumibles
1.3.9. Panel de controles
1.3.10. Velocidad
1.3.11. Resolución
1.3.12. Impresión en color
1.3.13. Compatibilidad
1.3.14. Conectividad
1.3.15. Nivel de ruidos
1.3.16. Degradación de la calidad de impresión
1.3.17. Multifuncionalidad
1.3.18. Impresión off-line
1.4. Trazadores gráficos (plotters)

2. Unidades de visualización
2.1. Terminales
2.1.1. Evolución histórica
2.1.2. Definición
2.1.3. Clasificación

84 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

2.2. Sistemas gráficos actuales


2.2.1. Introducción
2.2.2. El monitor
2.2.3. Modos de vídeo
2.2.4. Controlador de vídeo
2.2.5. Memoria de vídeo
2.3. Terminales X
2.4. Ergonomía y seguridad

3. El Teclado
3.1. Conceptos y funcionamiento
3.2. Disposición y funciones de las teclas

4. Dispositivos apuntadores
4.1. Ratón
4.2. Trackball
4.3. Lápiz óptico
4.4. Joystick
4.5. Puntero táctil
4.6. Tabletas digitalizadoras

5. Escáneres
5.1. Principios y funcionamiento
5.2. Tipos
5.3. Reconocimiento Óptico de Caracteres

6. Dispositivos de audio
6.1. Funciones básicas
6.2. Componentes fundamentales
6.3. Muestreo y cuantización
6.4. La conversión digital/analógica
6.5. Síntesis de audio

7. Equipos de comunicaciones
7.1. Módem
7.2. Tarjetas de Red

8. Otros dispositivos periféricos


8.1. Lectora de tarjetas perforadas
8.2. Perforadora de tarjetas y cintas
8.3. Dispositivo reconocedor de voz
8.4. Sensores de señales analógicas
8.5. Conversor Digital/Analógico
8.6. Sistema de Videoconferencia
8.7. Dispositivos de Realidad Virtual

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 85


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

8.8. Tarjetas digitalizadoras de vídeo


8.9. Cámaras digitales
8.10. Vídeo digital
8.10.1. Introducción
8.10.2. Vídeo digital
8.10.3. Elementos principales de una videocámara digital
8.10.4. Óptica y electrónica
8.10.5. Formatos de grabación digital
8.10.6. Diseño
8.10.7. Conexiones

9. Las unidades de almacenamiento


9.1. Concepto
9.2. Evolución histórica
9.3. Memoria primaria y secundaria

10. Conceptos básicos de las unidades de almacenamiento


10.1. Medios de grabación magnética
10.2. Modos de grabación y lectura
10.3. Capacidad
10.3.1. Discos
10.3.2. Cintas
10.4. Tiempo de acceso
10.4.1. Discos
10.4.2. Cintas
10.5. Velocidad de transferencia
10.6. Seguridad y fiabilidad
10.7. Antememoria (memoria caché)
10.8. Movilidad
10.9. Compatibilidad

11. Unidades de cinta magnética


11.1. Introducción y principios
11.2. Cinta de carrete
11.3. Cinta de cartucho
11.4. Cinta DAT (Digital Audio Tape)
11.5. Cintas de 1/2 pulgada
11.6. Cintas de 1/4 pulgada (QIC)
11.7. Cintas de 8 mm (Hexabyte)
11.8. Streamers
11.9. Sistemas automatizado de cintas

12. Discos magnéticos


12.1. Discos Flexibles
12.1.1. Disquetes de 5¼ pulgadas (5¼”)
12.1.2. Disquetes de 3½ pulgadas (3½”)

86 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

12.2. Discos duros


12.3. Discos de cartucho removibles
12.4. Otros
12.5. Redundancia (sistemas RAID)

13. Memorias de burbujas magnéticas

14. Discos ópticos


14.1. CDROM
14.2. Discos WORM
14.3. Disco regrabables o magnetoópticos
14.4. DVD o Videodisco
14.5. Medidas de velocidad

15. Dispositivos de Almacenamiento Portátil


15.1. Tarjetas de Memoria
15.1.1. PCMCIA
15.1.2. CompactFlash
15.1.3. SmartMedia
15.1.4. IBM Microdrive
15.1.5. Multimedia Card
15.1.6. Secure Digital
15.1.7. MemoryStick
15.1.8. xD-Picture Card
15.1.9. Lectores y Adaptadores de Tarjetas
15.2. Pendrives
15.3. Unidades Externas Multifunción

16. Métodos de Conexión


16.1. ST506
16.2. ESDI
16.3. El Estándar IDE
16.4. ATA y Parallel ATA
16.5. Serial ATA
16.5.1. Introducción
16.5.2. SATA 1
16.5.3. SATA II
16.5.4. El fututo SATA
16.5.5. Características Generales de la Tecnología SATA
16.5.6. Cables y conectores
16.5.7. External SATA
16.6. Enhanced IDE (EIDE)
16.7. SCSI

17. Tendencias tecnológicas

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 87


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

1. EQUIPOS DE IMPRESIÓN

1.1. EVOLUCIÓN HISTÓRICA

El origen de los modernos dispositivos de impresión se encuentra en las tradicionales máquinas


de escribir, que en otro tiempo eran el único y más popular medio de impresión, aparte de las impren-
tas. El desarrollo experimentado en la tecnología conocida como ofimática, y los progresos tecnológi-
cos alcanzados por la industria de la impresión, son los principales factores que han conseguido las
estupendas prestaciones de los dispositivos de impresión actuales.
Antes de que apareciera el concepto de ofimática, ya existían CPDs (Centros de Proceso de Cál-
culo), donde la necesidad de potentes impresoras, aunque fueran de una calidad de presentación re-
lativamente baja, venía forzada porque los primeros sistemas de información eran fundamentalmente
aplicaciones batch que mostraban sus resultados en papel.
En la década de los 80, la tecnología evolucionó de las técnicas de impacto hacia aquéllas sin
impacto. En los 90 cambiaron los objetivos, primando la preocupación por conseguir una interfaz de
usuario con un elevado nivel de definición y una amplia variedad de colores. En este sentido se han
conseguido constantes avances en la mejora de la calidad y velocidad de impresión, comodidad de
uso y reducción de precios, provocado por la fuerte competencia en el sector y la consolidación de
nuevas tecnologías.
Los factores mencionados y las modernas aplicaciones informáticas orientadas a las técnicas
de impresión, han conducido al desarrollo de los actuales sistemas de edición electrónica de do-
cumentos (edición de revistas, publicaciones, etc.), que reducen considerablemente el esfuerzo de
trabajo antes necesario, al mismo tiempo que las condiciones para llevarlo a cabo se ven mejoradas
notablemente.
Los dispositivos de impresión han tenido una fuerte implantación en entornos de ordenadores
monopuesto, grupos de trabajo y LANs (Redes locales). Las nuevas funcionalidades dentro de un
mismos dispositivo (tratamiento de imágenes, facilidades de escáner, servicio de fax, etc.), permiten
disminuir el espacio físico de los dispositivos por separado; además, al compartir elementos comu-
nes, se reduce el precio considerablemente.
Los dispositivos de impresión, después de los monitores y teclados, son los periféricos de salida
más utilizados de los ordenadores. Estos dispositivos ofrecen múltiples funcionalidades: desde la ob-
tención de listados, escritos e informes de todo tipo, hasta la generación de gráficos y presentaciones
(incluso en soportes especiales, como los acetatos para transparencias, etc.).
Para la reproducción de dibujos lineales, esquemas técnicos, planos, etc., es más habitual la
utilización de los trazadores gráficos o plotters.
Las tendencias tecnológicas de las impresoras para los próximos años apuntan a dispositivos
con mayores resoluciones y niveles de calidad de impresión, más rápidas y de manejo más fácil,
incorporación de múltiples funcionalidades e importantes reducciones de sus precios. Además de
incluir consideraciones ecológicas, como la disminución de fungibles, el aumento de la vida de los
componentes, la disminución del consumo energético, etc.
Las pautas medioambientales y ergonómicas a seguir en el futuro centran la atención sobre cri-
terios de gestión y conservación de los recursos y reducción del gasto público. Para instrumentar las
medidas más eficaces sobre medio ambiente y ergonomía, se propone el proyecto MABER (Proyecto
para el Establecimiento de Pautas Medioambientales y Ergonómicas en la Adquisición y Empleo de
Bienes y Servicios de Tecnologías de la Información).
Estas medidas medioambientales y ergonómicas pueden llevarse a cabo utilizando tambores
más duros, uso de LEDs como fuente de iluminación, cartuchos de tóner reciclables, utilización de
papel reciclado, ecológico y recuperado, sistemas de ahorro de energía cuando el equipo no está en
funcionamiento, etc.

88 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

1.2. IMPRESORAS
Actualmente existe una amplia variedad de impresoras, clasificándose según la tecnología empleada:
– Impacto:
• Matriciales o de agujas
• De tipos (margarita)
• De banda
• De tambor
– No impacto:
• Térmicas
• Electrostáticas
• Láser
• Inyección
• De burbujas
• Sublimación
• De ceras (transferencia térmica)
Las impresoras sin impacto son en general más silenciosas, rápidas y ofrecen mayor calidad
que las de impacto. La transferencia de caracteres al papel se hace mediante técnicas fotográficas,
electrónicas, de inyección, etc., que provocan la impresión de los caracteres y gráficos directamen-
te sobre el papel.

1.2.1. Impresoras matriciales o de agujas


El sistema de impresión está compuesto de un cabezal de agujas en formación matricial. Cada
aguja equivale a un punto de la matriz de cada carácter. La cabeza va pasando a lo largo de una línea
y las agujas se van lanzando, imprimiendo columna a columna todos los distintos caracteres de esa
línea. Luego, sube el folio, pasando a la línea inferior y continua igual. La mayoría de este tipo de
impresoras imprimen en ambos sentidos, es decir, la cabeza escritora imprime de izquierda a derecha
una línea, y la siguiente de derecha a izquierda, ganando así velocidad. Gracias a las posibilidades de
combinación de las agujas es posible imprimir gráficos de baja resolución.
El coste de mantenimiento (coste/página) es mínimo, ya que estas impresoras sólo necesitan
una cinta entintada similar a la de una máquina e escribir. Al ser de impacto se pueden sacar varias
copias a la vez usando papel de calco, reduciendo así los costes y el tiempo de impresión.
Fueron las primeras en el entorno microinformático. Lo más característico de ellas es quizás
el ruido que producen. Pueden ser de carro estrecho o ancho. La calidad de impresión se mejora
mediante dos opciones: aumentar el número de agujas de la matriz o realizar dos veces la misma
impresión (dos pasadas); en la segunda pasada el cabezal de impresión se encuentra ligeramente
desplazado en la dirección vertical respecto de la primera, para que se intercalen los puntos con los
de la primera pasada.
Entre los principales modelos de impresoras matriciales de caracteres están las siguientes:
– 9 agujas: dispuestas en una única fila, no alcanzan siquiera el grado de calidad de carta.
Para mejorarlo, en algunos modelos se realizan dos o incluso más pasadas. Su aplicación se
centra en trabajos internos con calidad de borrador.
– 18 agujas: dispuestas en dos filas de nueve agujas cada una. Modelo popular que represen-
ta el segmento inferior del mercado. Su aplicación es para grandes volúmenes de impresión
con calidad aceptable en entornos típicos de oficina.
– 24 agujas: poseen un cabezal con tres filas de ocho agujas cada una o un cabezal con dos
filas de doce agujas cada una. Ofrecen el mayor nivel de calidad de las impresoras matricia-
les. Tiene aplicaciones similares a las de 18 agujas pero con un nivel de calidad superior.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 89


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

Las velocidades de impresión conseguidas varían desde 30 hasta 900 cps (caracteres por se-
gundo) y más en algunos casos. Son las impresoras más económicas del mercado y para grandes
volúmenes de trabajos con calidad de borrador y media es la tecnología más adecuada. Aunque se
pueden imprimir trabajos en color, el resultado es poco atrayente comparado con el obtenido con una
impresora de inyección o de transferencia térmica.
En la gama de impresoras matriciales existe un modelo orientado a necesidades más exigentes:
las impresoras de línea, con una cabeza estática que abarca toda una línea de impresión, de modo
que ésta se imprime de un golpe (no carácter a carácter). Encuentran aplicación en los grandes CPDs,
donde se requieren altas velocidades de impresión (es posible alcanzar 900 líneas por minuto o lpm).
Tienen la ventaja añadida sobre las impresoras de banda de que también permiten la impresión de
gráficos con calidad de borrador. Es posible utilizarlas para códigos de barras y etiquetas.

1.2.2. Impresoras de tipos (margarita)


Se basaban en un juego (conjunto) de caracteres (tipo) fijo, con el que golpear la cinta entintada
que hay delante del papel, imprimiendo así el carácter deseado. Eran de gran calidad pero muy len-
tas, y sólo permitían imprimir caracteres muy limitados, sin posibilidad de imprimir gráficos.
De este tipo son las de cilindro, bola, barra, cadena, etc., pero la más famosa fue la impresora
de margarita, en la que el juego de caracteres se instalaba en forma de flor de margarita en la que
en cada pétalo estaba grabado un carácter: primero giraba la margarita hasta posicionar el pétalo del
carácter deseado en la posición correcta, y luego un pequeño martillo golpeaba el pétalo por detrás,
imprimiendo dicho carácter. Se podía cambiar el juego de caracteres, cambiando la margarita. La
velocidad de impresión no superaba los 50 cps (caracteres por segundo).
El sistema de impacto consistía en una serie de varillas, una por carácter, alrededor de un disco
que gira hasta que el carácter deseado se encuentra frente al papel, entonces un martillo golpea la
varilla e imprime el carácter sobre el papel a través de una cinta entintada. Su funcionamiento es
similar al de las máquinas de escribir, las más sofisticadas se utilizan también como impresoras de
reserva o para pequeños volúmenes de trabajo.
Actualmente esta tecnología no resulta adecuada para ningún entorno informático. Para velo-
cidades de impresión alta está en desventaja frente a la matricial, y para calidad se encuentra en
desventaja frente a las tecnologías láser y de inyección. En cualquier caso la relación calidad/precio
siempre es más favorable para la tecnología matricial.
NOTA: al tener los caracteres una definición estática y no estar definidos me-
diante pequeños puntos, estas impresoras sólo admiten un tipo de letra. Esta es
otra de las razones por la que actualmente se encuentran totalmente desfasadas.
Algunas impresoras de margarita permitían que se cambiase su cabezal de impre-
sión con objeto de ofrecer diferentes tipografías.

1.2.3. Impresoras de banda


Cuentan con una cadena con el conjunto de caracteres disponible perfilados en relieve, que se
hace girar en un plano perpendicular al papel. Cuando el carácter deseado se encuentra en la posi-
ción adecuada, un martillo lo golpea sobre la cinta entintada imprimiéndose en papel. Se alcanzan
velocidades de hasta 4000 lpm con un coste de impresión por página muy inferior al que se tiene
con las impresoras sin impacto. Su principal aplicación se encuentra en los grandes CPDs y en el
etiquetado, donde se requieren importantes velocidades de impresión y robustez, y al mismo tiempo
se es muy exigente en cuanto a la calidad.

1.2.4. Impresoras de tambor


Tienen un cilindro o tambor dividido en tantos sectores como caracteres caben en una línea. Cuando
los caracteres deseados correspondiente a cada sector se encuentra frente al papel, un martillo los golpea
imprimiéndose una línea completa. Sus principales características y ámbitos de aplicación son muy simi-
lares a los de las impresoras de banda. Ambas tecnología se encuentran totalmente desfasadas.

90 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

1.2.5. Impresoras térmicas


Poseen un cabezal de agujas cuyas combinaciones configuran los diferentes caracteres. El papel
utilizado tiene un tratamiento especial y al calentarse (unos 200ºC) por la aproximación de las agujas
se oscurece o colorea, dejando impreso el carácter. Su tecnología es muy similar a la matricial de
impacto, salvo por la ausencia del propio impacto, de la cinta entintada y por el calentamiento de las
agujas. Su velocidad oscila entre 100 y 2.000 cps.
Las desventajas son el precio del papel y la degradación que sufre el trabajo impreso. Esta últi-
ma circunstancia obliga a cambiar de formato los resultados impresos si se quieren conservar largos
períodos de tiempo. Por ello actualmente esta tecnología está en desuso, es poco recomendable y se
tiende hacia otras alternativas, como la matricial.
Esta tecnología ha sido muy utilizada para trabajos en color, basándose principalmente en cuatro
tintas: cian, magenta, amarillo y negro. Su desventaja es que para la composición de colores es ne-
cesario formar nubes de puntos, con la consiguiente pérdida de resolución.

1.2.6. Impresoras electrostáticas


Utilizan un cartucho para la proyección de una imagen electrostática formada con iones cargados
que se depositan sobre un tambor dieléctrico. Las partículas del tóner (polvo de entintado) se adhie-
ren al tambor y, por un proceso de presurización en frío, la imagen se transfiere al papel.
Estas impresoras son rápidas (más que las impresoras matriciales de línea y las impresoras de
banda), robustas y económicas. Sus principales entornos de aplicación son los centralizados, en
donde ofrecen grados de disponibilidad adecuados para ellos, calidades de impresión relativamente
altos (240 x 240 puntos por pulgada) y varias fuentes disponibles. En estos entornos es competencia
directa de la tecnología láser, aunque el mercado se ha decantado por esta última tecnología.

1.2.7. Impresoras láser


Para imprimir, estas impresoras deben controlar cinco operaciones:
– Interpretar las señales del ordenador.
– Traducir esas señales a movimientos del láser.
– Controlar el movimiento del papel.
– Sensibilizar el papel para que acepte el tóner.
– Imprimir en el papel.
Inicialmente recibe la información del ordenador y éstas son traducidas en apagar y encender
convenientemente el haz de luz láser. Un pequeño espejo giratorio desvía la luz, y la hace incidir en un
cilindro recubierto de material fotosensible (tambor). Los movimientos del espejo y el giro del tambor
hacen que el láser pueda llegar a cualquier parte de la superficie del tambor. Cuando el láser ha com-
puesto una línea de puntos, el tambor gira (unos 1/300 de pulgada, o menos) y pasa a la siguiente
línea de puntos, donde por el mismo procedimiento compondrá de nuevo sus puntos.
Los puntos del tambor en los que dio la luz, quedan cargados negativamente y corresponderán a
puntos que luego se imprimirán en el papel. Las zonas donde no dio la luz quedarán como zonas sin
imprimir (en blanco) en el papel.
Una vez compuesta la imagen, el tambor pasa por un depósito de tinta en polvo (tóner), cargado
con carga opuesta a la del tambor, de forma que el tóner queda adherido a las zonas del tambor
donde incidió la luz. Acto seguido pasa el papel por el tambor, que previamente se sensibilizó también
eléctricamente, de forma que atraiga al tóner del tambor con más fuerza que éste, quedando así
impreso el folio.
El tambor será limpiado eléctricamente para la siguiente hoja y el folio pasará por un sistema de
fusionado, con el que por presión y calor unen al tóner permanentemente al papel.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 91


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

El sistema descrito aquí es llamado de escritura negra (Canon). Existe también el sistema de es-
critura blanca (Ricoh), en el que las zonas donde incide el láser en el tambor se cargan de igual carga
que el tóner, por lo que el tóner se adhiere a las zonas donde no incidió la luz.
Todos los datos relativos a una página son almacenados en memoria para su impresión en blo-
que. Estas impresoras son las más rápidas, varias veces más que las matriciales: entre unas pocas
páginas por minuto y 200 ppm. Sus inconvenientes son:
El precio, superior a las matriciales, aunque como actualmente puedan ser compartidas en red,
se han convertido en la opción preferida por muchas organizaciones.
La necesidad de servicio de mantenimiento técnico (limpieza, atenciones preventivas, etc.), es-
pecialmente cuando se trata de impresoras de gran capacidad.
El coste de la sustitución de los fungibles; el precio de un cartucho de tóner es varias veces su-
perior al de una cinta para una impresora matricial.
Entre las características que ofrecen estas impresoras figuran: fuentes escalables, efectos de
texto, gráficos bitmap, gráficos vectoriales y resoluciones de 300, 600 y, en algunos casos hasta de
1200 ppp.
Su aplicación se encuentra en todos los CPDs y de edición electrónica donde se requiere alta
calidad y gran diversidad de opciones (tipos de caracteres, estilos, etc.). Las impresoras láser de baja
capacidad, hasta 20 ppm e incluso 40 ppm, se destinan principalmente a entornos monopuesto de
PCs, estaciones de trabajo y a grupos de trabajo en red.
En los entornos de proceso informático y de edición electrónica (con grandes volúmenes), para
la impresión de trabajos que incluyan fuentes escalables, adición de efectos, empleo de gráficos
vectoriales, gráficos bitmap y resoluciones altas, las impresoras láser representan la selección más
idónea.
Existen dos tecnologías relacionadas aunque no utilizan el láser para crear la imagen. No hay
grandes diferencias en cuanto a fiabilidad, calidad de impresión o precio. Estas son:
– LED (Light Emitting Diode): utilizan otras fuentes de luz para crear la imagen.
– LCS (Liquid Crystal Shutter): utilizan una combinación de lámparas halógenas y de arrays de
cristales líquidos para generar la imagen.
Las impresoras láser también pueden imprimir imágenes a color, que reconstruyen a partir
de tóner de diferentes colores de forma secuencial (un color tras otro). Actualmente estas impre-
soras son muy caras y su calidad no está a la altura de las impresoras de ceras y de sublimación
de tintas.
Tradicionalmente, a las impresoras láser se las ha calificado de antiecológicas, por tener ele-
mentos consumibles no reciclables (tambor, tóner, kit de revelado, etc.). Además, suelen producir
ozono, un gas que respirado continuadamente produce dolores de cabeza. Sin embargo, ya hay
impresoras láser ecológicas, que reducen la emisión de ozono y tienen materiales reciclables o
duraderos.

1.2.8. Impresoras de inyección o de chorro de tinta


El cartucho de tinta se inserta en la cabeza de impresión, que tiene unos minúsculos agujeros,
por los que pasará la tinta. La tinta es calentada (a más de 450º C durante millonésimas de segundo)
de forma que hierve formando una burbuja de vapor que crece hasta que empuja a la tinta a salir por
el agujero, en forma de gotita (unos 0,5 mm).
Este chorro de gotas de tinta está ionizado, de forma que en su recorrido son desviadas por unos
electrodos. El carácter se forma con la tinta que incide sobre el papel. Usualmente un carácter es for-
mado por una matriz de unas 20x20 gotitas. Cuando no se debe escribir, las gotas de tinta se desvían
hacia un depósito de retorno. Tomando la tinta de distintos cartuchos podemos obtener impresoras
que impriman en colores.
Su resolución puede variar, estando las resoluciones típicas en 360x360, 720x720 y 1440x1440.
Además, la calidad de impresión de una foto en color depende del papel usado (hay papeles especia-
les que mejoran este tipo de impresión). Su velocidad oscila entre 60 y 660 cps.

92 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

Se utilizan principalmente tres técnicas:


– Una barra horizontal con un agujero por punto a través del cual se proyecta la tinta.
– Uso de campos eléctricos para lanzar las gotas.
– Cabezal con múltiples toberas, semejante a un cabezal matricial de agujas, por la que es
disparada la tinta. Este método es el más popular.
Estas impresoras son más robustas que las matriciales y láser ya que disponen de menos ele-
mentos móviles. Su calidad de impresión llega a ser equivalente a las láser. Con el empleo de toberas
dedicadas se pueden conseguir imágenes en color con una buena resolución.
Estas impresoras se utilizan habitualmente en los entornos de usuarios de ordenadores persona-
les, donde se consiguen trabajos de alta calidad, bajo coste, mayor número de fuentes y capacidades
de color. Sus velocidades de impresión alcanza hasta 10 ppm (páginas por minuto). Sus inconvenien-
tes son el coste de los recambios (cartuchos de tinta) y la posibilidad de producir borrones cuando el
sistema de secado no es suficientemente rápido.
Otras características son:
– Producción de ruido casi nula.
– Los inyectores pueden formar parte del mecanismo de la propia máquina, o bien estar dentro
de un cartucho exterior a la misma, lo que alarga considerablemente la vida de la máquina.
– Requieren de un papel que tenga cuerpo y cuya velocidad en absorber sea equiparable a la
de la tinta en fijarse.

1.2.9. Impresoras de burbuja


Muy parecidas a las anteriores, de hecho siempre se confunden; pero existe una diferencia clara
entre ellas y es que en éstas, la cantidad de tinta necesaria para cada carácter se encuentra dentro
de una burbuja que al explotar desparrama la tinta para constituir dicho carácter. El proceso es siem-
pre el mismo: la burbuja va creciendo conforme se llena de tinta y al final se vacía para imprimir el
carácter.

1.2.10. Impresoras de sublimación


Su funcionamiento se basa en vaporizar y fundir tintes que son absorbidos por un papel especial.
Una fuente de calor se aplica sobre la cinta y el colorante se difunde a través de la hoja receptora,
siendo la densidad de color directamente proporcional a la intensidad de calor aplicado. Antes de
imprimir cada punto de color, se combinan las tintas necesarias y a continuación se transfieren al pa-
pel. Estos puntos, en forma de cuadrados, se disponen adyacentemente pero sin llegar a solaparse,
consiguiendo un resultado más realista y continuo.
Consiguen imágenes en color con calidad fotográfica y con alto nivel de resolución. El inconve-
niente de este tecnología es su precio, por el momento muy elevado, y su velocidad, muy inferior a
la de otras tecnologías. Sólo se aplica en entornos donde se necesite impresión de trabajos en color
con alta calidad.

1.2.11. Impresoras de ceras (transferencia térmica)


No requiere papel especial y se basa en mezclar pinturas basadas en cintas de ceras (cian, ma-
genta y amarillo o cian, magenta, amarillo y negro) del tamaño de una página y dispuestas secuen-
cialmente, que se solidifican inmediatamente al entrar en contacto con la superficie del papel. La
transferencia de los colorantes de las cintas al papel se hace mediante unos elementos electrónicos
que generan calor, activados en las zonas donde se necesita color. El número de ellos es directamen-
te proporcional a la resolución de la impresora.
Se obtienen niveles de saturación muy aceptables para la elaboración de trabajos de autoedi-
ción, facilidades para la generación de sombreados utilizando la técnica de dithering, alteración del
tamaño de los puntos, y niveles de resolución del orden de 200 ppp.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 93


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

Las tendencias apuntan a un dominio del mercado por las impresoras láser y de inyección de
tinta, mientras las de impacto quedarán relegadas a aplicaciones específicas (impresiones con papel
autocopiativo, continuo, etc.).
Respecto a la impresión en color, las impresoras de inyección, láser, de sublimación y de ceras
acogerán cada vez más usuarios durante los próximos años, a medida que la necesidad de realizar
trabajos en color con mayores niveles de calidad se incremente y los precios disminuyan.

1.3. CONCEPTOS BÁSICOS SOBRE IMPRESORAS

1.3.1. Alimentadores de hojas


Una opción muy interesante que ofrecen algunas impresoras es la posibilidad de imprimir en
papel continuo o en hojas sueltas. Si la impresora se alimenta simultáneamente de ambos tipos de
papel, el usuario podrá conmutar de un modo u otro desde el mismo puesto de trabajo. En entornos
de oficina también resultan muy interesante los alimentadores de sobres, etiquetas u otros tipos de
soportes distintos del clásico papel.
Los principales mecanismos de alimentación son:
– Por fricción: utilizado para la alimentación manual de hojas sueltas, sobres, etc. Permite
una mayor precisión una vez aprisionado el papel.
– Por tracción: para papel en formato continuo y provisto en sus laterales de una serie de agu-
jeros que engranan perfectamente en las ruedas de los extremos del rodillo. Una de las ruedas
tiene movilidad a lo ancho de todo el rodillo para ajustar a conveniencia el ancho del papel.
– Alimentadores de hojas sueltas: sistema idóneo para la alimentación automática de hojas
sueltas con formatos estándar. Utiliza bandejas de diferentes formatos de papel. Mediante
este mecanismo, algunas impresoras también permiten la impresión de ambas caras de una
página o dúplex.
– Alimentadores de rollo: mecanismo orientado para determinadas aplicaciones específicas
que necesitan un sistema de alimentación continuo y que ocupe poco espacio.

1.3.2. Soportes de impresión


Los soportes de impresión utilizados por una impresora o un trazador gráfico varían desde el
tamaño A4 hasta el A0 (para trabajos con hojas sueltas), o desde el papel continuo de 10 pulgadas
(aprox. 80 caracteres por línea) hasta el de 18 pulgadas (aprox. 132-164 caracteres por línea).
Dependiendo de las características del equipo de impresión, se puede utilizar papel estándar,
satinado, reciclado, transparencias, papel autocopiativo, etiquetas, sobres, etc. Otra característica
importante del papel es el gramaje admitido.
NOTA: el gramaje hace referencia a la densidad del papel. Se expresa en
gramos por metro.

1.3.3. Memoria RAM


La memoria de una impresora es el buffer donde almacena información pendiente de ser impresa, de
forma que la CPU puede ejecutar otras tareas mientras la impresora imprime. Esta memoria es especial-
mente necesaria cuando se trata de impresoras conectadas en LAN que atienden a múltiples usuarios.
Para mejorar los tiempos de respuesta y la gestión de las colas de trabajo, algunas impresoras
están provistas de un disco duro para el almacenamiento de trabajos. Otra razón de la memoria RAM
es configurar el formato de una página en modelos de impresora de página, como son las láser.
La memoria RAM también almacena las fuentes (tipos de caracteres) que son cargadas desde un
ordenador. Estas fuentes se denominan blandas, a diferencia de las fuentes residentes en la propia
impresora o en un cartucho especial de fuentes.

94 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

Una posible solución para mejorar la velocidad de impresión y disminuir el coste se basa en
trasladar la capacidad de proceso de la impresora al ordenador. De este modo se podría eliminar la
controladora de la impresora y la memoria RAM de ésta, dos de sus componentes más caros.

1.3.4. Emulaciones
Este concepto no tiene sentido en impresoras con juegos de caracteres no configurables, como
las impresoras de banda o de margarita. La emulación de uno o más PDL (Page Description Langua-
ge) estándar y la capacidad para instalar nuevas fuentes, son dos medidas muy útiles que evitan que
un periférico se quede obsoleto antes de haber amortizado su inversión.
Entre las impresoras matriciales, las emulaciones más populares son la Epson FX, la IBM Pro-
printer, la Epson LQ Series, la Adobe Systems PostScript, etc. En las láser la PCL 4 y PCL 5 de HP
(el PCL 5 con una velocidad de impresión menor, pero con facilidades de escalabilidad, rotación de
caracteres, y adición de efectos), la PostScript Level 1 y Level 2 de Adobe (el nivel 2 soporta impresión
en color) y la True Type de LaserMaster.

1.3.5. Lenguajes de descripción de página


– PostScript: almacena hasta 35 fuentes mediante sus contornos o perfiles (outline), fórmula
que permite a una impresora reconstruir un tipo de letra en varios tamaños (escalarlos),
ángulos (rotarlos) y estilos, así como añadir diferentes efectos. También puede combinar
textos y gráficos para el diseño de una página. Es el sistema recomendado para entornos
de edición electrónica de documentos y publicaciones. Las desventajas son que sacrifica
la velocidad en favor de la calidad, además los requisitos de memoria RAM y de potencia
aumentan.
– PCL (Printer Control Language): menos sofisticados que PostScript. Es más recomendable
para procesado de textos y de edición de gráficos no muy complejos. Su ventaja es la ra-
pidez. Este estándar almacena las fuentes como imágenes bitmap (matriz de puntos que
representa la imagen a imprimir), pero en general no tiene capacidad para combinar carac-
teres y gráficos en la misma página, circunstancia que resuelve mediante dos pasadas. PCL
tiene capacidad para imprimir caracteres de hasta 600 puntos.
– Trazadores gráficos: los principales lenguajes soportados por un trazador gráfico (plotter)
son: Calcomp 906/907, HP/GL, HP/GL2, GP-GL, DXY-GL y DM/PL.

1.3.6. Fuentes
Son el juego de caracteres que se pueden modelar, incluyendo letras, números, signos de pun-
tuación y algunos códigos especiales. Algunos de los tipos de fuentes más populares son: Helvética,
Times, Courier, Arial, etc.
Las fuentes pueden residir en la propia impresora, en un cartucho o en un disco. Las fuentes
residentes son las instaladas por el fabricante y las más fáciles de imprimir, mientras que las fuen-
tes de un cartucho son más costosas y son compradas como una opción. Las fuentes cargables o
blandas residen en el disco del ordenador que utiliza la impresora y son más lentas en la instalación.
Además, cada vez que se enciende la impresora, éstas deben ser cargadas. Para eliminar este último
inconveniente, algunas impresoras ofrecen la posibilidad de instalar un disco duro o una disquetera
en la propia impresora.
Las fuentes escalables (proporcionales y múltiples) aceleran notablemente el trabajo de impre-
sión. Si no se dispone de ellas, por cada tamaño de letra hay que almacenarla independientemente
en la impresora o enviada cuando se transmita la restante información de impresión. En caso de
disponer de fuentes escalables, el aspecto y tamaño de una fuente son incluidos en la descripción
de la página, la definición del tipo de letra ya la posee la impresora. La impresora únicamente tiene
que escalar las fuentes, en lugar de enviar cada tipo, acelerando considerablemente la velocidad de
impresión.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 95


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

Los tamaños de los juegos de caracteres se miden en puntos (equivalentes a 1/72 de pulgada)
y en caracteres por pulgada (cpi, characters per inch). PCL 4 de HP, PCL 5 de HP, PostScript (Niveles
1 y 2) de Adobe y True Type de LaserMaster son ejemplos de Lenguajes de Descripción de Páginas
que poseen fuentes escalables.

1.3.7. Interfaces
Las interfaces más populares para conectar una impresora a un ordenador son: RS-232, RS-422
(puertos serie que transmiten bits secuencialmente), y Centronics, que funciona de modo paralelo,
y están muy extendidos. Este último es un enlace unidireccional para el envío de 8 bits de datos en
paralelo a la impresora, y que también permite que la impresora notifique al ordenador ciertos men-
sajes (sin papel, desconectada, etc.).
Actualmente existen impresoras conectadas directamente a la red de ordenadores. Esto implica
que todas las informaciones de estado, memoria, carga de trabajo, errores, etc. visualizadas en el
display de la impresora, no pueden ser observadas por el usuario, por la distancia física entre ambos.
La solución pasa por implementar protocolos de comunicaciones bidireccionales que gestionen el
envío de la información de estado referente al funcionamiento de la impresora. Algunos de éstos son
el NPAP (Network Printing Alliance Protocol), el PJL (Printer Job Language) o el SNMP (Simple Network
Management Protocol), muy extendido y aceptado en la actualidad.

1.3.8. Fungibles y consumibles


Los fungibles son componentes asociados con la operación de la impresora que se sustituyen
periódicamente. Tienen una influencia muy importante sobre el coste de operación de los equipos, y
se diferencian de los consumibles porque estos últimos desaparecen con el uso, mientras los prime-
ros implican algún tipo de desecho. Por ello tienen una componente medioambiental de importante
consideración.
Entre los fungibles se encuentran:
– Cartuchos de tóner (en impresoras láser).
– Cartuchos de tinta (en impresoras de inyección de tinta).
– Cintas (en impresoras de impacto).
– Tambores (en impresoras de página).
Y entre los consumibles figuran:
– Tóner.
– Tintes.
El fabricante debe especificar el número de páginas con texto impresas antes de la sustitución
del fungible, indicando la relación porcentual entre la superficie impresa y el total de la hoja.

1.3.9. Panel de controles


La configuración del panel de controles, su disposición y facilidad de uso o el lenguaje de códigos
enviados desde un ordenador para modificar la calidad de impresión, aspecto de salida, selección
de fuentes, modos de emulación, funciones de autodiagnóstico, etc., tienen una importante reper-
cusión sobre el tiempo y la comodidad diaria del usuario. Existen modelos de impresoras que envían
la información de estado al PC del usuario o al servidor de impresoras, además de reflejarse en el
visualizador que ésta posea.

1.3.10. Velocidad
La velocidad de impresión tiene diversas medidas en función de la técnica de impresión:
– Páginas por minuto (ppm). Impresoras sin impacto: imprimen la información correspon-
diente a una página completa de una sola vez, como las láser.

96 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

– Líneas por minuto (lpm). El mecanismo de impresión realiza la impresión de una línea com-
pleta cada vez, como son las impresoras matriciales de línea, impresoras de tambor, etc.
– Caracteres por segundo (cps). Impresoras que imprimen un carácter cada vez, como en
las impresoras matriciales de carácter, impresoras de margarita, etc.
En el caso de los trazadores gráficos, la velocidad de impresión se mide en:
– Milímetros/segundo (mm/s) para trazadores de plumillas y electrostáticos.
– Páginas por minuto (ppm) para trazadores térmicos, electrofotográficos, láser y de chorro
de tinta.

1.3.11. Resolución
Las impresoras láser y de inyección son los modelos que ofrecen mejor calidad actualmente.
Para la elaboración de cartas, las impresoras de margarita también ofrecen una calidad muy alta,
aunque la elección de los tipos de letra se restringe a las distintas margaritas que posea, y además
su intercambio debe ser manual.
La resolución se expresa en puntos por pulgada (ppp), apareciendo también en su acepción
anglosajona: dpi (dots per inch). Existen muchas tecnologías que mejoran la resolución conseguida
con una determinada plataforma. La RET, Tecnología de Mejora de la Resolución (Resolution Enhan-
cement Technology), modela el tamaño de cada punto para producir una mejor calidad de salida
con una misma resolución (300 ppp). Otras tecnologías son la PQET, Sharp Edge Technology o la de
Photoshop de Adobe (para imágenes y resolución en color).
Dado que la resolución está en correspondencia directa con la calidad de impresión, es intere-
sante mencionar algunos términos relacionados:
– DQ (Draft Quality): calidad borrador.
– NLQ (Near Letter Quality): calidad cuasi-carta.
– LQ (Letter Quality): calidad carta.
– NTQ (Near Typeset Quality): calidad cuasi-tipográfica.

1.3.12. Impresión en color


En la actualidad, las impresoras de color están ganando mercado a las tradicionales impresoras
monocromo para aquellos trabajos que necesitan impacto visual, captación del interés, mejora del
atractivo de la presentación, etc. Una buena presentación a color resulta más interesante y llamativa
que en blanco y negro, por muy sofisticada que sea esta última.

1.3.13. Compatibilidad
Capacidad de la impresora para entender los comandos recibidos desde las diferentes aplicacio-
nes lógicas que la utilicen, sea cual sea la naturaleza de éstas e independientemente de la plataforma
física del usuario, los protocolos de red y el lenguaje de descripción de páginas.

1.3.14. Conectividad
Es una solución que permite compartir las impresoras de red entre los usuarios conectados a ésta.
Estas impresoras han de ser mucho más exigentes en su velocidad de impresión, pues la carga de tra-
bajo crece considerablemente. El inconveniente de adquirir una impresora más cara, dada la velocidad
soportada, se mitiga por la ventaja de la compartición. La impresora deberá estar provista de la interfaz
adecuada para su conexión a red: Ethernet coaxial, Ethernet par trenzado, Token Ring, etc.

1.3.15. Nivel de ruidos


Cualquier impresora de impacto tiene una contribución de nivel de ruido muy importante. Este
factor deberá ser tenido muy en cuenta en la adquisición de los equipos de impresión.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 97


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

1.3.16. Degradación de la calidad de impresión


Característica especialmente importante en impresoras de impacto con formularios autocopiati-
vos, cuando vayan a ser utilizados posteriormente por sistemas OCR (Optical Character Recognition).
Esta característica también es importante en impresoras térmicas, por las razones expuestas al des-
cribir esta tecnología de impresión.

1.3.17. Multifuncionalidad
Existen impresoras que añaden otras funciones: fax, fotocopiadora, escáner o módem. Son muy
útiles cuando los requisitos de espacio, coste límite o consumo de energía son muy restrictivos, pero
presenta el inconveniente de que, cuando el equipo se estropea, normalmente lo hacen todas las fun-
ciones con él. Otra opción interesante puede ser la impresión de códigos de barras para direcciones
postales o códigos universales de productos (UPC, Universal Product Codes).

1.3.18. Impresión off-line


Capacidad de funcionamiento autónomo de la impresora, sin estar conectada a un ordenador.

1.4. TRAZADORES GRÁFICOS (PLOTTERS)


El plotter, registrador o trazador gráfico, es un periférico sofisticado de uso principalmente indus-
trial. Sus usos más habituales se circunscriben a diseños y elaboración de planos de ingeniería, ar-
quitectura, mapas y similares con una precisión no alcanzable con una impresora. Soportan formatos
de papel desde A4 hasta A0.
Para dibujar usan distintas plumillas (a veces con distintos colores), que se desplazan por el papel
con gran precisión y le permiten hacer curvas y rectas perfectas (continuas, no digitales).
En cuanto a tamaño físico, los hay que ocupan un área considerable de la habitación hasta los
que ocupan un espacio similar a la propia impresora. Se clasifican en:
De sobremesa: constan de una tabla de tamaño fijo, donde se sitúa el papel. Por encima del pa-
pel se desplaza una barra (en el eje X) y a lo largo de la barra se desplaza una plumilla (en el eje Y).
De pie: gran tamaño y precio. Normalmente constan de un rodillo que hace mover al papel (en
el eje X) longitudinalmente. El ancho del rodillo limita el ancho del papel, pero no tiene limitación de
largo. Encima del rodillo se sitúa la plumilla que se desplaza a lo largo de éste (eje Y). A veces en
vez de una plumilla se usa una cabeza de inyección de tinta de tecnología similar a las impresoras
de inyección.
Las tecnologías utilizadas son:
– De lápices o plumillas.
– Inyección de tinta.
– Térmica.
– Láser.
– Electrostática.
– Electrofotográfica.
En función del coste admisible, de la calidad, precisión y velocidad de impresión requeridas, se
deberá seleccionar una u otra tecnología. Los factores en contra y a favor de cada una y las consi-
deraciones sobre los entornos informáticos disponibles, pueden ser extrapolados de las realizadas
anteriormente para las impresoras.
Los trazadores gráficos sufrirán una competencia muy fuerte por parte de las modernas impre-
sora sin impacto, salvo en condiciones muy específicas (formatos muy grandes, como el A2, A1 o
A0, registro interactivo de medidas continuas, como son gráficos de seguimiento en procesos de
investigación y medicina clínica, etc.).

98 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

2. UNIDADES DE VISUALIZACIÓN

2.1. TERMINALES

2.1.1. Evolución histórica


Los primeros terminales fueron los denominados teleimpresora, desarrollados para ser utilizados
en los servicios públicos de transmisión de mensajes (servicios telegráficos). Se generaban caracte-
res según un determinado código y se transmitían directamente en banda base (sin ningún tipo de
modulación). El tipo de transmisión era asíncrono.
Los primeros terminales pantalla-teclado en el mercado fueron los terminales ASCII, que imitaban
plenamente el modo de transmisión teletipo (TTY) sin apenas ninguna otra funcionalidad adicional.
Posteriormente, con las nuevas técnicas de modulación, se pudieron enviar las señales de datos
y de sincronismo simultáneamente, con lo cual se incrementó el rendimiento de la transmisión (termi-
nales síncronos). Aparecieron también protocolos más complejos que mejoraron los rendimientos, y
que fueron implementados en la circuitería de los terminales aumentando notablemente su compleji-
dad. Las exigencias de las aplicaciones obligaron a los terminales a presentar, además de caracteres,
gráficos y dibujos, lo cual representó un notable cambio en cuanto a prestaciones y funcionalidades
del terminal.

2.1.2. Definición
El terminal de pantalla-teclado constituye el dispositivo físico periférico más habitual en los siste-
mas informáticos centralizados. La pantalla, como dispositivo de salida, tiene como función mostrar
la información requerida. El tipo de información definirá los requisitos exigidos a la pantalla (sólo ca-
racteres, color, gráficos, etc.). El teclado, como dispositivo de entrada, suministra un punto de acceso
al sistema para la introducción de datos.

2.1.3. Clasificación
Se pueden clasificar según diversos criterios: conexión (local o remota), color (monocromo o
color), resolución (alta, media o baja), tipo de exploración (matriz activa, matriz pasiva), etc. La clasifi-
cación más común se basa en la forma de enviar los datos y por la presentación. Generalmente no se
puede elegir cualquier terminal, ya que hay que respetar la forma de comunicación con el ordenador
o el tipo de datos que se quiere visualizar.
Por la forma de enviar los datos:
Un elemento básico y condicionante en la comunicación es la sincronización entre el emisor y el
receptor, con objeto de que la información transmitida sea recuperada correctamente en el destino.
Según la forma de realizar la sincronización tenemos:
– Asíncrono (arranque/parada): el emisor y el receptor disponen de relojes ajustados a la mis-
ma frecuencia que se sincronizan en cada transmisión para garantizar la correcta recepción.
Esto se hace mediante el envío de un bit 0 llamado de arranque, cuya función es arrancar el
reloj del receptor. Posteriormente se envían los datos, normalmente 7 bits por carácter co-
dificados en ASCII (estos terminales se conocen también como terminales ASCII). El último
grupo lo forman uno o dos bits 1, llamados de parada, que separan los bloques transmiti-
dos. Se transmiten pues 7 bits útiles por cada 10 transmitidos (rendimiento del 70%). Si se
aumenta el número de caracteres enviados en una misma transmisión se corre el riesgo de
perder el sincronismo. Estos terminales son los más sencillos y constituyen actualmente una
alternativa barata aunque desfasada en aplicaciones basadas estrictamente en caracteres.
Su velocidad de transmisión generalmente no supera los 9.600 baudios.
– Síncrono: se envían conjuntamente información (datos) y señales de sincronización. Duran-
te la transmisión el receptor se resincroniza permanentemente, lo que permite aumentar la
longitud de la información útil a transmitir. Ésta queda delimitada por una cabecera y una

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 99


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

terminación (habitualmente formada por 2 palabras de 8 bits). Se envían bloques de entre


128 y 1024 palabras de 8 bits obteniéndose rendimientos superiores al 99%, muy por en-
cima de los terminales asíncronos. Además este tipo de transmisión es menos sensible al
ruido y demás imperfecciones de la línea de transmisión. Como contrapartida se requiere
más circuitería en los terminales (detección y corrección de errores, buffering, etc.) y mayor
complejidad asociada a los protocolos síncronos. También los módems utilizados han de ser
más complejos. La conexión de terminales síncronos al ordenador central se suele llevar a
cabo agrupándolos en lo que se denominan clusters, a través de unos dispositivos llamados
controladores de terminales o concentradores.
Por la presentación:
– Terminales de caracteres. La pantalla, normalmente monocroma, está formada por una
matriz de celdas de 23 a 32 líneas y de 80 a 132 columnas. Cada celda puede representar
un carácter de entre un conjunto predefinido (ASCII, EBCDIC, etc.). Los gráficos se crean a
partir del juego de caracteres predefinidos. Esto tiene la desventaja de una menor flexibili-
dad. Los programas dependen de la rígida configuración que se puede mostrar en pantalla.
Tienen, sin embargo, la ventaja de que se libera a los programas de una gran cantidad de
trabajo (figuras, gráficos, tamaño y fuente del texto, etc.).
– Terminales gráficos. Visualizan las salidas de aplicaciones cuyos resultados se producen
en forma gráfica. Sus pantallas están formadas por una matriz de puntos, llamados píxeles
(abreviatura de Picture Elements); cualquier elemento, texto o gráficos, ha de ser generado
a partir de esos puntos, que se pueden activar con diferentes colores. Presentan una mayor
flexibilidad: se pueden construir dibujos más ricos y complejos que con una pantalla de ca-
racteres. El inconveniente es que se tiene que dibujar punto a punto, lo cual impone mayor
complejidad del equipo lógico que gestiona las salidas en pantalla.
Por los ámbitos de aplicación:
– Terminales ASCII: usuarios sensibles al precio con requisitos muy modestos en cuan-
to a prestaciones. Las típicas aplicaciones incluyen edición de textos, grabación de
datos, etc.
– Ofimática (segmento bajo): segmento de rápido crecimiento que prima el precio sobre el
rendimiento y es menos crítico en cuanto a prestaciones de resolución, colores, tamaño de
pantalla y memoria. Las aplicaciones incluyen gráficos de empresa y presentaciones, servi-
cios financieros, procesos de transacciones y ofimática en general.
– Profesional y técnico (segmento medio): usuarios de campos tales como el CAD (Com-
puter Aided Design) y GIS (Geographical Information Systems) necesitan alta resolución,
pantalla grande, hasta 256 colores y mucha memoria. El rendimiento es su consideración
más importante, jugando el precio un papel secundario.
– Científicos y de ingeniería (segmento alto): aplicaciones complejas en 3D: animación,
visión artificial, análisis por elementos finitos, simulación, etc. Ha sido el segmento de
desarrollo más lento, simplemente porque la tecnología para manipular los gráficos 3D y
el funcionamiento en red de alta velocidad requerido por estos usuarios no estaban dispo-
nibles.

2.2. SISTEMAS GRÁFICOS ACTUALES

2.2.1. Introducción
El sistema gráfico es una de las partes más significativas de los modernos ordenadores, ya que
es el componente clave para la comunicación entre el equipo y sus usuarios, ganando mayor impor-
tancia con la generalización de los sistemas operativos con una interfaz gráfica de usuario.
A lo largo de la historia de los ordenadores personales han ido apareciendo estándares con
mayores funcionalidades, especialmente en cuanto a nivel de resolución y número de colores dis-
ponibles

100 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

Los primeros terminales pantalla-teclado en aparecer en el mercado fueron los ASCII, que imi-
taban plenamente el modo de transmisión teletipo (TTY) sin apenas ninguna otra funcionalidad adi-
cional. Las exigencias de las aplicaciones que se manejaban obligaron a los terminales a presentar
no solamente caracteres, sino también gráficos y dibujos, lo cual representó un notable cambio en
cuanto a prestaciones y funcionalidades del terminal de visualización.
El sistema de vídeo de un ordenador personal está formado por dos componentes: monitor y
tarjeta de vídeo. Una tarjeta de vídeo es una placa delgada llena de circuitos integrados que se instala
en una ranura de ampliación de la unidad central. El monitor es el dispositivo visual para la presenta-
ción de información. La tarjeta de vídeo se comunica con el monitor mediante un cable que parte del
monitor y llega hasta la tarjeta de vídeo.
Los dos elementos que componen el sistema de vídeo son independientes y se condicionan mu-
tuamente. Por ejemplo, un ordenador con el monitor de color pero una tarjeta monocromo, sólo podrá
visualizar caracteres en blanco y negro. Recíprocamente, un ordenador con la mejor tarjeta de vídeo
en color, pero un monitor monocromo, sólo mostrará letras y figuras en blanco y negro.

2.2.2. El monitor
Es el dispositivo de salida más típico y más usado. La pantalla es normalmente utilizada como sa-
lida estándar en un sistema. Es similar a una televisión, con un tubo de rayos catódicos (CRT, Cathode
Ray Tube), que hace incidir una haz de electrones en la superficie interna de la pantalla, recubierta
de un material fosforescente. Cada posición donde pueden incidir los electrones se corresponde con
un punto o píxel de la pantalla. La imagen se forma por multitud de estos píxeles, encendidos o apa-
gados, y con diferentes colores.
En un monitor la calidad de imagen viene dada por la cantidad y el tamaño de los píxeles: a más
cantidad y menor tamaño mayor resolución. Un monitor de 640x480 tiene por tanto 480 líneas de
exploración (resolución vertical), cada una con 640 píxeles (resolución horizontal).
La resolución viene indicada por el número total de píxeles en el monitor, en la forma: resolución
horizontal x resolución vertical (640x480, 1024x768, etc.). La resolución es una medida de la nitidez
con que se visualizan las imágenes.
Otra medida interesante es el dot pitch, o distancia entre los centros correspondientes a los
puntos de fósforo rojo, verde y azul que forman la tríada de color. Generalmente, un dot pitch más
pequeño implica mayor resolución porque produce gráficos y caracteres más densos. Normalmente
viene dado en milímetros y es del orden de 0,2-0,3 mm.
Sin embargo, la forma de medir la distancia entre los centros varía en función de la tecnología
empleada en el tubo del monitor. Las principales tecnologías de tubos que hay en el mercado son
dos: máscaras de sombra INVAR, y apertura de rejilla, más conocida como Triniton. En dichas
tecnologías se mide de manera diferente el dot pitch: un punto de 0,25 mm de Triniton equivale a un
0,28 mm en máscara de sombra.
Una característica fundamental es el tamaño del monitor, que se define como la longitud de la
diagonal medida en pulgadas (representada por dos comillas: ”). Los valores habituales son:
– 14” (35,4 cm)
– 15” (37,9 cm)
– 17” (43,0 cm)
– 20” (50,6 cm)
– 21” (53,1 cm)
La elección del tamaño de la pantalla dependerá fundamentalmente del tipo de información que
se quiera representar. Por ejemplo, en el caso de visualización de representaciones gráficas de cali-
dad sería ideal tener una pantalla de alta resolución y de un tamaño grande.
Sin embargo, el tamaño del monitor y su AVR (área de visualización real) son conceptos dife-
rentes. Al hablar del tamaño del monitor, se hace referencia la diagonal del tubo de imagen, técni-
camente llamado tubo de rayos catódicos (CRT). El AVR del monitor hace referencia a la longitud de
la diagonal de la pantalla, y dicha medida es variable pues se encuentra en función del fabricante y

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 101


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

modelo. El AVR suele encontrarse entre 13,3 y 14 pulgadas (33,7 y 35,5 cm) en los monitores de 15
pulgadas de tamaño, y de 15,6 a 16,8 pulgadas (39,6 y 42,6 cm) en los de 17.
La imagen en el monitor no es estática. Se forma mediante un haz de electrones que la barre a
gran velocidad varias veces por segundo, siendo este fenómeno imperceptible para el ojo humano (o
casi). La frecuencia de refresco define el número de veces que la pantalla se refresca por unidad
de tiempo. La frecuencia de refresco mínima recomendada por la VESA (Video Electronics Standards
Association) es de 70 Hz para una resolución de 1024x768 píxeles.
Los monitores multiscan o multisync soportan un amplio rango de frecuencias horizontales y
verticales, ofreciendo gran flexibilidad para trabajar con tarjetas adaptadoras gráficas. La mayoría de
los fabricantes ofrece unos cuantos modos preconfigurados, es decir, combinaciones de frecuencias
horizontales y verticales. Cuanto más modos preconfigurados ofrece un monitor, menos probable es
que el usuario tenga que ajustar manualmente la imagen.
También son importantes las clases de controles incorporados en el monitor. Dichos controles
pueden ser de tres clases: analógicos, digitales, o por software. Este último tipo se puede considerar
como un paso atrás pues nos obliga a trabajar con los sistemas operativos para los cuales el software
del monitor incluya utilidades.
Conviene tener en cuenta las normativas que cumplen los monitores en materia de especifica-
ciones sobre emisiones de radiaciones, ergonomía y consumo. Se recomienda que los monitores
cumplan las normativas MPR II y Energy Star, siendo también conveniente que cumplan las normas
TCO92 y TÜV, aunque sería mucho mejor que también cumplieran con las TCO95, especialmente
creadas para cuidar el medio ambiente.
Existen varias tecnologías en la fabricación de monitores:
– Tubo de rayos catódicos (CRT: Cathode Ray Tube): primera tecnología en aparecer y aún
hoy en día la más extendida. Funcionan de forma muy similar a los televisores, aplicando
una técnica conocida como exploración: la pantalla se dibuja constantemente por un haz de
electrones móvil, o tres haces (rojo, verde y azul), según sea la pantalla monocroma o en
color. El haz de electrones impacta sobre las capas de fósforo de la pantalla, produciendo
el brillo que percibe el ojo humano. Este haz (o haces) de electrones realiza un barrido hori-
zontal y otro vertical. La frecuencia de barrido horizontal es del orden de Kilohertzios (KHz) y
la frecuencia de barrido vertical es del orden de decenas de Hertzios (Hz). Esta última indica
la frecuencia de refresco de un monitor. En ocasiones se divide la pantalla en líneas pares e
impares; en un barrido se refrescan las pares y en el siguiente las impares (modo entrela-
zado). Este método produce un ligero parpadeo en el monitor.
– CRTs Digitales: casi el 99% de los monitores vendidos se conectan usando una interfaz
VGA. Esta tecnología representa el estándar mínimo para la conexión de una pantalla de PC.
Hoy día el VGA representa un impedimento para las tecnologías de pantalla plana debido al
incremento de costo al tener que dar soporte a la interfaz analógica. Otro hecho fundamental
es la degradación de la calidad de la imagen producida al convertir señales digitales a seña-
les analógicas.
En otoño de 1998 se formó el grupo de trabajo sobre pantallas digitales (DDWG, Digital
Display Working Group), incluyendo a lideres de la industria como Intel, Compaq, Fujitsu,
Hewlett-Packard, IBM, NEC y Silicon Image, con el objetivo de crear una especificación re-
lativa a la conexión entre pantallas digitales y ordenadores de alto rendimiento, la cual fue
aprobada en su primera versión en la primavera de 1999 y denominada DVI (Digital Visual
Interface), basado en el protocolo de señal digital de Silicon Image conocido como TMDS
(Transition Minimised Differential Signaling). A pesar de que los principales beneficiados de
esta tecnología son los monitores planos, los CRT tradicionales pueden beneficiarse de ella
mediante la recepción de señales digitales desde los controladores gráficos y realizando la
conversión a señal analógica dentro del propio monitor.
– Pantallas de cristal líquido (LCD: Liquid Crystal Display): estos visualizadores cons-
tan de una serie de pequeños elementos cuya agrupación delimita caracteres, números o
signos especiales. En general se forman a partir de 7 elementos dispuestos en forma de
dos cuadrados situados uno encima de otro y con el elemento central común para los dos
cuadrados. Los elementos están compuestos por un líquido especial anisótropo que adopta
transparencia u opacidad en función de que lo atraviese o no un campo eléctrico. Las pan-

102 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

tallas LCD tienen la ventaja de ser prácticamente planas, por tanto idóneas para equipos
portátiles. Aunque su coste es menor que el de las pantallas CRT, su calidad también es
menor y el refresco de pantalla es más lento. Las pantallas de cristal líquido no generan luz,
por lo que necesitan otras fuentes de luminosidad para su correcta visualización.
Existen dos tipos de matrices de puntos:
• Matriz activa de puntos (TFT: Think Film Transistor): en la que cada píxel está go-
bernado por un diodo, es decir, una pantalla VGA estándar requiere 921.600 diodos.
Dichos diodos están dispuestos de tal forma que cuando uno de ellos resulta dañado
deja inoperativo todo el sistema de vídeo.
• Matriz pasiva de puntos (DSTN: Double SuperTwist Neumatic): un diodo gobierna
cada fila y otro cada columna. Esta tecnología reduce mucho su complejidad tecnológi-
ca y minimiza el impacto de la rotura de uno de los diodos.
Los modelos con matriz activa ofrecen mejor calidad que los modelos con matriz pasiva,
aunque su precio es muy superior. Las pantallas DSTN sólo se ven bien si el usuario se sitúa
en posición perpendicular a la pantalla, por lo que son ideales para ser empleadas por un
único usuario, mientras que las pantallas TFT se ven bien desde ángulos mucho mayores,
siendo más adecuadas para realizar presentaciones.
– Pantallas táctiles: pueden estar construidas con tecnología CRT o LCD. Son pantallas que
pueden detectar las coordenadas (x,y) de la zona de la propia pantalla donde se aplica una
presión; la pantalla puede contener una red rectangular interna o matriz de hilos conductores
muy finos, donde al presionar con los dedos se hace que entren en contacto determinados
hilos, uno x y otro y. El contacto eléctrico producido permite identificar la posición de un
punto presionado. Otras pantallas de menor resolución funcionan a través de células foto-
eléctricas o incluso mediante una rejilla de haces infrarrojos emitidos delante de la pantalla.
Su principal ventaja es que suministran una interfaz más amigable y más simple al usuario,
pero tienen como inconveniente su falta de precisión al intentar seleccionar una opción entre
varias contiguas.
– Pantallas planas (FST: Flat Square Tube): las pantallas planas mejoran el diseño debido
a que poseen una mayor área de visualización y esquinas casi cuadradas. El diseño menos
esférico de la superficie de la pantalla provoca un control más difícil de la geometría y el foco
de la imagen. Esto es debido principalmente a que en el centro de la pantalla el camino del
rayo es más corto que en los extremos y tiende a concentrarse la energía. Los monitores mo-
dernos utilizan microprocesadores que aplican técnicas de foco dinámico para compensar la
forma plana de la pantalla.

2.2.3. Modos de vídeo


El monitor puede presentar la información de diferentes maneras, que vienen definidas por dos
formatos principalmente: modo texto y modo gráfico.
En modo texto (a veces llamado modo carácter), la pantalla se divide en celdas formadas por la
intersección de 80 columnas y 25 filas. Cada celda almacena un carácter. En modo texto se puede
trabajar tanto en monocromo como en color; si se trabaja en color, el carácter puede tener uno de 16
colores posibles. La mayoría de los programas para DOS (y el propio DOS) trabajan en modo texto.
En modo gráfico la pantalla también se divide en columnas y filas, pero ahora se maneja mucha
más información al ser la matriz mucho más grande (un ejemplo típico es 640x480), y permitiendo
representar la información visual de una forma mucho más nítida. El resultado de la intersección entre
filas y columnas no se denomina celdas, sino píxeles o puntos individuales, cuyo número (resolución)
depende del estándar de vídeo instalado en el ordenador.
El modo texto siempre tiene la resolución de 80 columnas x 25 filas, mientras que en modo grá-
fico existen diferentes resoluciones según el estándar de vídeo del ordenador. Frente a los 16 colores
del modo texto, los píxeles del modo gráfico pueden tener uno entre millones de colores distintos.
El ejemplo más evidente del modo gráfico es el entorno Windows y todas las aplicaciones que se
ejecutan sobre este sistema.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 103


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

Existen ordenadores con sistemas de vídeo que sólo pueden trabajar en modo texto. Sin embargo
los sistema en modo gráfico permiten trabajar de ambas formas: gráficos o texto. A su vez los siste-
mas gráficos se dividen en diferentes estándares:
(ver tabla en la página siguiente)
ESTÁNDAR RESOLUCIÓN MÁX. COLORES
MDA (Monochrome Display Adapter) 720 x 350 Monocromo
CGA (Color Graphics Adapter) 640 x 200 4
EGA (Enhanced Graphics Adapter) 640 x 350 16
MCGA (Multicolor Graphics Array) 320 x 200 256
720 x 400 (texto) 16
VGA (Video Graphics Array)
640 x 480 (gráfico) 16
256
8514/A 1024 x 768
(En monocromo 64 tonos grises)
XGA (Extended Graphics Array) 1024 x 768 65.000
SVGA (Super VGA) 800 x 600 16 millones
SXGA (Super XGA) 1280 x 1024 Color real
UXGA (Ultra XGA) 1600 x 1200 Color real

A partir del sistema VGA, todos los sistemas soportan los modos de vídeo de sus predecesores (además del propio). Este fenó-
meno se denomina “compatibilidad hacia atrás”. Los colores se eligen de un conjunto mayor denominado paleta

2.2.4. Controlador de vídeo


Dispositivo que contienen la circuitería necesaria para leer el contenido de la memoria, y a partir
de esta información regular la visualización en pantalla. Es decir, el objetivo principal del controlador
de vídeo es traducir la corriente de bits que recibe de la memoria en señales para el haz de electro-
nes.
Físicamente el controlador o tarjeta de vídeo es un circuito electrónico que se conecta a la placa
base del ordenador en una de las ranuras de expansión. En otros casos puede estar integrado en la
propia placa base.
Uno de los factores más importantes en el diseño de tarjetas gráficas es el tipo de chip que
incorporan para gestionar los datos. En general, las tarjetas gráficas utilizan uno de estos tres tipos
de chip: buffer de fotogramas, acelerador o coprocesador. Para la mayoría de las necesidades del
usuario las tarjetas aceleradoras es la opción más adecuada.
Un buffer de fotogramas, que es el diseño de chip más antiguo y sencillo, requiere que la unidad
central de proceso del ordenador calcule los datos de cada punto en la pantalla y que envíe dichos
datos a la tarjeta gráfica. Los buffers de fotogramas son más lentos que los aceleradores y los copro-
cesadores, aunque ofrecen buenas prestaciones para aplicaciones gráficas basadas en DOS.
Los chips aceleradores son procesadores no programables que toman el control del proceso grá-
fico. Los aceleradores pueden procesar información gráfica más rápidamente que la unidad central
de proceso, permitiendo que el procesador maneje menos información y reduciendo el tiempo de
transferencia de los datos desde la unidad central de proceso a la tarjeta gráfica. Son la opción más
adecuada para el sistema operativo Windows.
Los coprocesadores ofrecen un planteamiento más flexible ya que son programables. Un copro-
cesador acepta un flujo de comandos de la unidad central de proceso del ordenador y asume gran
parte de la carga del proceso gráfico. Representan la opción idónea para manejar gráficos a gran
resolución y con una gran paleta de colores.
Los terminales de más altas prestaciones deberían contar con aceleradores de vídeo. Éstos
realizan un proceso local que posibilita mayor rapidez de actualización de imágenes en pantalla. Un
ejemplo típico es el modelado de sólidos en tres dimensiones (3D) en tiempo real. Las principales
características que definen a estos aceleradores son su velocidad de cálculo, resolución y precio.

104 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

Lo deben soportar los mismos modos de vídeo que el monitor para que estén coordinados y se
pueda trabajar a una resolución igual que la máxima aceptada por el monitor. La llamada memoria de
vídeo almacena la información que se visualiza en pantalla, ya que el monitor es un periférico de los
denominados mapeados por memoria. El procesador escribe en una zona determinada de memo-
ria, que lee el controlador enviando las señales correspondientes a la pantalla.
La cantidad de memoria de vídeo necesaria depende de la resolución y del número de colores.
Para determinarla hay que multiplicar el número de bytes por píxel por el número total de píxeles de
resolución.
Características más importantes de la tarjeta gráfica:
– Resolución: número máximo de píxeles que puede visualizar.
– Número de colores: colores que puede mostrar simultáneamente.
– Velocidad: factor importante ya que el sistema gráfico es uno de los más importantes y de los
que pueden llegar a ralentizar mucho un sistema. Una opción para acelerar el sistema gráfico
son las tarjetas aceleradoras que incorporan o un chip acelerador o un procesador propio.
– Memoria: fundamental para el manejo de grandes resoluciones, con muchos colores y si
interesa ganar velocidad. Generalmente está formada por chips de VRAM.
– Drivers: elemento software que comunica la tarjeta con el sistema operativo.

2.2.5. Memoria de vídeo


Cuando el ordenador necesita representar algo en pantalla, sigue un proceso que comienza por
la transferencia de la información a visualizar a la memoria de vídeo. Esta memoria sólo se escribe
cuando es necesario cambiar la información que se está mostrando.
La circuitería electrónica del controlador de vídeo lee periódicamente esta memoria y visualiza
una nueva imagen en la pantalla que refleja su contenido. Cuando se modifica la información de la
memoria, los cambios aparecen en pantalla casi instantáneamente.
En las pantallas de caracteres, cada posición delimitada en la pantalla contiene un carácter de
entre los que existen en el juego de caracteres predefinido. Por tanto, para representar un carácter
necesitamos dos octetos de memoria: uno para contener el dato del carácter, y el otro para que con-
tenga los atributos de pantalla (vídeo inverso, subrayado, color, alta intensidad, etc.). En una pantalla
cuyas dimensiones sean de 80 columnas por 25 filas, es decir 2.000 caracteres, la información
ocuparía 4 KB de memoria.
En las pantallas gráficas, los gráficos y caracteres se componen a través de la matriz de pun-
tos que conforman la pantalla. Supongamos una matriz de 1024x768, es decir, 786.432 píxeles;
suponiendo que la pantalla puede manejar 8 colores, necesitarán 3 bits para cada píxel, es decir
2.359.296 bits, más de 2 Mb de memoria de vídeo para almacenar esa información. En definitiva,
las pantallas gráficas tienen unos requisitos más exigentes en cuanto a memoria de vídeo que los
terminales de caracteres.
El nivel de resolución máximo alcanzado por el sistema gráfico está asociado tanto al rango de
frecuencias de barrido vertical del monitor como a la cantidad de memoria disponible en la tarjeta
gráfica. La memoria que se utiliza puede ser de dos tipos:
– DRAM (Dinamyc Random Access Memory): la memoria DRAM sólo tiene un canal de
distribución a través del cual envía y recibe los datos. La memoria DRAM es válida para re-
soluciones y paleta de colores de rango medio (800x600 puntos y 256 colores).
– VRAM (Video Random Access Memory): dispone de dos canales de distribución que per-
miten recibir y enviar información simultáneamente, lo que mejora el rendimiento. Para
resoluciones o paletas de colores mayores la memoria VRAM es la solución más adecuada.

2.3. TERMINALES X
Son puestos de trabajo que soportan el producto XWindow; suministran una interfaz amigable a
los usuarios mediante ventanas y ratón, y actúan como intermediarios entre la aplicación y el sistema

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 105


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

de presentación. Los terminales X también podrían ser estaciones de trabajo o PCs. La comunicación
entre el terminal X y el procesador correspondiente en un sistema XWindow se define en el protocolo
estandarizado X.11. El juego de librerías que utiliza, también estandarizadas, son conocidas como
XLib.
El sistema X comenzó a desarrollarse para UNIX pero hoy en día existe para otros sistemas: VMS,
DOS, MVS, Ultrix, etc. El sistema X es también abierto, portable e independiente del equipo físico. Los
terminales X se desarrollaron para uso profesional y técnico (segmento medio), en actividades como
la ingeniería, donde se necesitaban altas prestaciones en cuanto a resolución y colores. La generali-
zación del uso de terminales X, debido a su estandarización, ha llevado a sustituir muchos terminales,
incluso los terminales ASCII, que corresponden a los de prestaciones más bajas.
El siguiente es un cuadro comparativo de los distintos segmentos de usuarios y los requisitos
para los terminales X correspondientes:

SEGMENTO
REQUISITOS
DE MERCADO
Pantalla 17-19 pulgadas
Resolución 1280x1024 o mayor
Alto
Hasta 16 millones de colores
16 MB de RAM o más
Pantalla 16-19 pulgadas
Resolución 1152x900 a 1280x1024
Medio
256 colores
8-16 MB de RAM
Pantalla 14-19 pulgadas
Resolución 1024x768 a 1152x900
Bajo
Monocromo, escala de grises o 16-256 colores
Menos de 8 MB de RAM
Resolución 1024x768
Terminales ASCII
Sustitución
Monocromo
Menos de 4 MB de RAM

Los Terminales X multimedia suponen un híbrido de dos tecnologías: multimedia y terminales X,


y se consideran la evolución de estos últimos. Permiten la utilización de datos, imágenes y sonido.
Estas posibilidades facilitan el desarrollo de nuevas aplicaciones: teleconferencia (muy útil para co-
nectar usuarios repartidos en varios edificios), captura, almacenamiento y manejo de documentos
leídos por medio de un escáner, etc.
Los inconvenientes que actualmente tienen los terminales X multimedia son:
– Tiempo de respuesta en red más lento que los PCs.
– Pequeña base de terminales X multimedia instalados.
– Alto precio.
– No existen estándares de audio y el vídeo está en fase experimental.
– La sincronización de audio, vídeo, animación, etc., es un problema a la hora de distribuir
información multimedia. A grandes distancias, y conectados con topologías desconocidas, la
probabilidad de que los datos se desliguen y vayan por caminos diferentes es elevada.

106 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

2.4. ERGONOMÍA Y SEGURIDAD


En los últimos años se han llevado a cabo investigaciones en busca de terminales que resuelvan
problemas más específicos: terminales más ergonómicos, pantallas de bajo nivel de radiación (eco-
lógicos, etc.).
Las TCO92 son un conjunto de normas que se dictaron con el objetivo de lograr que los fabrican-
tes redujeran en sus monitores los niveles de emisión eléctrica y magnética, así como disminuir el
consumo de energía. Las TCO95 abarcan un mayor campo, no sólo de regulación de emisiones, sino
también de aspectos medioambientales como la no utilización de CFC y HCFC, el uso de plásticos
biodegradables o la prohibición del uso del cadmio; a la vez que mejora el sistema de ahorro de ener-
gía. Se ha convertido en el primer esquema a nivel mundial que trata el problema medioambiental
en su conjunto.
TCO99 no cambia los niveles de emisión respecto de TCO95, pero define nuevos procedimientos
de comprobación de estos niveles. La nueva especificación se centra en aspectos ergonómicos, inclu-
yendo mejoras en la uniformidad, luminiscencia y contraste. También define los requerimientos que
deben estar presentes en los sistemas de temperatura de color, en caso de que existan.
Para reducir la fatiga de imagen, TCO99 fija el refresco mínimo en 85 MHz para pantallas de me-
nos de 20 pulgadas (100 MHz recomendados) y un mínimo de 75 MHz para pantallas de 20 pulgadas
o mayores. El ahorro de energía en TCO99 es casi un 50% más que en TCO95, con un consumo
máximo de 15 W y una reactivación en 3 segundos para monitores USB y 5 W para monitores que
no sean USB.
TCO define la obligación de tratar las pantallas con una capa de material conductivo que reduzca
la carga estática de la misma, aunque no se ha demostrado que esta carga sea perjudicial para la
salud. El precio de las pantallas que cumplen las normativas TCO es más elevado, debido a que el
fabricante se ve obligado a utilizar componentes de mayores prestaciones y por supuesto más respe-
tuosos con el medio ambiente y con la salud.
En 1993 VESA inició el estándar DPMS (Display Power Management Signalling). Una tarjeta
gráfica que cumpla este estándar debe hacer posible controlar el monitor para establecer cuatro es-
tados: activo, apagado, suspendido y en reserva. El modo de suspensión debe hacer que el monitor
consuma menos de 8 W, mientras que en el modo de reserva debe consumir por debajo de 25 W.
VESA también ha realizado varios estándares para monitores Plug and Play, conocidos bajo el
nombre de DDC (Display Data Channel), los cuales permiten al sistema seleccionar de forma auto-
mática los mejores parámetros para el monitor. En la práctica no resulta demasiado operativo ya que
estos parámetros dependen muchas veces del hardware del controlador gráfico.
Otro estándar obligatorio en Estados Unidos y ampliamente adoptado en Europa es EPA Energy
Star. Su objetivo es el ahorro de energía. Requiere la existencia de un modo de ahorro de energía
que consuma por debajo de 30 W. Este estándar se inició en 1993 y fue realmente adoptado en
1995, cuando el gobierno USA adoptó la norma de admitir sólo monitores que cumpliesen esta es-
pecificación.
A pesar de que la calidad del monitor y la tarjeta gráfica son importantes, es de vital importancia
para usuarios que pasan largos periodos de tiempo frente a una pantalla, la posición que adopten
ante ésta. Aunque previamente se creía que el centro del monitor debía situarse al nivel de los ojos,
en la actualidad se acepta de forma general que el borde superior de la pantalla es el que debe situar-
se a la altura de los ojos, con la pantalla inclinada entre 0 y 30 grados respecto a la horizontal.

3. EL TECLADO

3.1. CONCEPTOS Y FUNCIONAMIENTO


Un teclado es un periférico de entrada para introducir datos en el sistema de manera interactiva.
La circuitería del teclado envía las pulsaciones al ordenador, individualmente o bien agrupándolas en
paquetes. Los teclados presentan otras funciones adicionales como buffering de pulsaciones, repe-
tición de tecla, etc.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 107


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

La tecnología de los teclados está basada en una matriz de interruptores, mecánicos (teclados
mecánicos) o electrónicos (teclados de membrana).
Cuando se pulsa una tecla se envía una señal digital al ordenador. Cada tecla y ciertas combina-
ciones de dos o más teclas generan una única señal digital.
Cuando se presiona una tecla, se cierra un circuito eléctrico que es detectado por un pequeño
chip incluido en el teclado, llamado controlador del teclado. Este chip genera un código en una me-
moria temporal del teclado, que identifica qué tecla o combinación de ellas fue pulsada. El controla-
dor envía una petición de interrupción a la CPU y, cuando ésta la acepta, se transmiten los códigos
del teclado a la CPU para su análisis.
El tipo estándar de teclado es el QWERTY, llamado así por la disposición de las primeras teclas
en la parte superior izquierda. La disposición de teclas QWERTY no es óptima ya que fue diseñado en
el siglo pasado para dar respuesta a los requisitos técnicos de las máquinas de escribir de la época.
Aunque existen disposiciones más optimizadas, QWERTY ha quedado ya como un estándar. Otro tipo
de teclado es el AZERTY, mucho menos utilizado.
El teclado más usual es el extendido, que consta de 101/102 teclas, incluyendo las teclas de funcio-
nes, las cuales son programables y desencadenan una serie de acciones programadas previamente.

3.2. DISPOSICIÓN Y FUNCIONES DE LAS TECLAS


Atendiendo a la disposición de las teclas, encontramos cuatro grupos de éstas:
– Teclado principal, alfanumérico o de escritura general.
– Teclas de función.
– Teclas de movimiento.
– Teclado numérico independiente.
En el centro y ocupando la mayor parte del teclado están las teclas de escritura general. La
disposición de las letras es totalmente idéntica a la de una máquina de escribir, siguiendo la estruc-
tura QWERTY, ya comentada.

  
  

En los teclados hay 12 teclas de función que se sitúan horizontalmente encima de las teclas
de escritura general. La teclas de función se nombran desde F1 hasta F12, y se utilizan dentro de los
programas para activar operaciones especiales. Por ejemplo, en la mayoría de los programas la tecla
F1 visualiza en pantalla un mensaje de ayuda.
 


108 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

El teclado numérico independiente se encuentra localizado a la derecha del teclado. Este te-
clado cumple dos funciones que dependen del estado de una tecla llamada BloqNum, situada en la
esquina superior izquierda del propio teclado numérico.
Si la tecla BloqNum está activa, entonces el teclado es similar al de una calculadora y se ge-
neran los números indicados en las teclas. Pero si la tecla BloqNum está desactivada, entonces las
teclas generan movimientos del cursor.
NOTA: es habitual que las teclas correspondientes a los dígitos decimales,
signos de operaciones básicos y punto decimal estén repetidas para facilitar su
introducción.
 





   

Un usuario de ordenador tiene que aprender a utilizar el teclado. Existen teclas especiales que
se deben conocer desde el primer momento, antes de realizar cualquier operación. A continuación se
explica el significado de estas teclas especiales:
– Intro: la tecla Intro, conocida en inglés como Return o Enter, es una de las teclas más im-
portantes. Está señalada en el teclado mediante una flecha hacia la izquierda que forma un
ángulo recto de 90º. En el sistema operativo DOS sirve para indicar el final de una orden o
comando. Todas las órdenes del DOS tienen que terminar siempre pulsando la tecla Intro.
En los editores y procesadores de texto la tecla Intro se utiliza para indicar el final de línea y
pasar a la siguiente línea de texto.
– Retroceso: está situada encima de la tecla Intro, representándose por una flecha hacia la
izquierda. Se utiliza para borrar caracteres, más exactamente, para borrar el carácter situado
a la izquierda del cursor.
NOTA: cuando se utiliza un teclado, por ejemplo con un procesador de textos,
las pulsaciones que realiza el usuario se traducen en la aparición de letras, nú-
meros y caracteres en pantalla. Estos caracteres se visualizan en la posición que
señala un indicador denominado cursor, que suele tomar la forma de una pequeña
barra vertical intermitente.
– Esc: la tecla Esc está situada en solitario en la esquina superior izquierda del teclado. Se
utiliza frecuentemente en los programas de aplicación basados en ventanas para cerrar la
ventana activa y volver al estado anterior.
– Ctrl: la tecla Ctrl (Control) es una tecla que por sí misma no tiene ningún significado, utili-
zándose siempre en combinación con otra tecla.
– Alt: similar a la tecla Ctrl, pues sólo se puede utilizar en conjunción con otras teclas. Utili-
zando la tecla Alt seguida de un número se puede generar cualquiera de los 256 caracteres
del código ASCII que reconoce ordenador.
– BloqNum: las teclas del teclado numérico pueden funcionar como teclas de movimiento del
cursor o como teclas de los números, que sirvan para una cosa u otra depende del estado
de esta tecla.
– Mayúsculas: las dos teclas Mayúsculas, representadas por dos flechas anchas apuntando
hacia arriba, están localizadas a la derecha e izquierda del teclado de escritura general. Igual
que en las máquinas de escribir, sirven para generar letras mayúsculas.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 109


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

– BloqMayús: localizada en el extremo izquierdo del teclado, encima de la tecla Mayúsculas,


es un conmutador que cambia entre activado y desactivado. Cada vez que se pulsa BloqMa-
yús se pasa al estado contrario. Si BloqMayús está activada entonces se generarán las letras
en mayúsculas sin necesidad de utilizar la tecla Mayúsculas para cada letra.
– AltGr: situada inmediatamente a la derecha de la barra espaciadora, sirve para generar el
tercer carácter en las teclas que tienen marcados tres de ellos.
– ImprPant: esta tecla (Imprimir Pantalla) vuelca en la impresora el contenido de la pantalla
(en algunos antiguos sistemas operativos como MSDOS) o envía al portapapeles de Windo-
ws una captura de la pantalla en el estado en el que ésta se encuentre en el momento de
pulsar la tecla.
– Insert: la tecla Insert (o Ins), en el bloque de teclas de movimiento, conmuta entre el modo
sustitución y el modo inserción. En modo sustitución cada vez que se pulsa una tecla se ma-
chacan los anteriores caracteres existentes. Es decir, si el cursor está situado sobre un carácter
(por ejemplo, “A”) y se pulsa una tecla (por ejemplo, “B”), se elimina el carácter “A” escribién-
dose en esa posición el carácter “B” y el cursor avanza una posición hacia la derecha.
Por el contrario, en el modo inserción cuando se escribe un carácter no se reemplaza el
carácter situado encima del cursor, sino que todos los caracteres a la derecha del cursor se
desplazan una posición a la derecha dejando un hueco libre para el nuevo carácter.
– Supr: localizada en el teclado numérico independiente. Cuando BloqNum no está activa, la
tecla Supr borra el carácter situado encima del cursor. Es importante distinguir entre Supr y
Retroceso; Supr borra el carácter encima del cursor y Retroceso borra el carácter a la izquier-
da del cursor.
– Inicio: se utiliza para mover el cursor al principio de la fila: al primer carácter de la fila activa.
– Fin: la tecla Fin realiza la función contraria de Inicio, desplazando el cursor al último carácter
de la fila activa.
– RePág: sirve para retroceder una página el contenido del texto mostrado en pantalla.
– AvPág: avanza una página el contenido del texto mostrado en pantalla. En algunos programas
es el contenido de una pantalla lo que se avanza o retrasa, cuando se hace AvPág o RePág.
– Ctrl-Alt-Supr: al pulsar a la vez estas tres teclas se reinicializa el ordenador. El ordenador se
puede reinicializar de dos formas diferentes:
• La inicialización en frío se produce al encender el ordenador mediante el botón que da
paso a la corriente eléctrica o al pulsar la tecla RESET que aparece en la unidad central
de muchos ordenadores. Cuando se provoca una inicialización en frío, el ordenador
realiza un chequeo de los dispositivos para confirmar que están conectados adecuada-
mente, comprueba toda la memoria RAM del sistema y carga el sistema operativo.
• Por el contrario, la inicialización en caliente carga directamente el sistema operativo sin
realizar ninguna comprobación de los dispositivos ni de la memoria. La inicialización en
caliente es un proceso más rápido que la inicialización en frío.
 





  

    

   

110 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

4. DISPOSITIVOS APUNTADORES

4.1. RATÓN
Es el dispositivo apuntador más extendido y estandarizado. Consta de una pequeña cajita plás-
tica con 2 o 3 botones por encima y una bola que gira por debajo. Los movimientos que se hagan
desplazando este dispositivo harán rodar la bola, y se traducirán en movimientos en la pantalla del
ordenador. Al moverse la bola por acción de la mano, hace que se muevan dos rodillos en posiciones
perpendiculares entre sí, que detectan los movimientos en el eje X y en el eje Y, respectivamente.
Existen otros ratones con tecnología óptica, más caros y más precisos. Su funcionamiento es
similar. Tienen debajo un haz de luz en vez de una bola y es obligatorio moverlo encima de una alfom-
brilla metálica con unas rayas horizontales y verticales, formando una cuadrícula. Al moverse por esta
alfombrilla la luz detecta el paso de estas rayas y lo traduce en movimientos del cursor, dependiendo
de si pasan rayas horizontales, verticales o ambas.

4.2. TRACKBALL
Usa la misma tecnología que el ratón. Es prácticamente igual que un ratón invertido, en el que
no hay que mover el aparato entero, sino mover con la mano directamente la bola. Es más exacto, ya
que se tiene más precisión moviendo el dedo pulgar. No cogen polvo y es muy útil en espacios donde
no haya una mesa libre. Por eso se usa en ordenadores portátiles.
Existe también una versión óptica. Se basa en la detección del movimiento de la bola por ele-
mentos optoelectrónicos. La bola es de color rojo con puntos negros de diverso tamaño. La bola se
ilumina por unos LEDs, y un sensor registra los movimientos sin necesidad de contacto directo.

4.3. LÁPIZ ÓPTICO


Tiene la forma de una pluma o lápiz grueso con uno o varios botones en un lateral, de cuyo
extremo sale un cable que va a la unidad controladora. Para señalar algo en la pantalla basta con
apuntar con el lápiz en ella. En la punta del lápiz hay una pequeña abertura por la que puede pasar
la radiación luminosa de la pantalla, que genera una señal eléctrica que es transmitida a la tarjeta
gráfica si se pulsa el botón.
En el momento de incidir este haz de electrones, justo en el píxel que apunta el lápiz óptico, se
genera un pulso eléctrico, por el que se obtiene el tiempo que ha tardado el haz de electrones en
recorrer desde el primer píxel de la pantalla hasta ese píxel. Sabiendo ese tiempo, la velocidad del haz
de electrones y el orden en recorrer los píxeles, se pueden hallar las coordenadas exactas del píxel
donde estaba situado el lápiz óptico.

4.4. JOYSTICK
Es una palanca que sale, hacia arriba, de una cajita con varios botones. El movimiento de esta
palanca, inclinándola hacia los lados, se traduce en movimiento del cursor. Es un dispositivo ideal
para juegos. A veces, en equipos portátiles, se incorpora un pequeño joystick entre las teclas G, H y
B del teclado.

4.5. PUNTERO TÁCTIL


Este dispositivo también se denomina Track Pad o Point Pad y consiste en una pequeña superfi-
cie de pocos centímetros cuadrados. Para mover el puntero en la pantalla, se deberá deslizar el dedo
sobre una superficie de contacto. Deslizando el dedo hacia un sentido, el puntero se moverá de igual

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 111


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

forma. Para hacer clic puede que existan unos botones, o también es posible dar un ligero golpecito
sobre la superficie de contacto. No le afecta ni el polvo de la mesa, ni la humedad.

4.6. TABLETAS DIGITALIZADORAS


Constan de una superficie especial con marcas por la que se mueve un ratón muy sensible.
Para poder apuntar exactamente a un punto determinado, el ratón suele incorporar una pequeña
regla, con una cruz que indica el lugar exacto que está siendo apuntado. Esto permite una precisión
excelente, por lo que se usa sobre todo en aplicaciones de diseño industrial (CAD), para transferir al
ordenador gráficos, figuras, planos, mapas, etc. A veces se sustituye este ratón por un lápiz con el
que señalar en la tableta gráfica.
Encima del tablero se coloca el plano o dibujo, y con el puntero se pasará manualmente por el
dibujo, como si estuviera calcando. Automáticamente se van transfiriendo las coordenadas (x,y) de
los puntos por los que pasa el puntero, quedando registrados en el ordenador.

5. ESCÁNERES

5.1. PRINCIPIOS Y FUNCIONAMIENTO


Dispositivo diseñado para digitalizar textos, dibujos, gráficos, fotografías, etc. La digitalización de
imágenes crea ficheros de datos digitales de materiales impresos ya existentes.
Su funcionamiento está basado en el principio de absorción de luz por el color negro y de re-
flexión por el color blanco. Cualquier color intermedio refleja un porcentaje de luz según sus valores de
densidad de gris o de color. Una vez que el documento es situado en el escáner, se ilumina por una
lámpara fluorescente de alta intensidad y se mide el porcentaje de luz reflejada por el documento me-
diante una fotocélula. El resto de tonos de gris, como el resto de colores, generan valores intermedios
de carga. El escáner a través del CCD traslada estos niveles de carga a una trama digital de bits.

5.2. TIPOS
Se distinguen los siguientes tipos de escáneres:
Por la tecnología electromecánica empleada:
– De mano: los escáneres manuales permiten un área de registro pequeña. Como su propio
nombre indica se controlan con la mano, haciéndolo desplazar a lo largo de la imagen que
se desea digitalizar.
Los primeros modelos tenían muy poca resolución, lo que les hizo ganarse fama de juguetes
u orientados a la informática doméstica. Actualmente existen modelos de 400 dpi (dots per
inch) y 16,7 millones de colores; además, mediante equipo lógico, algunos modelos permi-
ten digitalizar imágenes de tamaño muy superior al área de registro físico.
– De sobremesa: consisten en un carro plano de cristal sobre el que se coloca el documento
a digitalizar. Tienen una tapa que los protege de luz y polvo, y unos diodos insertados en
una ranura debajo del carro son los encargados de capturar la imagen. Lo normal es que se
desplace el carro pero en algunos modelos puede que lo que se desplace sean las lámparas.
Estas tienen una vida útil limitada. En el caso de escáneres de color, estos incorporan tres
lentes de los tres colores fundamentales del método aditivo (RGB: rojo, verde y azul). Pueden
ser de blanco y negro o color y con resoluciones de hasta 2400 dpi. En la actualidad son los
más extendidos y pueden ser de dos tipos:
• Flatbed o de lecho estable: el documento original permanece inmóvil mientras su
superficie es barrida por el haz proveniente de la fuente luminosa que se va desplazando
paulatinamente. La calidad de la imagen digitalizada suele ser elevada.

112 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

• De hoja deslizante: el desplazamiento relativo entre la fuente luminosa y el original se


realiza ahora por deslizamiento de este ultimo. La calidad de la imagen digitalizada es
menor que en el caso anterior.
– De cámara: consisten en una base con carro desplazable (aunque hay modelos de carro
fijo) y un brazo desde el que pende un objetivo de buena calidad. Este objetivo, idéntico a
los utilizados en fotografía, sustituye a los diodos usados en los escáneres más populares
de sobremesa. Alcanzan una resolución de hasta 1000 dpi y pueden trabajar tanto en color
como en blanco y negro.
Su ventaja sobre los modelos de sobremesa o manuales es la posibilidad de digitalizar cual-
quier tipo de imagen, no teniendo que ser plano como una fotografía y permitiendo captar
objetos reales en tres dimensiones. Su difusión es escasa.
– De tambor: consisten en un rollo giratorio de tamaño intercambiable sobre el que se co-
locan diapositivas y opacos. El rodillo comienza a girar muy lentamente mientras un haz de
emisiones láser va barriendo la zona seleccionada y se va transcribiendo directamente la
imagen en las tramas de los cuatro colores (magenta, amarillo, cian y negro).
Son los más sofisticados y costosos. Han sido diseñados específicamente para el mundo
de las artes gráficas profesionales. Se encuentran en las empresas de fotomecánica, donde
han sustituido a las cámaras de fotomecánica para la generación de los fotolitos en alta
calidad y las pruebas de color.
Por la tecnología de digitalización empleada:
– Binarios: son digitalizadores monocromáticos (blanco y negro); codifican cada píxel de la
imagen original en un solo bit, almacenando el valor 0 o 1. Los primeros escáneres que apa-
recieron en el mercado pertenecen a este tipo. El escáner determina esto leyendo el nivel
de energía del CCD cuando pasa sobre el área cubierta por el píxel. Si el nivel de energía
devuelto es lo bastante alto se registra como blanco, de lo contrario se registra como negro.
Puede ajustarse el punto en que cambia el color del píxel, conocido como umbral.
Los primeros escáneres que aparecieron en el mercado pertenecen a este tipo. Su campo de
aplicación excluye la digitalización de imágenes en escala de grises o en color; son adecua-
dos para imágenes en blanco y negro y en especial para las aplicaciones de reconocimiento
óptico de caracteres (OCR).
– Escala de grises: la señal analógica que proviene del CCD se codifica en más de un bit,
habitualmente en 4, 6 u 8 bits, permitiendo respectivamente escalas de grises con 16, 64
o 256 tonalidades diferentes. Su campo de aplicación principal es la digitalización de imá-
genes fotográficas o de otros tipos con abundancia de grises.
– Multiespectrales (RGB, etc.): escáner de imágenes multibanda o color. El color es un caso
particular dentro de la multibanda. Utilizan el mismo principio que los escáneres de escala de
grises, asignando tres bytes a cada píxel. Cada píxel se rastrea con los filtros correspondien-
tes para obtener 16,7 millones de combinaciones de colores, lo que proporciona sensación
de fotorrealismo.

5.3. RECONOCIMIENTO ÓPTICO DE CARACTERES


El reconocimiento óptico de caracteres permite la introducción rápida de textos en un ordenador
para el proceso electrónico de documentos, gracias a la combinación del uso de un escáner y una
aplicación OCR. El escáner permite obtener una imagen gráfica del texto procesable por medios elec-
trónicos, y el OCR se encarga de la conversión de la imagen a texto.
La utilidad de estos sistemas es clara cuando se tiene la necesidad de modificar documentos que
no han sido procesados de forma automática. En estos casos, en lugar de teclear todo el documento
podría utilizarse un reconocedor. Más importante aún es el caso del proceso de formularios, encues-
tas, impresos con formatos predefinidos, etc. En estos casos, en lugar de recurrir a un grabador que
se encargue de introducir y procesar los datos corregidos, se automatiza el proceso mediante el uso
de un OCR.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 113


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

Esta técnica se ve complementada con los ICR (Inteligent Character Recognition), es decir, pro-
cesos software destinados a eliminar y procesar los caracteres individuales dándoles aspecto de
párrafos o páginas colectivas.
Actualmente los sistemas de reconocimiento óptico de caracteres son capaces de leer y reco-
nocer textos manuscritos o escritos a máquina, de imprenta o de impresora, convirtiéndolos en texto
ASCII, editable por el usuario con cualquier programa de tratamiento de textos convencional. En
teoría, un buen OCR es capaz de leer texto de imprenta en varios tipos de letra, en distintos formatos
(columnas, cuadros, etc.) y con caracteres especiales (acentos, signos, ortográficos, etc.). Hasta
hace relativamente poco tiempo, los OCR eran muy imprecisos y propensos a múltiples errores. En
estos momentos se emplean sistemas inteligentes que, con aprendizaje interactivo o con ayuda del
usuario, consultan diccionarios y se corrigen a sí mismos.
Los OCR (Optical Character Recognition) se basan en algoritmos de reconocimiento de patro-
nes provenientes de investigaciones en el campo de la Inteligencia Artificial. Funcionan aislando los
posibles caracteres y comparándolos con los patrones de imagen correspondientes a caracteres
conocidos hasta que encuentren el de mayor parecido, en un proceso parecido al de reconocimiento
de huellas digitales. El tipo de algoritmo que se utiliza es lo que diferencia a unos reconocedores de
otros.

6. DISPOSITIVOS DE AUDIO
La tarjeta de sonido es el dispositivo que procesa la información audible en un ordenador. En este
apartado estudiamos su estructura, funcionamiento y características más importantes.
Desde sus comienzos hasta la actualidad, el PC ha podido generar sonidos de baja calidad me-
diante su altavoz interno. Este altavoz, sin embargo, no es apto para reproducir sonido de alta calidad,
como ocurre por ejemplo en un CD.
La tarjeta de sonido es un dispositivo periférico de entrada/salida que proporciona al PC la capa-
cidad de procesar audio. Hoy en día este elemento es prácticamente imprescindible en un ordenador
personal, dada la cantidad de software que requiere características multimedia; de hecho, algunos
PCs se fabrican con el hardware de audio integrado en la placa base (algo que también ocurre con
las tarjetas de vídeo).
La tarjeta de sonido (o de audio) es un periférico de entrada/salida porque no sólo tiene posibili-
dades de reproducción, sino que sirven también para capturar o grabar información sonora desde el
exterior del PC, ya sea mediante un micrófono o cualquier otra fuente de audio con la interfaz adecua-
da. La tarjeta de sonido puede considerarse como un coprocesador dedicado a gestionar información
de audio, liberando a la CPU de esta tarea.

6.1. FUNCIONES BÁSICAS


La mayoría de tarjetas de sonido implementan cuatro funciones básicas:
– Reproducción: la tarjeta debe ser capaz de reproducir audio, ya sea desde lectores de CD
o DVD, o desde ficheros almacenados, en cuyo caso admitirá diversos formatos de audio
como WAV, MP3 o MID.
– Captura: proceso inverso al anterior, es decir, grabar audio procedente de una fuente exter-
na, incluyendo micrófonos, instrumentos musicales, amplificadores, etc. La información se
almacena generalmente en ficheros que se graban en el disco duro.
– Síntesis: la síntesis de audio es la creación de sonido a partir de especificaciones introduci-
das en un software diseñado para tal efecto. Las dos funciones anteriores se basan en con-
versiones de información digital en analógica y viceversa. La síntesis de audio, sin embargo,
exige capacidad de procesamiento a la tarjeta.
– Procesamiento: esta función es complementaria a las anteriores. Su principal característica
consiste en aplicar la capacidad de procesamiento propio de la tarjeta de sonido, ahorrando
trabajo y dedicación del procesador principal del sistema (CPU). Si las anteriores funciones
fueran realizadas por la CPU, el rendimiento del sistema se vería afectado negativamente.

114 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

Algunas de las posibilidades de las tarjetas de sonido son:


– Reproducir música en diversos formatos.
– Escuchar un CD de audio mientras se trabaja con el PC.
– Procesar la banda sonora de películas en DVD.
– Capturar sonido del exterior del PC.
– Asignar sonidos a los eventos de Windows.
– Escuchar el audio que acompaña a páginas web.
– Disfrutar del chat con voz.
– Componer música con el PC.
– Escuchar los efectos sonoros de los juegos.
– Conectar instrumentos musicales al PC.
– Aprender idiomas con el ordenador.
– Y un largo etcétera que se va ampliando día a día.
Las tarjetas de sonido se dividen en dos tipos:
– Full duplex: con capacidad de reproducir (operación de salida) y capturar (operación de
entrada) señales de audio de forma simultánea.
– Half duplex: sólo pueden realizar una de estas operaciones de forma simultánea.
NOTA: muchas aplicaciones exigen una tarjeta full duplex para su correcto
funcionamiento (por ejemplo las aplicaciones de videoconferencia).

6.2. COMPONENTES FUNDAMENTALES


Existen tres subsistemas fundamentales en cualquier tarjeta de sonido:
– Convertidor analógico/digital (CAD): actúa como interfaz con el exterior del PC para la
entrada de audio. El sonido está formado por ondas de presión (variaciones de presión en
el espacio y en el tiempo). Un transductor primario, que suele ser un micrófono, convierte
las ondas de presión en señales eléctricas. El proceso consiste entonces en convertir una
variación de presión en el tiempo a una variación de tensión en el tiempo.
Una vez en forma de señales eléctricas analógicas, el CAD toma muestras sobre dicha señal
y les asigna valores digitales. Este proceso se denomina digitalización, que hace posible que
pueda ser tratado mediante un procesador.
NOTA: el uso de un micrófono no es imprescindible; cualquier fuente de audio
como un reproductor de cintas o un receptor de radio puede proveer sonido direc-
tamente en forma de señales eléctricas.
– Convertidor digital/analógico (CDA): el CDA realiza el proceso inverso, implementando la
interfaz entre el PC y el mundo exterior para la salida de audio. El CDA toma una secuencia
de datos digitales que transforma en niveles de tensión, creando así una señal eléctrica
analógica. Empleando después un transductor (típicamente unos altavoces o cascos), las
señales eléctricas se convierten en ondas de presión audibles por el ser humano.
– Procesador digital de señales (DSP, Digital Signal Processor): procesador especializado
en el tratamiento de señales digitales. Este tratamiento requiere una elevada capacidad de
cálculo, que no es posible obtener mediante procesadores convencionales. Los DSP son
capaces de realizar millones de operaciones en coma flotante cada segundo.
Sus características son similares a las de un procesador de propósito general pero su arquitec-
tura y la organización de la memoria son diferentes. La principal diferencia consiste en que la unidad
aritmética dispone de procesamiento paralelo y de unidades especializadas (multiplicadores, etc.). El
resultado general es una velocidad de trabajo de 2 a 3 veces mayor.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 115


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

En conclusión, el DSP de la tarjeta de sonido es el centro de tratamiento de audio del PC; por
ejemplo, la aplicación de efectos como los ecos se deben a dicho componente.

6.3. MUESTREO Y CUANTIZACIÓN


La función de adquisición de señales de audio o digitalización se basa en dos procesos funda-
mentales, denominados muestreo y cuantización, íntimamente relacionados con el CAD.
Como fuente de información se tiene una señal eléctrica analógica que contiene la información
de audio a digitalizar. La señal analógica es continua en el dominio del tiempo y de la amplitud (niveles
de tensión). Al ser continua en el tiempo, la señal contiene valores de tensión eléctrica para todos
los posibles instantes de tiempo. Al ser continua en amplitud, la señal puede tomar cualquier nivel de
tensión posible en un intervalo.
El proceso de muestreo se encarga de discretizar el dominio del tiempo. Proceso que consiste
en tomar muestras de la señal analógica en distintos instantes de tiempo. Las muestras se toman en
intervalos de tiempo regulares. Tras el muestreo se obtiene una señal discreta en el tiempo que ya
no presenta valores para todos los posibles instantes, pero que sigue siendo continua en amplitud (la
señal puede tomar cualquier nivel de tensión).





 







 

      

Proceso de muestreo. La línea curva representa la señal analógica a digitalizar. Las x representan las
muestras, tomadas cada 0,3 segundos (es decir, con una frecuencia de muestreo de 1/0,3 Hz)

A continuación, se procede a discretizar el dominio de la amplitud. Para ello, se establece una


serie de niveles de tensión, denominados niveles de cuantización. Para cada muestra de la señal,
el nivel de tensión asociado se aproxima a uno de los niveles de cuantización. El resultado es que los
valores de la señal obtenida pertenecen a un conjunto finito de niveles de tensión.
Por último, se asocia cada nivel de cuantización a un número binario. Por ejemplo, si se trabajara
con 3 bits, se podrían establecer 23 = 8 niveles de cuantización, con los siguientes valores binarios
asociados: 000, 001, 010, 011, ... , 110 y 111.
El proceso de muestreo está determinado por un factor denominado frecuencia de muestreo,
que representa el número de muestras tomadas por segundo (se mide en hercios). El intervalo de
tiempo entre una muestra y la siguiente viene dado por la fórmula 1/Fm (donde Fm es la frecuencia
de muestreo).
La representación digital de la señal será más precisa cuanto mayor sea la frecuencia de mues-
treo. De hecho, si la frecuencia de muestreo fuera demasiado reducida, se perdería información y no
sería posible reconstruir la señal a partir de las muestras digitales.

116 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

La calidad del sonido capturado será mayor cuanto mayor sea la frecuencia de muestreo.



 


 


 



 




  

      

Proceso de cuantización empleando 3 bits. El rango de tensiones disponible (0 a 6 voltios) se


divide en 8 niveles de cuantización. A cada nivel de cuantización se le asocia un número binario
de 3 bits. Las muestras de tensión se asocian a los niveles de cuantización

Por otra parte, el proceso de cuantización queda caracterizado por un factor denominado reso-
lución del CAD: número de bits utilizados para representar cada muestra. Cuanta mayor resolución,
mejor quedará representada la amplitud de la señal, alcanzándose mejor fidelidad. Resoluciones
demasiado pequeñas causan que la señal reconstruida a partir de las muestras esté distorsionada
por la pérdida de información. En contrapartida, mayor resolución requiere mayor espacio de almace-
namiento para información de audio.
En general, una buena captura de audio se basa en encontrar un buen compromiso entre fre-
cuencia de muestreo y resolución, lo que se traducirá en un equilibrio óptimo entre calidad de audio
y espacio de almacenamiento necesario.
EJEMPLO: Capturamos una melodía de 5 minutos seleccionando los siguien-
tes parámetros (adecuada para grabar sonido procedente de un CD-audio):
– Frecuencia de muestreo: 44.100 Hz
– Resolución: 16 bits
– Sonido estéreo (implica capturar sonido de dos canales diferentes)
Se almacenará la siguiente información: 2 canales x 44.100 muestras/s x 16
bits/muestra = 1.411.200 bits por segundo = 172 Kb por segundo, aproximada-
mente. Si el tema musical dura 5 minutos (300 segundos), se almacenarán 300 s
x 172 Kb/s = 51.600 Kb, y por tanto el fichero WAV
Este tamaño de archivo no es excesivo para el almacenamiento en el PC, pero resulta prohibi-
tivo para descargar el fichero a través de Internet. Para reducir el tamaño del fichero, podría utilizar
11.025 Hz, 8 bits y sonido mono (un solo canal), lo cual corresponde a calidad de teléfono. En ese
caso, el fichero ocuparía alrededor de 3 MB, pero la calidad del sonido sería inadecuada.

6.4. LA CONVERSIÓN DIGITAL/ANALÓGICA


El proceso realizado por el CDA es justamente el inverso al que realiza el CAD, como ya hemos
observado. Se parte de muestras en formato binario, y éstas se deben convertir en una señal ana-

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 117


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

lógica (continua en el tiempo y la amplitud). El CDA asocia a cada valor binario un nivel de tensión
previamente establecido, generándolos en intervalos de tiempo constante.
La cuestión a resolver es la siguiente: ¿cómo unir una muestra con la que le sucede? En efecto,
dicha unión es necesaria para hacer que la señal vuelva a ser continua en el tiempo. Existen muchas
técnicas que hacen esto posible. La más sencilla consiste en mantener el nivel de tensión de una
muestra hasta que llegue la siguiente. Otras técnicas más complejas emplean la muestra actual y las
muestras anteriores para predecir la siguiente muestra.
Después de este proceso, la señal aún presenta cierto grado de distorsión. Por ello, se suele
aplicar un proceso de filtrado que suaviza la señal. Si la frecuencia de muestreo y la resolución han
sido apropiadas, la señal resultante será una buena reconstrucción de la señal original.

6.5. SÍNTESIS DE AUDIO


El proceso de creación de información audible recibe el nombre de síntesis de audio. Se trata
de un proceso que requiere capacidad de proceso; el DSP es el elemento clave en dicho proceso,
actuando como sintetizador. Las tres técnicas más extendidas para la generación de sonido son:
– Modulación en frecuencia (FM): la síntesis FM permite generar señales complejas em-
pleando un procesamiento extremadamente simple. Por ello la síntesis FM se encuentra
usualmente en las tarjetas de sonido más económicas. Mediante esta técnica se consigue
simular el sonido de multitud de instrumentos.
– Tablas de onda (Wave table): existe un número de pequeñas capturas de audio tomadas
de instrumentos reales almacenadas en la tarjeta de sonido. Cuando se emula un instru-
mento, se toma la muestra oportuna de la memoria y se reproduce con distintas velocida-
des, obteniendo así las distintas notas musicales. Las tablas de onda constituyen el método
de síntesis de mayor calidad, pero implican un coste considerable.
– Modelado físico (PhM): simula los instrumentos mediante algoritmos de cómputo. Este
método aplica modelos de simulación de las propiedades físicas de los instrumentos. En
concreto, las entidades que se combinan para generar el sonido se denominan excitadores y
resonadores. Los excitadores modelizan la causa que provoca la aparición del sonido. Ejem-
plos son la pulsación de una tecla, golpear un tambor o desviar una cuerda de su posición
de equilibrio. Los resonadores modelizan la respuesta del instrumento ante la excitación apli-
cada, lo que normalmente se traduce en simular la vibración de los componentes físicos del
instrumento. Este método se caracteriza por una elevada carga computacional y por requerir
técnicas adicionales para trabajar en tiempo real.
Un parámetro importante es el número de notas (voces) que pueden sonar simultáneamente.
Cuanto más profesional sea una creación musical, mayor número de voces es necesario. Por ejemplo,
la tarjeta SoundBlaster AWE64 admite 64 voces, mientras que la tarjeta SoundBlaster16 tan sólo
admite 20.
Una buena forma de comprobar la calidad de síntesis de una tarjeta consiste en reproducir un
fichero MIDI. Nótese que dichos ficheros definen la información musical que debe sonar, pero el so-
nido real lo aporta la tarjeta. Por tanto, un mismo fichero sonará mejor en unas tarjetas que en otras,
dependiendo de su calidad.

7. EQUIPOS DE COMUNICACIONES

7.1. MÓDEM
Ver tema 5.

7.2. TARJETAS DE RED


Ver tema 15.

118 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

8. OTROS DISPOSITIVOS PERIFÉRICOS

8.1. LECTORA DE TARJETAS PERFORADAS


Estos dispositivos incorporaban unas células fotoeléctricas que detectaban cuándo había o no un
agujero, convirtiendo la presencia o ausencia de perforación en un impulso eléctrico.

8.2. PERFORADORA DE TARJETAS Y CINTAS


Periféricos ya obsoletos. Consistían en una serie de punzones que se lanzaban por impulsos
electromagnéticos y que perforaban la ficha o cinta en aquellas oposiciones que correspondiera al
carácter a grabar y al código usado.

8.3. DISPOSITIVO RECONOCEDOR DE VOZ


Tratan de identificar palabras dentro de un repertorio normalmente muy limitado. Lo que hacen
es que, al detectar un sonido, extraen ciertas características del mismo y lo comparan con ciertos
patrones de palabras previamente memorizados.
Hay dos tipos básicos. El primero es dependiente del usuario y consta de una fase de aprendizaje
en la que aprende a reconocer ciertas palabras de un usuario concreto. El segundo tipo es más gene-
ral, es independiente del usuario y el vocabulario que reconoce suele ser más limitado.

8.4. SENSORES DE SEÑALES ANALÓGICAS


Son dispositivos sensibles a la magnitud a medir. Existen sensores de diferentes magnitudes:
temperatura (termómetro, termostato), sonido (micrófono), luz (células fotoeléctricas), humedad,
nivel de agua, etc.
Se usan unos circuitos llamados conversores Analógico/Digitales, para digitalizar las señales
analógicas leídas y el programa adecuado obrará en consecuencia.
Se utilizan en sistemas informáticos que controlan multitud de aparatos como el de aire acondi-
cionado, farolas callejeras, etc. También los usan los edificios inteligentes.

8.5. CONVERSOR DIGITAL/ANALÓGICO


Hay ordenadores cuya salida debe actuar sobre un dispositivo que es controlado por una señal
eléctrica analógica. Esta señal actúa sobre otro aparato que transformará la señal eléctrica en otra de
distinta naturaleza. La conversión del dato binario generado por el ordenador en una señal continua
(analógica) se efectúa en un circuito denominado conversor D/A.
Una de las aplicaciones quizás más sorprendentes son los sintetizadores de voz, que permite que
el ordenador hable, para lo que utilizan un conversor D/A. A veces las palabras se tienen ya grabadas
y no hay que generarlos (conversor D/A), simplemente mandar la grabación a la salida del altavoz.

8.6. SISTEMA DE VIDEOCONFERENCIA


Un Sistema de Videoconferencia consta de una cámara de vídeo conectada a una tarjeta para
la captura y compresión de la señal, una interfaz de comunicaciones y un programa que coordine
todos los elementos. Su objetivo es conseguir transmitir imagen y sonido en una conversación entre
dos puntos alejados. La información debe comprimirse y enviarse rápidamente para poder lograr la

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 119


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

simultaneidad de la comunicación. Debido a la cantidad tan enorme de información que se tiene que
enviar en tiempo real, la RTC no resulta muy adecuada. Lo ideal es usar la RDSI.

8.7. DISPOSITIVOS DE REALIDAD VIRTUAL


Es una tecnología por la que intentamos engañar a nuestros sentidos con el fin de introducirnos
en un mundo creado por el ordenador. En realidad virtual, se pretende que existan las mismas tres
dimensiones espaciales que en la vida real.
El periférico más importante es el llamado casco o visor de RV. Consta de un casco con dos
pequeñas pantallas, un para cada ojo, y dos auriculares. En cada pantalla se muestran distintas imá-
genes para dar la sensación de que estamos en un mundo tridimensional. El casco debe ser también
un periférico de entrada de datos al ordenador, ya que debe incorporar sensores que indiquen en todo
momento la posición del mismo. Así, el ordenador debe capturar esos datos en tiempo real y cambiar
las imágenes de forma coherente con dichos movimientos.
El guante digital o guante de datos es un guante que integra cables de fibra óptica, para de-
tectar perfectamente los movimientos de la mano e interactuar con el mundo virtual (coger objetos,
cambiarlos de lugar, abrir puertas, etc.). Además los guantes de datos deben ser receptores de las
sensaciones que se produzcan (si cogemos un objeto virtual el guante debe ejercer sobre la mano la
presión suficiente para simular que el objeto está en nuestra mano).
En el futuro se pretende crear un traje con sensores capaz de detectar todos nuestros movimientos.

8.8. TARJETAS DIGITALIZADORAS DE VÍDEO


Existen distintos modelos de tarjetas digitalizadoras de vídeo. A continuación se realiza una clasi-
ficación indicando los principales tipos que se pueden encontrar en el mercado:
– Frame Grabbers: realiza la digitalización de la imagen y la almacena en su buffer interno.
No suelen incorporar equipo físico para realizar la sobreimpresión de la imagen digitalizada
(overlay) sobre el vídeo generado por el ordenador.
– Frame Grabbers con compresión por hardware: versión avanzada de los anteriores ya
que incorporan un microprocesador que comprime la imagen digitalizada en tiempo real. El
formato utilizado para la compresión suele ser algún estándar como Indeo, JPEG o MPEG.
– Digitalizadores con superposición (overlay): tarjetas que incorporan por hardware la ca-
pacidad de superponer la imagen digitalizada a la imagen generada por la tarjeta gráfica del
sistema. Este proceso se realiza en tiempo real, por lo que se puede observar la imagen en
movimiento con la misma calidad que la ofrecida por los vídeos domésticos o la televisión.
Se puede seleccionar mediante equipo lógico el tamaño y la posición de la ventana donde
aparecerá la imagen digitalizada.
– Digitalizadores capaces de realizar efectos digitales: estas tarjetas incorporan equipo
físico especializado en realizar efectos digitales como, por ejemplo, efectos de mosaico,
estroboscopio, ensanchar o encoger la imagen, etc.

8.9. CÁMARAS DIGITALES


Las características a considerar de una cámara digital son las siguientes:
– Sensor: suele ser un CCD (Coupled Charge Device ) que consiste en una malla de electro-
dos fotosensibles. En un CCD convencional estos fotodiodos son rectangulares. En el Super
CCD estos fotodiodos son octogonales y favorecen la sensibilidad, el rango dinámico y la
resolución, además de permitir el incremento efectivo de píxeles. La marca Sony dispone
de su propio sistema CCD: Super HAD (Hole Accumulation Diode ). También pueden utilizar
sensores CMOS (Complementary Metal Oxide Semiconductor), aunque tradicionalmente con
menor sensibilidad y calidad que el CCD.

120 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

– Tamaño: el tamaño del sensor incide en el número de fotodiodos que hay presentes en el sen-
sor y en la resolución máxima soportada. Cuanto mayor sea, mejor. Se expresa en pulgadas.
Las compactas son de pequeño tamaño, idóneas para el fotógrafo aficionado. La imagen se
suele ver a través de un visor o panel LCD. Suelen admitir objetivos intercambiables. Algunas
cámaras ultracompactas son tan pequeñas como un bolígrafo o un paquete de tabaco.
– Resolución máxima/real: número de píxeles o puntos que puede captar el sensor. Cada pun-
to necesita también su correspondiente información RGB (roja, verde y azul), con lo cual este
dato no es el resultado aritmético de multiplicar los puntos por pulgada de la imagen final. De
este modo, la segunda cifra nos indica la resolución real incluyendo la información del color.
– LCD y/o visor: visor LCD y/o óptico para encuadrar la imagen o para incluir los menús. En el
caso del LCD hay que considerar el tamaño de su diagonal en pulgadas.
– Memoria: ranuras disponibles para insertar tarjetas de memoria externa. Hay cámaras que
disponen de una pequeña memoria interna complementaria a la externa.
– Conexiones: puertos de conexión disponibles al PC, TV u otros.
– Abertura máxima/mínima: estos valores indican la abertura máxima y mínima del objetivo.
Cuanto más se abra el objetivo más luz entrará.
– Velocidad de obturación: tiempo durante el cual se abre el obturador para dejar pasar la
luz y así tomar la imagen. Se mide en segundos.
– Balance y exposición: las opciones de balance de blancos son de las mejores característi-
cas de las cámaras digitales. Pueden incluir la opción de fotografiar en blanco y negro, añadir
efectos, brillos, utilizarse de forma manual, etc. También disponen de modos de exposición:
retrato detallado, deportes, paisajes, etc. Esto supone una fijación previa de valores como
profundidad de campo, abertura, obturación, balance...
– Longitud focal: indica la distancia máxima y mínima del cristal exterior de la cámara al pla-
no focal. Cuanto menor sea esa distancia, el ángulo de imagen será mayor, pero el enfoque
será de imágenes a corta distancia. En su máxima separación podremos captar con nitidez
imágenes lejanas, pero con menor ángulo de visión. Está expresada en milímetros. Cuando
la cámara tiene zoom, la longitud focal es variable.
– Longitud focal equivalente: este dato sirve para comparar cámaras digitales con las clásicas.
La distancia focal de la lente de una cámara producirá una imagen de mayor o menor tamaño
dependiendo del que tenga el recuadro donde se proyecte la luz. En una cámara convencional
ese recuadro es el negativo y su diagonal mide 35 mm, pero en una digital es el CCD y mide
mucho menos. Así, un objetivo de menos de 50 mm será un gran angular para una cámara
convencional, pero puede ser un teleobjetivo corto en una digital. Para evitar inducir a errores
se suele hablar del equivalente en 35 mm, de modo que una lente equivalente a 50 mm pro-
ducirá el mismo efecto final que un objetivo de 50 mm en una cámara convencional.
– Zoom O/D/T: aumentos ópticos de la cámara (reales) y los realizados por software (digital).
Donde no llega la longitud focal real puede llegar la digital, pero con menor calidad. También
se dispone del total al sumar ambos aumentos.
– Flash: flash incorporado y su distancia efectiva.
– Objetivo: objetivo intercambiable.
– Software: retoque, gestión de imágenes, etc.

8.10. VÍDEO DIGITAL

8.10.1. Introducción
El estándar DV apareció como el primer sistema digital de vídeo orientado al mercado de consu-
mo. En 1995 se presentan los primeros modelos de videocámaras basadas en este estándar, convir-
tiendo el vídeo digital en una realidad para el usuario doméstico y aficionado.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 121


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

En el mercado de consumo se produjeron ventas masivas de videocámaras miniDV (versión


doméstica del estándar DV) que hicieron desaparecer los modelos analógicos existentes hasta enton-
ces. DV no se popularizó de igual forma en el segmento profesional de la edición de vídeo. En este
mercado existen otros sistemas digitales más avanzados como Digital-S, D-VHS, Betacam Digital o
Betacam SX, e incluso variantes del propio DV como DVCAM y DVCPRO. En cualquier caso los siste-
mas digitales se han impuesto a los tradicionales medios analógicos de emisoras de TV, productoras,
agencias de noticias, etc.

8.10.2. Vídeo digital


La principal diferencia entre las videocámaras analógicas y digitales está en el modo de grabación
de la señal de vídeo: las analógicas graban directamente en la cinta, los sistemas digitales procesan
la señal, la convierten en datos binarios que se comprimen en un formato determinado (por ejemplo,
DV) y finalmente los graban en un soporte digital.
El proceso de digitalización del vídeo supone importantes ventajas:
– Mayor exactitud en la representación del color: la representación del color se codifica
mediante tres componentes: luminancia o gama de grises y dos canales de crominancia o
contenido de color. Los sistemas analógicos modulan juntas estas señales, la codificación
digital, sin embargo, permite almacenarlas por separado consiguiendo una representación
del color más realista en la imagen.
– Imagen de alta definición: el vídeo digital posee una definición de imagen muy superior a
la de los sistemas analógicos: aproximadamente 500 líneas de resolución horizontal para el
estándar DV, frente las 400 de los sistemas Hi8 o S-VHS, o las 240 del VHS y 8 mm.
– Copiado sin pérdida de calidad: una vez digitalizada y comprimida la señal cualquier co-
pia que realicemos tendrá exactamente la misma calidad que el original. Esto se debe a
que realmente se copia un flujo de bits y no una señal analógica sujeta a interferencias,
distorsiones o defectos del soporte. Lo mismo ocurrirá a la hora de transferir vídeo entre la
videocámara y el ordenador.
NOTA: el dispositivo de la cámara que realiza la digitalización y compresión de
la señal se denomina códec. La pérdida de información durante estos procesos es
en la gran mayoría de los casos inapreciable.
Si además consideramos la posibilidad de grabar pistas de audio con calidad CD e incluso supe-
rior, se podrá apreciar el importante avance que supone el vídeo digital frente al analógico.

8.10.3. Elementos principales de una videocámara digital

122 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

1. Zapata para accesorios: pequeñas guías metálicas donde instalar accesorios opcionales
suministrados por el fabricante, por ejemplo un foco de luz o un micrófono externo.
2. Palanca de zoom: maneja el motor del mecanismo de zoom. La velocidad del zoom varía con
la presión que ejerzamos sobre la palanca.
3. Correa de mano: permite sujetar con firmeza la videocámara, evitando el movimiento que
puede afectar a la grabación.
4. Conexiones de audio y vídeo: diferentes entradas y salidas de vídeo analógico, entrada de
auriculares, micrófono, y el puerto FireWire para la transferencia de vídeo digital. Algunos
modelos también poseen un puerto USB o un conector de serie para enviar las imágenes al
ordenador.
5. Acceso a las funciones más utilizadas: botones para funciones habituales como el control
de exposición, enfoque manual o la activación de los diferentes efectos digitales. Además,
también incluye un pequeño botón disparador cuando la cámara se emplea en modo foto-
gráfico.
6. Objetivo: las videocámaras digitales usan objetivos tipo zoom con ángulo de visión variable:
desde una posición en gran angular que toma una porción amplia de la escena, hasta la
posición teleobjetivo, que muestra una vista más cercana.
7. Micrófono integrado: pequeño micrófono estéreo situado en la parte superior para evitar en
lo posible la grabación de ruidos procedentes del motor de la videocámara.
8. Pantalla LCD: display de cristal líquido de alta resolución para enfocar y encuadrar tomas
de vídeo. También funciona como monitor para visualizar el contenido grabado en la cinta.
La pantalla se puede cerrar para ahorrar espacio y girar completamente para orientarla a
conveniencia durante la grabación.
9. Controles de navegación: pequeño panel de navegación que cuenta con los habituales boto-
nes de reproducción, pausa, avance y retroceso para desplazarnos por la cinta.
10. Altavoz: pequeño altavoz monofónico integrado que se utiliza para la reproducción del sonido
grabado en la cinta.
11. Baterías: normalmente del tipo ion-litio con una autonomía que no suele superar una hora
de filmación.
12. Selector de modo: mando para acceder a los modos principales de trabajo de la videocáma-
ra: grabación, reproducción de cinta y modo fotográfico. En el centro de este control se sitúa
el botón con el que podremos iniciar la grabación.
13. Control de menús: las videocámaras disponen de completos menús en pantalla que dan
acceso a todas las opciones posibles. La navegación se puede realizar a través de botones o
mediante una pequeña rueda similar al dial de un receptor de radio. Las videocámaras más
sofisticadas sustituyen estos controles por pantallas LCD táctiles desde las que es posible
acceder directamente a los menús.
14. Visor electrónico: además de la pantalla LCD, un pequeño visor permite ahorrar una cantidad
considerable de batería. Es muy adecuado para ambientes de alta luminosidad.
15. Ranura para tarjetas de memoria: las videocámaras incluyen un modo de trabajo fotográfico
capturando imágenes fijas.

8.10.4. Óptica y electrónica


En algunos aspectos técnicos como la óptica y electrónica, las videocámaras digitales son real-
mente una evolución natural de los modelos analógicos. Por ello se benefician de años de investiga-
ción y desarrollo en dichos aspectos.
La abertura de la lente indica la máxima cantidad de luz que puede pasar a través del objetivo.
Una lente con un valor de abertura 1,6 será más luminosa y proporcionará mejores resultados que
una de 1,8.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 123


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

Es importante diferenciar entre el zoom óptico y el digital. El primero se basa en la capacidad real
de acercamiento que poseen las lentes, alcanzando valores de 10x en las videocámaras analizadas,
muy lejos de las espectaculares cifras del zoom digital que, sin embargo, resulta poco práctico por el
deterioro que presentan las imágenes ampliadas por este método.
Los modelos domésticos emplean un único sensor CCD (Charge Coupled Device) para convertir
las imágenes capturadas en señales eléctricas. El CCD es el responsable principal de la calidad de
imagen. Existen dos parámetros a considerar: tamaño y resolución efectiva. El tamaño en una cáma-
ras domésticas suele ser de 1/3 o 1/4 de pulgada (cuanto más grande, mejores resultados obten-
dremos). La mayoría de fabricantes no suele facilitar la cantidad de píxeles efectivos de sus sensores
CCD, indicando únicamente valores de resolución total.
La electrónica de las videocámaras digitales ofrece un sinfín de atractivas posibilidades: efectos
especiales, modos de exposición programados, visión nocturna, función fotográfica, autoenfoque rá-
pido y preciso, ajustes manuales de exposición y equilibrio de color o la posibilidad de elegir diferentes
velocidades de obturación. Además, es importante que la videocámara ofrezca un buen estabilizador
de imagen –óptico o digital– que permita minimizar las sacudidas propias de una grabación manual.

8.10.5. Formatos de grabación digital


Los diferentes estándares de grabación digital se caracterizan principalmente por cuatro pará-
metros:
– Muestreo de la señal de vídeo: el proceso de digitalización de la señal de vídeo consis-
te básicamente en asignar un determinado valor a la amplitud de las diferentes muestras
tomadas a intervalos fijos (frecuencia de muestreo). Este parámetro se expresa mediante
tres cifras que indican la relación entre las frecuencias de muestreo de las componentes
de luminancia y crominancia de la señal. Por ejemplo, el estándar Digital-S presenta un
muestreo 4:2:2, indicando que la señal de luminancia (valor 4) se muestrea con el doble de
frecuencia que las dos componentes de color (valores 2:2). El formato DV tiene un muestreo
4:1:1, presentando un menor ancho de banda para la información de color. Sin embargo,
esta pérdida es poco apreciable por la menor sensibilidad que tiene el ojo a la información
del color.
– Factor de compresión y tasa de transferencia: la información obtenida en el proceso
anterior debe ser comprimida. Los algoritmos de compresión emplean normalmente factores
de compresión de tipo 3:1 o 5:1, reduciendo los flujos de información hasta valores de 50
o 25 Mbits/s sin una pérdida apreciable de calidad.
– Soporte de grabación: aunque actualmente han aparecido las primeras propuestas de
grabación en disco, la mayoría de sistemas digitales emplean cintas, soporte más barato que
ofrece gran fiabilidad gracias a potentes algoritmos de corrección de errores, que evitan que
los defectos de la cinta afecten a la calidad de la imagen. El pequeño tamaño físico de las
cintas miniDV (aproximadamente la mitad de una cinta de audio convencional) hace posible
diseñar pequeñas videocámaras ligeras y compactas.

FACTOR
FORMATO MUESTREO TASA DE BITS
DE COMPRESIÓN
Betacam SX 4:2:2 10:1 18 Mbits/s
Disgital Betacam 4:2:2 2:1 90 Mbits/s
Digital S 4:2:2 3:3:1 50 Mbits/s
DV/MiniDV 4:1:1 5:1 25 Mbits/s
DVCAM 4:1:1 5:1 25 Mbits/s
DVCPRO 4:1:1 5:1 25 Mbits/s
DVCPRO 50 4:2:2 5:1 25 Mbits/s

124 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

8.10.6. Diseño
Las videocámaras digitales domésticas han alcanzado un sorprendente grado de miniaturización,
debido en gran parte al pequeño tamaño del soporte de grabación: la cinta miniDV. Los modelos ac-
tuales presentan diseños compactos y ergonómicos, provistos de sofisticadas pantallas LCD, visores
electrónicos y multitud de controles de acceso a las funciones más importantes.
Una buena resolución de pantalla LCD es fundamental para conseguir un correcto enfoque y
ajuste de la exposición. Además, dependiendo de las condiciones de luminosidad, un visor electrónico
puede resultar extremadamente útil. La ergonomía es otro aspecto importante, un diseño cómodo es
decisivo a la hora de obtener buenos resultados.

8.10.7. Conexiones
Todas las videocámaras digitales actuales cuentan con un puerto FireWire también llamado i-link
o DV-, a través del cual se realiza la transferencia de vídeo digital hacia dispositivos externos. Para
aprovechar al máximo las posibilidades de la cámara, es importante que este puerto sea bidireccio-
nal, permitiendo también la transferencia de datos hacia la cámara, por ejemplo, para volcar en la
cinta el vídeo editado en el ordenador.

Diferentes modelos de cámaras de vídeo digitales

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 125


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

Todas las cámaras disponen de salidas de vídeo analógico (S-Vídeo) y vídeo compuesto que
permite visualizar las grabaciones en un televisor. Una entrada analógica permite digitalizar viejas
grabaciones analógicas. Las entradas de auriculares y micrófono son de gran utilidad para monitorizar
el sonido y reducir la grabación de ruidos del motor de la videocámara.
La función fotográfica requiere ranuras para tarjetas MultimediaCard o Memory Stick. En estos
casos, un conector USB puede ser de gran utilidad para transferir las imágenes al PC.

9. LAS UNIDADES DE ALMACENAMIENTO

9.1. CONCEPTO
Las unidades de almacenamiento son dispositivos periféricos del sistema que actúan como me-
dio de soporte para programas, datos y ficheros. Constituyen una parte muy importante de cualquier
sistema o instalación informática. Fueron creados y desarrollados por la industria para responder a las
necesidades de manejar cantidades crecientes de información almacenada.
Las unidades de almacenamiento masivo se utilizan en todos los entornos informáticos existen-
tes: mainframes, cliente-servidor, monopuestos de sobremesa, portátiles, etc. Destacan los dispo-
sitivos de acceso directo o DASD (Direct Access Storage Devices), constituidos principalmente por
unidades de disco, y los dispositivos de acceso secuencial, representados fundamentalmente por las
unidades de cinta magnética.

9.2. EVOLUCIÓN HISTÓRICA


En los últimos años han aparecido productos basados en tecnologías óptica y magneto-óptica
en diversas modalidades. Están adquiriendo mayor presencia y pueden copar el mercado a medio
plazo. Asimismo, en los dispositivos de tipo secuencial ha habido un gran avance, ofreciendo mayor
capacidad en un tamaño más reducido. La evolución de estos dispositivos y la tendencia actual se
dirige hacia dispositivos más reducidos con mayor capacidad de almacenamiento, menor tiempo de
acceso, una reducción considerable del coste por megabyte y una mayor velocidad de transferencia
de datos.

9.3. MEMORIA PRIMARIA Y SECUNDARIA


Las unidades o dispositivos de almacenamiento reciben también el nombre de memoria secun-
daria, de forma comparativa a la memoria principal que encontramos en un ordenador. Aunque el ob-
jetivo principal de ambos es almacenar información, entre ellas existen diferencias muy importantes:

Memoria principal Memoria secundaria

Capacidad Media / Baja Alta / Muy alta

Permanencia de la información Volátil (RAM), No volátil (ROM) No volátil

Velocidad de acceso Alta /Muy alta Baja / Media

Tamaño físico Reducido Medio

Tecnología Electrónica Mecánica / Electrónica

Coste por Megabyte Alto Bajo

Tabla comparativa de la memoria principal y la secundaria.


La permanencia de la información se refiere al hecho de que ésta se pierda al cortar el suministro eléctrico

126 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

La mayoría de los dispositivos de memoria secundaria se basan en el principio de grabación


magnética: se deposita una pequeña capa de material magnetizable (óxidos o metales) sobre un
soporte que puede configurarse en dos estados básicos. Mediante combinaciones de estos estados
se almacena la información.
NOTA: La capacidad de almacenar información de un medio físico se mide en
bpi (bits per inch) o bits por pulgada.
La primera clasificación que podemos hacer de estos dispositivos se basa precisamente en la
rigidez del medio físico utilizado. Existen dos medios típicos basados en el principio de grabación
magnética:
– Duros: Discos y tambores
– Flexibles: Cintas y disquetes
Aunque actualmente los dispositivos magnéticos tienen una seria competencia en los dispo-
sitivos de tecnología óptica (discos ópticos), están todavía muy extendidos en el mercado, debido
principalmente a que ofrecen grandes capacidades.
En este tema estudiaremos los dispositivos de almacenamiento más empleados; son los siguien-
tes:
– Dispositivos de acceso directo
• Discos magnéticos
• Discos ópticos
• Tarjetas PCMCIA
• Memorias de burbujas magnéticas
– Dispositivos de acceso secuencial: cintas
• Cintas de 1/2 pulgada
• Cintas de 1/4 pulgada
• Cintas de audio digital (DAT)
• Cintas de 8 mm (Hexabyte)

10. CONCEPTOS BÁSICOS DE LAS UNIDADES DE


ALMACENAMIENTO

10.1. MEDIOS DE GRABACIÓN MAGNÉTICA


Consisten en un soporte rígido o blando sobre el que se deposita una fina película compuesta
de materiales magnéticos. Las propiedades de estos elementos determinan las características de
almacenamiento de estos dispositivos, tales como la densidad de grabación y la relación señal/ruido
de lectura.
Sobre la película se graba creándose dominios magnéticos de polarización inversa a la di-
rección preferente de polarización que tiene la película. Cada dominio corresponde a un bit. Para
aumentar la densidad de grabación, la dirección preferente de polarización debe ser perpendicular a
la película. Esta técnica permite almacenar unos 30.000 bpi. Actualmente se están desarrollando sis-
temas con dirección de magnetización preferente perpendicular a la capa, alcanzándose densidades
de grabación mayores, del orden de los 80.000 bpi.
Los materiales más empleados en la película magnética son los siguientes:
– Óxido de hierro F203
– Óxido de hierrocobalto CoxFe2x03
– Óxido de cromo CrO2
– Película metálica de hierro, hierro cobalto, cobalto níquel...

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 127


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

La película magnética y el soporte físico determinan las características del medio. Las caracterís-
ticas más importantes son las siguientes:
– Uniformidad de la superficie: La superficie del soporte no debe presentar rugosidades,
manteniendo la capa magnética uniforme y lisa.
– Estabilidad del soporte: El paso del tiempo no debe alterar ni la forma ni el tamaño del
soporte. Cualquier alteración modificaría la posición de los puntos de memoria ocasionando
problemas de lectura. Se dice que el soporte ha de ser estable.
– Tamaño de la partícula: Los dominios magnéticos son proporcionales a las partículas de
la capa magnética. Cuanto más pequeño su tamaño, mayor número de dominios caben por
unidad de superficie aumentando la capacidad de almacenamiento.
– Grosor de la capa magnética. Cuanto más fina sea la capa magnética, más pequeños
pueden ser los dominios y por tanto alcanzamos mayor densidad de grabación. En contra-
partida una capa fina ocasiona señales de lectura más débiles.
– Fuerza coercitiva: La fuerza coercitiva mantiene el material magnetizado. Por otra parte, la
tendencia a la desmagnetización (pérdida de la información) es mayor cuanto más pequeños
sean los dominios.
– Densidad de flujo residual: La señal de lectura es directamente proporcional a este factor,
por lo que interesa que éste sea grande. La densidad de flujo residual crece además propor-
cionalmente a la fuerza coercitiva.

10.2. MODOS DE GRABACIÓN Y LECTURA


Los transductores de lectura y escritura se componen de una cabeza de estructura toroidal por
donde circulan las corrientes eléctricas de lectura y/o escritura (dependiendo de que exista un único
transductor o dos). El núcleo de la cabeza se construye de ferrita o laminado de hierro.
En escritura se hace pasar una pequeña corriente por la cabeza que produce un campo que mag-
netiza la película que se mueve en su proximidad. Invirtiendo el sentido de la corriente se invierte el
sentido del campo y, por tanto, el sentido de magnetización del soporte. En lectura, se hace pasar un
soporte grabado magnéticamente cuyos cambios de magnetización, en los bordes de los dominios,
inducen corrientes en el arrollamiento de la cabeza que se interpreta como información.
Los códigos de grabación más comunes son los que relacionan a continuación:

Densidad
Cód. Descripción Reloj Aplicación
Grabación

Codifica cada bit como un dominio en el


sentido de polarización que corresponda al
RZ Autocontenido Muy baja Poca
valor de cada bit, con retorno al nivel cero
(zona desmagnetizada) por cada bit

NRZ Idem pero sin retorno de cero Externo Alta Poca

Sólo codifica los bits igual a “1” por un


Cintas magné-
NRZI cambio en el sentido de la polarización del Externo Alta
ticas
dominio correspondiente a ese bit

Discos y
Idéntico al NRZ, introduce un impulso auxi- Mitad que disquetes de
FM Autocontenido
liar de reloj por bit con NRZ densidad
simple
.../...

128 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

.../...

Cada bit, dependiendo de que éste sea


un ”1” o un “0”, es codificado con el NRZI Cintas magné-
Mitad que
PE como un cambio, en uno u otro sentido, Autocontenido ticas de alta
con NRZ
de la dirección de polarización del dominio densidad
que corresponda a ese bit

Idéntico al RZ, las zonas desmagnetizadas Mitad que


RB Externo Poco utilizado
se polarizan negativamente con NRZI

Disquetes
Idéntico al FM, se eliminan los impulsos Doble que
MFM Autocontenido de doble
de reloj innecesarios con el FM
densidad

Tabla con los métodos de grabación más comunes

10.3. CAPACIDAD

10.3.1. Discos
La capacidad de almacenamiento en los discos se organiza en cilindros, pistas y sectores. Un dis-
co es un sistema de varias superficies y cabeza móvil, aquellas pistas que se acceden en una misma
posición de la cabeza constituyen un cilindro.
Una pista es la franja del disco que gira delante de una cabeza. En los sistemas de cabeza fija
cada una de éstas define una pista, mientras en los sistemas de cabeza móvil cada posición de la
cabeza define una pista. Las pistas se encuentran divididas en unidades menores denominadas seg-
mentos. Un sector lo constituye el conjunto de segmentos concéntricos de cada una de las pistas.
La unidad de información transferida en un acceso es el sector (definido en el formateo inicial).
Los disquetes dividen su superficie únicamente en pistas y sectores, los sistemas de varias superficies
tienen además cilindros. El acceso a la información deseada exige la selección de la cabeza adecua-
da, su posicionamiento (en caso de ser móvil) y la interpretación de la información leída de la pista,
para llegar a seleccionar el sector deseado.
NOTA: Antes de utilizar un disco es necesario una operación preliminar que
los prepara para su uso. Se denomina formateo. Cuando se formatea un disco,
el sistema operativo elimina toda la información previamente existente (si el disco
ya había sido utilizado) o lo prepara físicamente para su primer uso (en caso de un
disco nuevo). Entre estas operaciones se encuentran la comprobación de sectores
y la marcación de aquellos que resulten inservibles, además se crean las tablas
internas que se utilizarán posteriormente para asignar espacio a la información que
se almacene.
No toda la capacidad de la unidad de almacenamiento es aprovechable. Durante el formateo se
especifica la información de direccionamiento, y en algunos casos la de sincronismo, que permiten
que la información que se almacene en estos dispositivos se pueda recuperar. Por ello, de la capaci-
dad de almacenamiento bruta del dispositivo sólo se puede destinar para el almacenamiento de datos
un determinado porcentaje: la capacidad de almacenamiento neta o capacidad formateada.

10.3.2. Cintas
La capacidad de almacenamiento bruta de las cintas viene determinada por su longitud y por la
densidad de grabación (bits grabados por pulgada). Como en los discos, también se guarda informa-
ción de dirección para acceder a los datos deseados. Además, las poleas necesitan tiempo para parar
y alcanzar la velocidad de régimen de la cinta, necesitándose unas zonas muertas entre los registros
denominados IRG (Inter Register Gaps). Para disminuir su número los registros se agrupan en bloques
o ficheros, sin claros entre ellos, con un directorio en su cabecera que especifica los registros que

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 129


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

contiene. Al final del fichero se acompaña la información para la detección de errores y de fin de
registro. Este proceso definitorio se realiza durante la operación de formateo de la cinta.

10.4. TIEMPO DE ACCESO

10.4.1. Discos
Viene determinado por el tiempo que tarda en posicionarse la cabeza de lectura-escritura en la
pista deseada (tiempo de búsqueda) más el tiempo que tarda la información de la pista en pasar
delante de la cabeza (tiempo de latencia). Estos tiempos siempre se expresan en valor medio, porque
tanto el tiempo de búsqueda como el tiempo de latencia dependen de la posición de partida y de la
posición deseada. En las tecnologías ópticas el tiempo de acceso es muy pequeño, dado que el láser
accede a cualquier zona del disco muy rápidamente, pero todavía alcanzan los valores medios de
acceso de los discos magnéticos.

10.4.2. Cintas
Estos dispositivos tienen una naturaleza secuencial, por lo que la unidad lectora debe explorar la
cinta sucesivamente hasta hallar una información específica. Por consiguiente, a mayor capacidad de
almacenamiento, mayor longitud de la cinta y mayor tiempo de acceso medio.
El tiempo de acceso en este caso viene determinado por el tiempo que tarda en posicionarse la
cabeza de lectura-escritura al inicio del registro que se quiere leer, más el tiempo que tarda la infor-
mación de la cinta en pasar delante de ella.
Existen sistemas que resuelven en parte esta desventaja: La técnica QFA (Quick File Access) crea
un índice para el contenido de la cinta, leída por el equipo lógico de lectura para acceder directamen-
te a la zona donde se encuentran los datos solicitados. En primer lugar se consulta la tabla y después
se avanza a la posición obtenida sin necesidad de recorrer todos los datos de la cinta.

10.5. VELOCIDAD DE TRANSFERENCIA


Velocidad a la que se transmiten los bits de un registro desde el soporte magnético a la cabeza
lectora. Viene determinada por la densidad de grabación y por la velocidad de giro (discos) o avance
(cintas).

10.6. SEGURIDAD Y FIABILIDAD


La fiabilidad para recuperar la información es un parámetro crítico a la hora de evaluar estas
unidades, especialmente con ciertas aplicaciones donde la disponibilidad de los datos resulta vital
para el buen funcionamiento de la organización y la rápida toma de decisiones. Una respuesta a las
necesidades de seguridad y de tolerancia a fallos es contar con dispositivos redundantes. Un ejemplo
de redundancia es la tecnología RAID. La duplicidad debe incluir también otros elementos tales como
controladoras, fuentes de alimentación, etc.
Se mide en términos de disponibilidad, como el tiempo medio entre fallos Las unidades de al-
macenamiento redundantes ofrecen facilidades de detección de errores de un solo bit que mejoran
la disponibilidad. Para ello necesitan almacenar información de paridad.

10.7. ANTEMEMORIA (MEMORIA CACHÉ)


La memoria caché mejora notablemente el rendimiento de modo totalmente transparente para
el usuario. La antememoria puede ser física, lógica o una combinación de ambas. La caché física
consiste en una memoria instalada dentro del propio dispositivo o su controlador, que mejora el ren-

130 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

dimiento leyendo con antelación peticiones de datos de salida o almacenando datos de entrada y
guardándolos en memoria intermedia hasta que la unidad esté libre. El inconveniente de la utilización
de esta caché es que la información siempre necesita pasar a través del bus de Entrada/Salida del
ordenador.
La caché lógica se basa en un programa que gestiona parte de la RAM del sistema como an-
tememoria del subsistema de almacenamiento. La información es directamente accesible por el
procesador utilizando el bus local. Su inconveniente es que está limitada por la memoria disponible
en el sistema.

10.8. MOVILIDAD
En un método de almacenamiento removible es imprescindible que los dispositivos de soporte
permitan intercambiar información de un sistema a otro, sin necesidad de realizar conexiones inter-
nas, garantizando la fiabilidad e integridad de los datos.

10.9. COMPATIBILIDAD
La compatibilidad entre un ordenador y los dispositivos de almacenamiento, así como con otros
sistemas que puedan existir en el futuro, asegura la inversión y la recuperación de los datos.

11. UNIDADES DE CINTA MAGNÉTICA

11.1. INTRODUCCIÓN Y PRINCIPIOS


El primer dispositivo de almacenamiento de este tipo se comercializó a principios de la década de los
cincuenta. Consistía en una cinta metálica con muy poca capacidad desde nuestra perspectiva actual. La
evolución tecnológica hizo que pronto se adoptaran otros medios, imponiéndose el plástico flexible deno-
minado Mylar, que se recubre con capas de óxido de hierro, óxido de cromo o partículas de metal.
La cinta se estructura en pistas paralelas en el sentido longitudinal existiendo una cabeza lecto-
grabadora para cada pista que escribe o lee la información. Lo normal son 9 pistas, de forma que se
leen o graban en paralelo 9 bits (8 de datos y uno de paridad).
NOTA: Las cabezas lecto-grabadoras se rigen por el mismo principio que las de
nuestros reproductores de casetes y consisten en un dispositivo electrónico forma-
do por un electroimán excitado por pequeñas bobinas.
La grabación ocurre mediante una corriente eléctrica que circula por las bobinas e induce la
magnetización de la capa de óxido de la cinta en movimiento. Esta técnica sobrescribe la información
que pudiera existir anteriormente.
En la lectura sucede el proceso opuesto: es la capa de óxido la que induce la corriente eléctrica
en las bobinas a medida que la cinta avanza en su recorrido. Las corrientes detectadas en las bobinas
determinan si corresponden a un bit 0 ó a un bit 1, recuperándose la información de la cinta. Este
proceso ocurre en paralelo para cada cabeza.
No toda la longitud de la cinta puede emplearse para almacenar datos. Por un lado, se debe
almacenar información de dirección para poder acceder a la zona de datos deseada. Por otro lado,
los cabrestantes necesitan un cierto tiempo para parar y para alcanzar la velocidad de régimen de la
cinta, por lo que se necesita dejar unos claros o zonas muertas entre los registros que se quieren leer
de forma independiente, esto es, parando la cinta entre ellos. Estos claros reciben el nombre de IRG
(Inter Record Gap) y vienen a ser de 1,5 cm. Para reducir este último inconveniente se pueden unir
varios registros en un bloque eliminando los claros entre ellos.
Las cintas han perdido terreno frente a los discos y en la actualidad sólo se emplean fundamen-
talmente como almacenamiento de archivos muertos o para copias de seguridad, aunque siguen
cumpliendo un papel importante para transferir información entre ordenadores.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 131


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

Las características principales de estos dispositivos son:


– Memoria dinámica y no volátil.
– Se puede leer (lectura no destructiva), borrar y grabar.
– La cinta se mueve delante de las cabezas, existiendo contacto físico entre ambas.
– Soporte muy económico.
– Grabación horizontal.
– El acceso es puramente secuencial, hay que leer toda la cinta hasta llegar al lugar deseado,
por lo que el tiempo de acceso es importante.
– No se puede intercalar información adicional; para ello hay que regrabar toda la cinta.
NOTA: A modo de anécdota, cabe destacar el uso de cassettes de audio como
almacenamiento en sistemas domésticos. La grabación se hace de forma serie (bit
a bit) modulando la información. El método es lento, de poca capacidad y poco
fiable, pero muy económico, por lo que se ha empleado bastante en el inicio de los
ordenadores domésticos, hace más de 20 años.
El acceso secuencial de las cintas implica una exploración la cinta del medio hasta hallar una
información específica. Por este motivo, la rapidez de acceso es menor que en los discos. A mayor
capacidad de almacenamiento, mayor longitud de la cinta y mayor tiempo de acceso.

11.2. CINTA DE CARRETE


Este dispositivo consiste en dos bobinas con su correspondiente mecanismo de enrollado y dos
cabrestantes neumáticos encargados de mover la cinta magnética a velocidad constante frente a las
cabezas. Dichos cabrestantes tienen un bucle de cinta magnética para amortiguar los tirones de los
motores de enrollado de la bobina. Existe un sistema de control de velocidad y de control del bobina-
do que constituye la electrónica de control.
Las cintas de carrete tienen un ancho de 0,5 pulgadas y una longitud de 600, 1200 y 3600 pies,
y los carretes pueden llegar a 10,5” de diámetro. La capacidad de almacenamiento de un carrete
depende de su longitud y de la densidad de grabación, que es función de las prestaciones de la elec-
trónica de lectura-escritura y que puede ser de 800, 1600, 3200 y 6250 bpi.
Sin embargo no toda la cinta es aprovechable debido a la estructura empleada para almacenar
la información, en concreto la organización por registros. Cada fichero necesita una cabecera donde
figura el nombre y características de sus registros, además cada registro tiene su propia cabecera
(con un identificador y una zona de sincronismo) y una cola (con un código de detección de error y
una zona de fin de registro).
Además existe una pérdida de la longitud de cinta entre cabecera y cola de registro (IRG= lnter
Record Gap) necesaria para mantener la velocidad de constante y que es de 1,5 cm. Con objeto de
disminuir el número de IRG, es frecuente agrupar los registros en bloques. Se denomina factor de
bloqueo al número de registros que componen un bloque.
La velocidad de arrastre de las cintas de carrete varía de 25 a 200 pulgadas por segundo, sien-
do la velocidad de transferencia de la información entre la unidad y la UCP de 125 a 1250 Kb por
segundo (suponiendo una densidad de grabación de 6250 bpi) para los dos casos apuntados. Otra
característica a evaluar es el tiempo de rebobinado que oscila, para una cinta de 2400 pies, de varios
minutos a 30 segundos.
Otras características:
– Soporte estandarizado: Existe compatibilidad entre diferentes marcas y modelos.
– Soporte muy económico.
– Los códigos de grabación son el PE y NRZI.
– Acceso secuencia: el tiempo de acceso es importante y no se puede intercalar información
adicional (hay que regrabar toda la cinta).

132 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

11.3. CINTA DE CARTUCHO


Existen diferentes tipos de este dispositivo no compatibles entre sí, perdiéndose con ello una
de las grandes ventajas de cintas de carrete, que era precisamente la compatibilidad entre distintas
marcas y modelos.
Se basan en los mismos principios que éstas pero el mecanismo de arrastre es mucho más sen-
cillo. La cinta de cartucho normal es la de 0,25” de ancho. La ventaja del cartucho es que al estar
cerrado al polvo y más protegido al cambio de condiciones ambientales la duración y fiabilidad de la
información grabada es mucho mayor que en cinta de carrete. Es normal en estas cintas la grabación
en forma continua (streamer) sin separación entre dos bloques consecutivos, eliminándose así los
IRG.
Se utilizan para las copias de seguridad. La capacidad de almacenamiento es cercana a 1,0
Gbytes y la velocidad de transferencia en torno a 180 Kbytes/s. Actualmente las cintas de cartucho
están cobrando un mayor auge, considerándose el sustituto de las cintas de carrete.

11.4. CINTA DAT (DIGITAL AUDIO TAPE)


Según algunos constructores será la tecnología preponderante en el futuro para el almacena-
miento en casi todas las aplicaciones de backup. Estas unidades almacenan hasta 40 Gbytes con
una velocidad de transferencia de más de 20 GB por hora.
Son unidades compactas de 4 mm, de pequeñas dimensiones, económicos y rápidos, pero
las unidades lectoras son caras y no existen estándares. La técnica de grabación se conoce como
exploración helicoidal. La unidad de lectura-escritura usa un tambor giratorio que solapa las pistas
de grabación en lugar de la cabeza de grabación estática que se emplea con las unidades de cinta
anteriores. Las DAT son utilizadas en las mismas aplicaciones que las anteriores, pero con mayores
capacidades y fiabilidad. Suponen una buena alternativa de almacenamiento para PC, estaciones de
trabajo y servidores.

11.5. CINTAS DE 1/2 PULGADA


Estas unidades fueron utilizadas inicialmente en entornos mainframe. Todavía son muy utilizadas
para backups de grandes sistemas. Se basan en una cinta de Mylar de 0,5 pulgadas de ancho y
varias micras de espesor, recubierta de un material magnetizable (óxido de hierro, de cromo, etc.) de
otras pocas micras de espesor. Las 0,5 pulgadas de ancho se dividen en nueve pistas, cada una con
su correspondiente cabeza de lectura-escritura. Así se leen nueve bits en paralelo, ocho de datos y
uno de paridad.

11.6. CINTAS DE 1/4 PULGADA (QIC)


Se presentan en cassettes. Su principal inconveniente es la falta de estándares que impiden la
portabilidad. Los entornos donde las cintas QIC encuentran aplicación, como soporte de backup de
gran seguridad, incluyen los grandes ordenadores, servidores y PC. Son una alternativa a las de ½’’ y
al coste de un disco aunque renunciando a la rapidez de acceso. Existen 3 alternativas:
– Cartuchos estándar DC 6000: Su presentación es la de un cassette del tamaño aproxima-
do a la mitad de una cinta de vídeo. La longitud de la cinta es de 90 ó 180 m y graban en
11 pistas.
– Minicartuchos DC 2000: Cassette más pequeño que el anterior (minicartucho) similar al
de audio, con longitudes entre 39 y 52 m. Poseen un chasis resistente de metal, ruedas
de bobinado de precisión y una correa de amortiguación. Ofrecen una elevada calidad de
grabación.
– Cintas blandas (floppy tapes): Usan la controladora de la disquetera estándar, lo cual supo-
ne una gran ventaja en términos de compatibilidad. Posiciona la cabeza de lectura-escritura
directamente sobre la banda magnética.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 133


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

11.7. CINTAS DE 8 MM (HEXABYTE)


Tienen un aspecto similar a las cintas de vídeo. Almacenan varios Gb en un único cartucho, pero
como sucede con las DATs. También comparten la técnica de grabación. Sus unidades lectoras son
muy caras.

11.8. STREAMERS
Una de las tareas informáticas más importantes desde el punto de vista de la seguridad de la
información es la realización de copias de seguridad o backups. Una de las formas más avanzada para
poder llevarla a cabo con rapidez y garantías es el uso de un streamer.
El streamer es un dispositivo que se conecta, interior o exteriormente, al ordenador y me-
diante un software realiza la copia de la información contenida en el disco duro a una cinta au-
tomáticamente. Mediante este mismo software podemos recuperar parte o toda la información
contenida en dicha cinta, transfiriéndola de nuevo al mismo disco duro de donde se copió o a
otro diferente.
La mayoría de los programas de backup permiten realizar copias de seguridad de dos maneras
básicas:
– Copia de imagen completa: Método más rápido de efectuar una copia completa de un
disco duro y la que menos atención requiere. Tiene la contrapartida de importar todos los
errores que tuviera el disco duro.
– Copia selectiva: Copia únicamente los datos que se le indique mediante el criterio de se-
lección (de ficheros y directorios). Se almacenan en bloques contiguos optimizando el medio
de grabación.
Generalmente, la copia de seguridad de los discos duros se realizará diariamente, aprovechando
períodos en que no se realice ningún tipo de tareas sobre el mismo. Para ello se ha de introducir
una cinta dentro del streamer y a través del software programar el tipo de copia que se quiere reali-
zar, una vez configurado se realizará la copia en dicha cinta. Es muy conveniente realizar las copias
programando en distintas cintas por días alternos para evitar que alguna copia se realice en cintas
defectuosas.
Existen distintos tipos de streamer según el estándar de cintas que utilicen. Los streamer han
evolucionado tanto en el software como en el hardware. Una tendencia tecnológica tiene el objetivo
de que el streamer pueda realizar una copia de seguridad de una forma automática, sin ser atendido
por ningún operador. Para conseguir esto cada día van apareciendo cintas de backup más rápidas y
de mayor capacidad, software más sofisticado, mejores interfaces y más alta velocidad de transfe-
rencia de datos a la cinta.

Modelos actuales de streamers con sus correspondientes cintas

134 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

11.9. SISTEMAS AUTOMATIZADO DE CINTAS


Un sistema automatizado de cintas o ACS (Automatic Cartridge System) se basa en una unidad
que almacena miles de cartuchos de cintas y un robot que las recupera, las coloca en unos impul-
sores (mecanismos de arrastre) y después de su uso las devuelve a su lugar de almacenaje. Todo se
realiza automáticamente a partir de solicitudes de montaje lanzadas por el operador.
Las ventajas de estos sistemas son varias:
– Drástica reducción del tiempo medio de localización y montaje de las cintas.
– Reducción de errores en el manejo de cintas.
– Mantenimiento por software de un inventario detallado de volúmenes (número de serie,
nombre de ficheros, localización, situación de uso y fecha de última limpieza de los meca-
nismos de arrastre).
– Reducción del espacio físico necesario para las librerías de cintas.
– Máxima seguridad para la información.
– Reducción del número de operadores.
El principal inconveniente de estos equipos es su costo (muy caro) y el espacio físico que requie-
ren, por ello su adquisición debe justificarse por un análisis del coste/beneficio riguroso. También de-
berá evaluarse la compatibilidad con equipo lógico de salvaguarda y recuperación ya instalado y con
el sistema de gestión de cintas actual, así como la integración y soporte con el sistema operativo.

12. DISCOS MAGNÉTICOS


En 1956 se comercializaron por primera vez los discos magnéticos. Sus antecesores fueron los
tambores magnéticos que ya en aquella época no se utilizaban. Los discos son dispositivos de alma-
cenamiento de acceso directo, llamados así porque pueden acceder a la información almacenada de
forma más inmediata que en las cintas magnéticas.
El soporte de la información es un disco recubierto por una fina película magnética, que gira a
una gran velocidad (unas 3000 rpm). El sistema puede tener una o varias cabezas de lectura/escri-
tura, (las primeros se denominan sistema de brazo a cabeza móvil y los segundos de cabeza fija o
cabeza por pista).
El disco está siempre girando, aunque debido a la inercia mecánica del disco, éste tarda un tiem-
po apreciable en alcanzar el régimen estable de su velocidad de rotación (no hace mucho los discos
más grandes llegaban a tardar minutos). Por lo general las cabezas de lectura/escritura no se apoyan
sobre la superficie sino que se encuentran a una distancia mínima de la superficie. Esto se consigue
debido al aire que desplaza el disco al girar con elevadas velocidades, efecto que hace además posi-
ble que la cabeza “planee” por encima, adaptándose a las irregularidades de la superficie.
Los cortes de alimentación constituyen un problema muy importante pues al disminuir la velo-
cidad de giro las cabezas pueden “aterrizar” (landing) sobre la superficie del disco y destruir la capa
magnética o destruirse ellas mismas. Para evitar este peligro existe un mecanismo que separa las
cabezas antes de que se pierda velocidad.
El sistema de disco puede tener una o varias superficies divididas en pistas, sectores y cilindros.
Una pista es la franja de disco que gira delante de una cabeza. El número de pistas es el de cabezas,
en un sistema de cabeza fija, y el de posiciones que puede tener el brazo, en un sistema de cabeza
móvil. A su vez las pistas se dividen en sectores, constituyendo un sector la unidad mínima de infor-
mación que se transfiere en un acceso. Si el sistema tiene varias superficies el conjunto de pistas a
las que se accede en una posición determinada del brazo constituye un cilindro.
El direccionamiento global de las unidades de disco comprende la sección de la cabeza corres-
pondiente, posicionamiento del brazo (si las cabezas son móviles) y selección del sector correspon-
diente. Para poder reconocer la información del disco hay que añadir una información de direcciona-
miento y, a veces, de sincronismo. El formato de grabación especifica esta información.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 135


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

Una operación de formateo incluye, al igual que en las cintas magnéticas, zonas reservadas o
gaps. Estos gaps se deben al tiempo de conmutación de la electrónica de la cabeza para pasar de
lectura a escritura y viceversa. Estas zonas son mucho menores que en el caso de las cintas.
Como se ha explicado anteriormente, la información se estructura en sectores, siendo un sector
la mínima cantidad de información que se transfiere en una operación de lectura o escritura. El for-
mato puede ser de tipo hardware o software. En el primer caso, existen unas marcas físicas fijas que
indican el comienzo de cada sector de tamaño fijo. En el segundo caso, suele existir una única marca
que indica el principio de las pistas que se denomina índice.

12.1. DISCOS FLEXIBLES


Los discos flexibles o disquetes son dispositivos magnéticos. Están compuestos de una lámina
magnética que se integra dentro de una cubierta de plástico o carcasa que lo protege. La superficie
de dicha lámina está formada por círculos concéntricos llamados pistas que, a su vez, se dividen en
varios sectores. Cada sector puede almacenar 512 bytes.
Cada vez que se lee o escribe en un disquete, éste tiene que ponerse en movimiento hasta alcan-
zar la velocidad adecuada, en oposición a los discos duros que se encuentran girando constantemen-
te. Esta diferencia es la principal causa de que el trabajo con discos flexibles sea más lento y de que
los discos duros resultan mucho más eficientes que los disquetes. Hoy en día todos los ordenadores
se suministran con un disco duro.
En el proceso de lectura, la cabeza de lectura-escritura traduce la señal magnética del disco en
una señal eléctrica interpretada en el ordenador. Ocurre lo inverso durante el proceso de escritura.
En estas operaciones la cabeza de lectura-escritura se apoya en el soporte, reduciendo la vida del
disquete. Para proteger la codificación de la superficie magnética debe evitarse exponer estos dispo-
sitivos a fuertes campos eléctricos y magnéticos, así como tocar con cualquier elemento la superficie
visible del disco.
Los disquetes son la solución a situaciones en las que se necesita un medio de almacenamiento
alternativo al disco duro, removible, bastante segura y con posibilidad de intercambio de información
entre sistemas compatibles sin realizar conexiones internas. Las principales ventajas son su precio y
compatibilidad.

12.1.1. Disquetes de 5¼ pulgadas (5¼”)


Están compuestos de una cubierta flexible de policloruro de vinilo, un revestimiento de un tejido
sintético y un disco delgado de poliéster recubierto de una capa magnética de óxido de hierro. Un
anillo de nailon refuerza el agujero central del disquete protegiéndole de desgastes, desgarros y rotu-
ras. La cubierta que protege el disquete está doblada alrededor del disco y su revestimiento, y posee
otro orificio a través del cual las cabezas de lectura-escritura acceden a la superficie del disco. Otro
componente del disquete es su funda, en la que se debe guardar éste cuando no se está utilizando,
para protegerlo del polvo, suciedad y otros contaminantes.
Los disquetes de 5¼ desaparecieron del mercado hace ya casi una década.

12.1.2. Disquetes de 3½ pulgadas (3½”)


Son funcionalmente idénticos a los de 5’25”, con ciertas mejoras estructurales que solucionan
las deficiencias de sus predecesores. Los disquetes de 3’5 pulgadas están provistos de una caja
plástica rígida que les ofrece mayor protección. También disponen de una portezuela metálica que es
deslizada por la disquetera cuando la cabeza de lectura-escritura efectúa una operación de lectura
o escritura.
Gracias a este diseño, estos dispositivos son más resistentes a dobleces, presiones, objetos
punzantes y otros contaminantes que habitualmente inutilizan los disquetes de 5’25“. La puerta
deslizante, por su parte, evita el contacto de la superficie del disco con elementos que no sean la
cabeza de lectura-escritura.

136 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

Respecto al mecanismo de rotación, el eje de la disquetera se fija a un eje de metal que se ex-
tiende en la parte inferior de la caja del disquete y está fuertemente adherido al disco. Para la lectura
y escritura de estos dispositivos, la superficie del disco gira en cualquiera de los dos sentidos delante
de la cabeza de lectura-escritura que posee la disquetera.
Además de las diferencias expuestas entre disquetes de 5¼ y 3½, se hace otra subdivisión den-
tro de cada tipo según la densidad o capacidad del disco. Existen disquetes de densidad doble (DD
Double Density) y de alta densidad (HD High Density). La diferencia entre los disquetes de doble y
alta densidad es muy simple: los segundos pueden almacenar el doble de información que los prime-
ros. Actualmente se utilizan casi en exclusiva los disquetes de 3½ de alta densidad.

12.2. DISCOS DUROS


Se denominan también discos fijos o Winchester. Este nombre se remonta al diseño de la unidad
IBM 3340 realizado en 1973, aplicándose a todas las unidades con soporte fijo.
Los discos de este tipo tienen superficie rígida y van sellados, de forma que evitan las partículas
de polvo y suciedad que existen en el medio ambiente. La mayor ventaja conseguida es que se puede
reducir la separación cabeza-superficie, alcanzando mayores densidades de grabación, una mayor
integridad de la información y un menor coste por bit.
Representan el medio de almacenamiento más extendido en microordenadores, estaciones de
trabajo, servidores, miniordenadores y grandes ordenadores centrales, debido a sus excelentes ca-
racterísticas de capacidad, fiabilidad y velocidad de acceso a los datos. Ofrecen la máxima relación
capacidad de almacenamiento/coste, con unos tiempos de acceso muy rápidos.
Los avances en las tecnologías de película magnética permiten que los datos sean grabados en
dominios cada vez más pequeños y que se sufran menos daños en el proceso de lectura-escritura.
Estas mejoras permiten discos con mayores densidades de almacenamiento y con unos tiempos de
acceso inferiores.
Los soportes de estos dispositivos giran a gran velocidad (más de 3.000 rpm), pero las cabezas
de lectura-escritura no tocan el soporte, se desplazan a una distancia del orden de 10-4 mm de la
superficie gracias al aire que desplaza el disco al girar, evitando así su desgaste. Para evitar el choque
de la cabeza con la superficie, existe un sistema que separa las cabezas antes de que el disco pierda
velocidad. El dispositivo incluye una circuitería electrónica, la controladora, que procesa el flujo de
datos que pasa a través de ella dándole formato para su transmisión y registro.

Discos magnéticos.
A la izquierda podemos apreciar un disco duro y a la
derecha una disquetera de 3½ pulgadas con un disco
sobre ella

Las características técnicas de estos periféricos son las siguientes:


– Tamaño: Diámetro exterior del disco. Existe una gran variedad de tamaños 3½, 5¼, 8,
10½, 11½ y 14 pulgadas.
– Densidad de grabación: Número de bits grabados por pulgada o bpi (bits per inch). Este
parámetro no es un número fijo para un mismo disco, ya que varía en función de la distancia
al centro del disco.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 137


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

– Capacidad de almacenamiento: Número de bits que pueden almacenarse en el disco. Hay


que distinguir entre la capacidad sin formatear y la formateada. La capacidad formateada se
refiere a la capacidad efectiva de almacenamiento una vez descontada la parte del disco re-
servada para la sectorización y formateo de los registros. La capacidad puede alcanzar varios
Gbytes por unidad y es el factor que más está evolucionando con los avances tecnológicos.
– Tipo y tamaño de los sectores: La sectorización puede estar físicamente integrada (hard-
ware) o grabada por un programa formateador (software). El tamaño de los sectores puede
variar de 128 a varios miles de bytes. Un tamaño de 512 bytes es bastante normal en discos
duros.
– Velocidad de rotación: se mide en revoluciones por minuto (rpm). En los discos duros este
parámetro alcanza fácilmente 3600 rpm.
– Tiempo de acceso: El tiempo de acceso de estos dispositivos viene dado por el tiempo que
tardan en posicionar el brazo en la lista deseada (tiempo de búsqueda), más el tiempo
que tarda la información de la pista en pasar delante de la cabeza por efecto de la rotación
del disco (tiempo de latencia). Estos tiempos dependen de la posición de partida y de la
posición deseada. No se tarda lo mismo en mover un disco de la pista 1 a la 2 que de la
1 a la 75. Por ello, los fabricantes suelen dar los valores medios y los peores. En unidades
Winchester de 5”1/4 el tiempo medio de acceso es de 15 a 25 ms y los máximos de 30 a
45 ms.
– Velocidad de transferencia: Es la velocidad medida en Mbytes/segundo de transferencia
de datos entre el disco y el procesador. Este parámetro depende de la velocidad de giro y la
densidad de grabación angular.
Las características más importantes de las unidades de disco son las siguientes:
– Memorias dinámicas de acceso directo.
– No volátiles.
– Permiten lectura y escritura. La lectura no es destructiva.
– Al contrario que las cintas, graban los caracteres en serie, pues las pistas empleadas son de
1 bit de ancho.
– Tiempos de acceso que pueden ser de unos pocos milisegundos en las unidades más rápi-
das.
– Se emplean como almacenamiento secundario o auxiliar.
– Velocidad de transferencia del orden de 176,51 Mbyte/s.
– La capacidad de almacenamiento alcanza varios Gbyte por unidad.
Existen tres diferencias fundamentales entre disquetes y discos duros:
– Transportabilidad: Los disquetes son independientes de la unidad de disquetes y se inser-
tan y extraen de ésta. Por el contrario, los discos duros permanecen fijos dentro de la unidad
central del ordenador. Existen discos duros removibles, pero son una excepción si conside-
ramos el número total de discos existentes.
– Capacidad: Los disquetes habituales que operan en un ordenador tienen una capacidad
máxima de casi 2 Megabytes, mientras que el disco duro más pequeño es de 20 Megabytes,
alcanzándose fácilmente hoy en día capacidades de 40 Gigabytes.
– Velocidad: Los discos duros son bastante más rápidos que los disquetes. La misma opera-
ción puede tardar 50 veces más sobre un disquete que sobre un disco duro.
– Modo LBA (Logical Block Addressing)
La capacidad de un disco duro se mide en tres valores: número de sectores por pista, número
de cabezas y número de cilindros. Esta técnica se conoce como CHS (Cylinder, Head, Sector). El
estándar IDE soporta 65.536 cilindros, 16 cabezas y 255 sectores por pista, dando una capacidad
total máxima de 137 GB.
Por su parte, la BIOS del PC soporta 1.024 cilindros, 255 cabezas y 63 sectores; ya que ambos
deben funcionar en conjunción, es el mínimo común denominador de ambos el que marcará la capa-

138 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

cidad definitiva, que será de 1.024 cilindros (máximo de la BIOS), 16 cabezas (máximo del IDE) y 63
sectores (máximo de la BIOS), originando un total de 528 Mb.
Para superar esta traba la BIOS debe implementar un modo de trabajo conocido como LBA, que
traduce el esquema CHS a otro de direccionamiento lógico. Esta operación es totalmente transparen-
te al sistema operativo y al software en general, y aporta la evidente ventaja de poder acceder a todo
el espacio disponible del disco duro del ordenador.
Cuando una BIOS no soporta esta técnica es preciso emularla por software; para ello, el
fabricante de la unidad suele poner a disposición del usuario utilidades especiales que, en forma
de driver residente, consiguen “engañar” al sistema y obtener el mismo efecto que el LBA por
BIOS.

12.3. DISCOS DE CARTUCHO REMOVIBLES


Combinan tiempos de respuesta cercanos a los discos duros fijos con la capacidad de almace-
namiento virtualmente ilimitada de los disquetes. Se pueden montar interna o externamente en la
unidad central. Tienen su aplicación más común en el traslado de grandes cantidades de información
entre ordenadores.
Su diseño se basa en un disco duro tipo Winchester contenido en un cartucho sellado que se
puede separar del resto del sistema de almacenamiento. Las cabezas magnéticas de lectura-escri-
tura se encuentran incluidas en el propio cartucho (son muy sensibles al medio) y se mueven muy
cerca de la superficie del disco, que gira sobre un eje imantado. Su funcionamiento es idéntico al de
un disco duro, con la salvedad que la capacidad de almacenamiento está limitada por el número de
unidades de cartucho disponibles. Uno de los modelos más famosos de disco de cartucho removible
es el Bernoulli.

12.4. OTROS
– Tarjetas PCMCIA (PC Memory Card International Association): Son dispositivos basados en
HDs diminutos, del tamaño de una tarjeta de crédito. Se utilizan generalmente en equipos
portátiles.
– Unidades ZIP: Estas unidades están adquiriendo una importante popularidad en el mercado
actual debido a su bajo precio y a su flexibilidad. Desde el punto de vista del usuario funcio-
nan como disquetes de alta capacidad. Son transportables, rápidas, se conectan al ordena-
dor fácilmente, tienen un cómodo formato y su capacidad supera más de 100 veces la de
un disquete de 3½, por lo que los hacen ideales para muchos segmentos del mercado.

Unidades ZIP de 100 (a la izquierda, sobre la que


descansa un disco) y 250 Mb (a la derecha), presen-
tando un tamaño más reducido que no debe confundir:
es más moderna, rápida y admite discos de mayor
capacidad que su antecesora

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 139


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

12.5. REDUNDANCIA (SISTEMAS RAID)


Las baterías de discos RAID (Redundant Array of Inexpensive Disks) ofrecen una alternativa a los
tradicionales sistemas de almacenamiento masivo (SLED, Single Large Expensive Disk). Las ventajas
de esta tecnología RAID son las siguientes:
– Alta disponibilidad: Existen unidades de disco dedicadas a la redundancia de los datos.
– Altas prestaciones: Mayor número de operaciones por segundo debido a su configuración
de discos en batería que posibilita el proceso de peticiones simultáneas.
– Bajo coste: Utilizan discos estándar del mercado.
– La tecnología RAID utiliza una arquitectura que protege y restaura los datos. Tras la sustitu-
ción de un disco averiado, se reconstruyen los datos a partir de la información almacenada.
El nuevo disco refleja todas las transacciones realizadas anteriormente y durante el fallo, por
lo que se impiden posibles pérdidas. A continuación se describen los niveles RAID:
– Nivel 0: No incorpora redundancia de datos. No obstante, almacena y recupera los datos
más rápido que trabajando con un único disco, gracias al empleo de una técnica denominada
distribución de datos, que divide los datos en segmentos transferidos a distintas unidades.
– Nivel 1 (discos espejo): Incluye dos unidades de disco: una de datos y una de réplica. Los
datos se escriben en ambas unidades. El disco redundante es una réplica exacta del disco de
datos (disco espejo). Los datos pueden leerse de cualquiera de las dos unidades. Si se avería
la unidad de datos, es posible acceder a la unidad de réplica y el sistema sigue funcionando.
Con este nivel se obtiene la misma velocidad de lectura-escritura que con una configuración
normalizada. Constituye la mejor opción para aplicaciones que conllevan un gran número de
operaciones de escritura. El mayor inconveniente es el coste de dos unidades.
– Nivel 2: Con un único disco de paridad sólo se detecta un único error, para recuperar más erro-
res son necesarios discos adicionales. El número de discos extra en el nivel 2 varía de 4 en
un grupo de 10 discos, hasta 5 discos en un grupo de 25. Este nivel cuenta con varios discos
para bloques de redundancia y corrección de errores. La división es a nivel de bit y el acceso
es simultáneo a todas las unidades tanto en operaciones de lectura como de escritura.
– Nivel 3: Proporciona seguridad gracias a la información de paridad almacenada en una úni-
ca unidad dedicada, siendo una redundancia más eficaz. Los datos se dividen en fragmentos
y se transfieren a los distintos discos en paralelo. Enviando más datos simultáneamente au-
menta la velocidad general de transferencia. Por ello este nivel es idóneo para aplicaciones
que transfieran grandes ficheros. No obstante, en aquellos entornos donde muchos usuarios
necesitan leer y escribir múltiples registros aleatorios, las peticiones de operaciones de en-
trada-salida simultáneas pueden sobrecargar y ralentizar el sistema.
– Nivel 4: Los bloques de datos se distribuyen entre un grupo de discos reduciendo el tiempo
de transferencia y explotando toda la capacidad de transferencia de la matriz de discos. Es
preferible al nivel 2 para pequeños bloques de datos, porque en este nivel, los datos son
distribuidos por sectores y no por bits. Otra ventaja frente a los niveles 2 y 3 es que simul-
táneamente puede estar activa más de una operación de lectura-escritura sobre el conjunto
de discos. El nivel 4 de RAID tiene división a nivel de bloques y el acceso al array de discos
es paralelo, pero no simultáneo. Posee un disco dedicado a paridad y corrección de errores.
La operación de escritura se realiza de forma secuencial y la de lectura en paralelo.
– Nivel 5: Las unidades de disco actúan independientemente, atendiendo sus propias opera-
ciones de lectura-escritura, lo que aumenta el número de ésta y mejora considerablemente
el tiempo de acceso, especialmente con múltiples peticiones de pequeñas operaciones de
entrada-salida. Asegura un mejor rendimiento de entrada-salida para aplicaciones con bús-
quedas aleatorias de muchos ficheros pequeños (aplicaciones transaccionales). El nivel 5
ofrece la posibilidad de soportar múltiples operaciones de escritura, de forma que los datos
pueden escribirse en un disco y su información de paridad en otro.
No existe una unidad dedicada para paridad sino que el controlador intercala los datos y la
paridad en todos los discos del subsistema. El inconveniente de este nivel es que presenta
una operación adicional de escritura al almacenar los datos, ya que tanto los datos como
la información de paridad se actualizan en operaciones y unidades de disco diferentes. Por

140 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

tanto, las aplicaciones con numerosas operaciones de escritura pueden sufrir descensos
en el rendimiento. No obstante, otras unidades de la batería pueden seguir leyendo datos
durante la operación de escritura, contribuyendo a mejorar el rendimiento general de la E/S
de la batería. Debido a la información de paridad, este es el más apropiado para aplicaciones
con un elevado número de operaciones de lectura respecto a las de escritura.
– Nivel 6: Añade un nivel más de discos, resultando una organización con dos dimensiones
de discos y una tercera que corresponde a los sectores de los discos. La ventaja consiste en
que se puede recuperar un error de entre dos discos y además es posible recuperar muchos
errores de tres discos. La operación de escritura es difícil debido a la necesidad de sincroni-
zar todas las dimensiones. Esta organización funciona como el nivel 0 de RAID en cada una
de las dos dimensiones de discos, y como el nivel 1 de RAID en la operación entre las dos
dimensiones de discos. El acceso es simultáneo en cada una de las dimensiones indepen-
dientes de discos.

RESUMEN DE LOS NIVELES RAID

Nivel Aplicaciones Ventajas Inconvenientes

Altas prestaciones sin Incremento velocidad de No resuelve el problema de la


0
redundancia acceso fiabilidad

Coste de duplicar el
Gran porcentaje de
1 Alta disponibilidad almacenamiento y no mejora
escritura sobre lectura
la velocidad de acceso

Grabación de datos
Menor porcentaje de
2 en distintos discos División a nivel de bit
escritura sobre lectura
simultáneamente

Más eficaz que el nivel 2


3 Científicas almacenando datos de
redundancia

Permite más de una


Pequeños bloques Acceso en paralelo a los
4 operación E/S activa sobre
de datos discos pero no simultáneo
los datos

Discos independientes. Gran


Descenso del rendimiento de
5 Transaccionales aumento de velocidad con
operaciones de escritura
pequeñas op. E/S

Alto coste y complejidad del


6 Cualquier tipo Mejor disponibilidad
sistema

Tabla resumen de las características de los distintos niveles RAID

13. MEMORIAS DE BURBUJAS MAGNÉTICAS


Las memorias de burbujas magnéticas fueron durante la década de los setenta una alternativa
frustrada para la sustitución de discos y tambores. Actualmente están completamente desfasadas.
Estas memorias se construyen depositando una fina capa de material magnético sobre una base
formada por un compuesto de galio. Esta capa magnética ha de tener una dirección de polarización
preferente perpendicular a la base. Aplicando los campos correspondientes, se pueden formar peque-
ños dominios magnéticos circulares o burbujas magnéticas.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 141


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

Dichas burbujas son estables, siempre que se mantenga el campo magnético de polarización.
Además, se pueden manipular haciéndolas avanzar, dividiéndolas, eliminándolas y detectándolas. Se
constituye así una memoria de propagación, en la que la existencia de una burbuja indica un 1 y su
ausencia un 0.
Las características de las pastillas de estas memorias son las siguientes:
– Capacidad del orden de 1 Mbit.
– Tiempo de acceso del orden de 10 ms. En la lectura hay que esperar a que las burbujas co-
rrespondientes al bucle interno deseado alcancen la conexión al bucle externo y circulen por
este bucle hasta el transductor de lectura, necesitando un proceso similar en la escritura.
– Velocidad de transferencia del orden de 150 Kbits/s.
– Memoria de propagación.
– No es volátil. Si se deja de alimentar, pero se mantiene el campo de polarización (por ejem-
plo mediante imanes permanentes), las burbujas se paran pero no desaparecen.
– El direccionamiento requiere grabar información de dirección con los datos.
– La lectura es destructiva: hay que reescribir lo leído para conservarlo.

14. DISCOS ÓPTICOS


Dispositivos de mayor capacidad de almacenamiento que los discos magnéticos. La funcionali-
dad de la cabeza de escritura es realizada por un rayo láser de gran potencia y como dispositivo de
lectura actúa un rayo láser de baja potencia. La superficie del disco no es de tipo magnético, sino que
está realizada en otros materiales según las diversas técnicas posibles: vidrio y plástico, compuestos
metálicos de óxidos ferrosos, aleación de oro y platino, etc.
La grabación de la información se realiza alterando la superficie con la producción de pequeños
hoyos. La existencia de un hoyo corresponde a bit 1 y la ausencia a bit 0. Cada bit de información
se denomina pit y apenas ocupa un micrón, lo que supone una densidad lineal de 5000 bpi. Estas
cifras, junto con la anchura de la pista, explican la gran compactación de información en este tipo de
dispositivo, que resulta en que un disco compacto almacena de 60 a 100 veces más información que
un disco magnético del mismo diámetro.
Otra ventaja es que son muy resistentes al polvo e incluso a los arañazos, aunque sus tiempos
de acceso sean algo peores que los de los discos magnéticos. Los diámetros actuales varían, sien-
do los más extendidos los de 12 cm. Estos últimos pueden almacenar entre 300 y 700 Mbytes de
información.
Los formatos de almacenamiento dependen de los sistemas empleados:
– Sistema CLV (Constant linear velocity): La velocidad de rotación es variable, en función de
la pista en la que esté situado el láser (cuánto más alejada del centro esté la pista, mayor es
la velocidad) consiguiéndose una densidad de bits constante y una capacidad de almacena-
miento grande.
– Sistema CAV (Constant angular velocity): Varía la densidad de bits y aumenta la velocidad
de transferencia pero la capacidad de almacenamiento es menor, pudiéndose observar a
simple vista que los discos están divididos en “gajos” (sectores).
– Sistema MCLV (Modified constant linear velocity): Combina los dos sistemas anteriores
proporcionando mejor tiempo de acceso y mayor capacidad.
Existen dos tecnologías principales de lectura:
– Refractiva: El haz de láser atraviesa el disco, el ángulo de salida cambia según el valor de
cada bit.
– Reflexiva: El láser se refleja en la superficie, el ángulo de reflexión cambia según el valor de
cada bit.

142 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

La escritura o grabación se realiza mediante tres métodos:


– Magneto-óptico: El haz del láser calienta una pequeña superficie del disco y provoca que
esa zona cambie sus propiedades físicas, haciéndola sea más reflexiva o más transparente.
– Cambio de fase: Utiliza el haz del láser para cambiar la fase de la estructura cristalina en
pequeñas porciones del disco, que de esta manera transmiten o reflejan más luz.
– Tinte de color: Usa el haz del láser para cambiar el color de pequeñas zonas del disco y
hacerlas más reflexivas o transparentes.
Los factores a tener en cuenta a la hora de evaluar un disco óptico son:
– Interfaz: IDE/EIDE, SCSI, USB, etc. (En próximos apartados estudiaremos los diferentes
tipos de interfaces).
– Tiempo de acceso: Una unidad de calidad dispone no debe presentar tiempos de acceso
por encima de los 100 ms.
– Tamaño del buffer: El tamaño más utilizado es de 128 Ks, pero algunas unidades ofrecen
256 o 512 Kbs. Las grabadoras aumentan este valor a 1, 2 o 3 Megas.

14.1. CDROM
Son unidades de sólo lectura, cuya aplicación principal es similar a la memoria permanente tipo
ROM o PROM. Son prácticamente iguales que los Compact Disc de música y se encuentra protegidos
por una carcasa de plástico. El tiempo de acceso varía de 100 a 250 ms y tiene una velocidad de
transferencia de hasta 200 Kbytes/sg. Ofrecen una capacidad de almacenamiento que oscila entre
500 y 700 Mb.
Como todo disco el CDROM gira dentro de la unidad gracias a un motor. A diferencia de los dis-
quetes y los discos duros, la lectura de un CDROM no se realiza por medios magnéticos sino ópticos.
La combinación de la velocidad del disco con la precisión del láser permite una gran capacidad de
lectura fiable en poco tiempo.
Un CD-R estándar está formado por tres capas principales: una capa plástica de protección, una
capa reflectante de aluminio, y una capa de policarbonato. Entre estas dos, hay una nueva capa com-
puesta de tinta orgánica fotosintética. El láser grabador marca físicamente una serie de pits –hendi-
duras–, con una potencia situada entre los 4 y los 8 milivatios, en la capa de tinta. Esta sustancia, al
recibir calor, se vuelve opaca, debido a una reacción química.
En estos dispositivos los datos binarios se presentan mediante combinaciones de pits a lo largo
de una espiral. Durante el proceso de lectura, el haz de un rayo láser recorre la espiral a una velo-
cidad lineal constante, interpretando los llanos y depresiones como unos y ceros, según la diferente
reflexión que experimenta el rayo cuando encuentra unos u otros.
Estos discos ofrecen una gran capacidad de almacenamiento en un espacio mínimo. Reciente-
mente la tecnología ha evolucionado acercando a los usuarios máquinas que permiten la grabación
de CD. Los primeros en aparecer fueron los llamados WORM. En estos aparatos es posible grabar
datos, mediante un haz de láser de más potencia, sobre un disco virgen, pero sólo una vez. Hoy,
sin embargo, esa tecnología ha evolucionado hacia los discos magneto-ópticos en los que mediante
tecnología láser se puede leer, grabar y borrar información tantas veces como se necesite.
La vida media de un CD es teóricamente ilimitada, dado que en lectura nunca hay contacto
físico con el disco. Las unidades de CD incluyen, además del mecanismo para la lectura, una tarjeta
controladora que se conecta en una ranura libre del ordenador y, si es necesario, los cables de ali-
mentación y conexión.
Para controlar de forma lógica la unidad de discos CDROM suele ser necesaria alguna exten-
sión de software para el sistema operativo instalado. En MSDOS, por ejemplo, esto se consigue
mediante una serie de controladores o programas especiales que se añaden a la configuración
del sistema. Habitualmente, las unidades de CDROM se comportan como unidades de disco duro
adicional, en las que se pueden ejecutar programas, importar ficheros o simplemente escuchar
música.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 143


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

Resumen de las características del CDROM:


– Dispositivos de sólo lectura
– Elevada fiabilidad
– Inmunidad a los campos magnéticos
– Gran capacidad
– Bajo coste
Los CDROM son muy adecuados para la edición y distribución de bibliografía, catálogos, manua-
les técnicos complejos, libros de referencia, ficheros de datos masivos, BDs, aplicaciones multimedia
y bibliotecas de imágenes fotográficas.

Una unidad CDROM con su disco

Los CD-ROM grabables se llaman CD-R, si se graban una sola vez, y CD-RW,
si pueden grabarse y borrarse varios miles de veces.

14.2. DISCOS WORM


Son unidades que pueden grabarse una sola vez y leerse posteriormente como un CDROM nor-
mal (Write Only Read Many). El tiempo de acceso es algo superior al de éstos y la capacidad algo
mayor. La velocidad de transferencia es superior llegando hasta los 3 Mbytes/segundo.
El proceso de grabación sobre un disco WORM virgen consiste en un haz de láser que evapora u
oscurece determinadas zonas de su superficie, grabando la información Los discos WORM se utilizan
para archivos de imágenes y mantenimiento del inventario de grandes BDs estáticas.

14.3. DISCO REGRABABLES O MAGNETOÓPTICOS


Ofrecen todas las prestaciones de los anteriores y el valor añadido de la posibilidad de borrar y
reescribir información.
La grabación y el borrado se realiza mediante la conjunción de un láser y un campo magnético.
El proceso de escritura se produce en dos pasadas, una para el borrado y otra para la escritura. En
la fase de borrado, el haz del rayo láser calienta a altas temperaturas la capa magnética, haciendo
que retenga la polaridad magnética cuando pasa la cabeza imantada, que la polariza con un valor
nulo (fase de borrado). Para el proceso de escritura se vuelve a calentar el medio, mientras el cabezal
magnético fija el sentido de polarización que representa los datos.
El material empleado cambia sus propiedades ópticas de acuerdo con su magnetización. La lec-
tura se hace ópticamente, empleando el mismo láser activado a menor potencia sin llegar a calentar
el soporte. La capacidad de almacenamiento varía entre 120Mb y 1’5Gb y algunos discos pueden

144 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

utilizarse por las dos caras. El tiempo de acceso y de transferencia son similares a los de los discos
WORM.
Con estas características, estos discos aglutinan las ventajas de fácil uso y transportabilidad de
los disquetes y la fiabilidad, durabilidad y capacidad de almacenamiento de los discos ópticos.
A la hora de evaluar una regrabadora, hay que analizar seriamente el software incluido. Debe
tratarse de versiones completas con soporte para todos los tipos de grabación posibles: multisesión,
DAO, TAO, por paquetes incrementales, etc.

14.4. DVD O VIDEODISCO


Un CDROM estándar almacena 640 Megas, mientras que un DVD-ROM varía entre los 4.7 y los
17 Gigas, en un soporte de las mismas dimensiones físicas. El lector DVD-ROM emplea un láser rojo
con una longitud de onda situada entre los 630 y los 650 nanómetros, frente a los 780 nanómetros
de los CDs convencionales. El tamaño de las pistas y los pits es más pequeño, aumentando conside-
rablemente su capacidad de almacenamiento.
NOTA: Un lector DVD puede leer discos DVD, CD-ROM, CD-R y CD-RW.

14.5. MEDIDAS DE VELOCIDAD


La velocidad de las unidades CDROM, CD-R y CD-RW se mide en múltiplos de 1X, que equivale a
150 Kb/s. Por tanto, un lector 40X funcionará a una velocidad máxima de 40x150=6.000 Kb/s.
Aunque actualmente existen modelos a 52x, en la práctica nunca se alcanza esta tasa. Por ejem-
plo, un lector 40x no es el doble de rápido que otro 20x, pues depende del tipo de datos, su tamaño,
y cómo se encuentren almacenados en el CDROM.
Las grabadoras/regrabadoras emplean dos valores, uno correspondiente a la lectura, y otro a la
escritura. Los modelos más modernos de unidades CD-RW leen a 24x y graban a 4x o 6x.
Los lectores DVD-ROM también utilizan el valor X, pero de forma distinta. En este caso el factor
1x ronda los 1.000 Kbs/s. Por tanto, los lectores DVD 6x (los más rápidos al día de hoy), leen a 6.000
Kbs/s, equivalente al factor 40x de un CD-ROM.

15. DISPOSITIVOS DE ALMACENAMIENTO PORTÁTIL

15.1. TARJETAS DE MEMORIA


Las tarjetas de memoria Flash poco a poco se están introduciendo en el mercado. Aún todavía
no se ha producido su explosión comercial a gran escala, de momento han monopolizado algunos
ámbitos, como las cámaras digitales o los ordenadores de mano.
Las tarjetas de memoria han sido también señaladas como los estándares de almacenamiento
del tercer milenio. Estos nuevos componentes ofrecen una capacidad de un Gigabyte que puede
esconderse en la palma de una mano. Sin duda, constituyen un ejemplo claro de lo que depara el
futuro de la informática: más capacidad, más velocidad y menor tamaño.

15.1.1. PCMCIA
PMCIA, la Asociación Internacional de Tarjetas de Memoria para Ordenadores Personales estable-
ció el primer estándar del mismo nombre en 1990 (versión 1.0). Posteriormente se ha ido actualizan-
do hasta la versión 8.0. Se trata de una tarjeta de considerables proporciones si la comparamos con
el resto de tarjetas posteriores, pero que se ha convertido en un estándar para PC portátiles.
NOTA: PCMCIA (Personal Computer Memory Card International Association).

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 145


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

Se trata de tarjetas completamente Plug&Play que no necesitan un controlador adicional, ya que


lo llevan incorporado junto con la CIS (Card Information Structure).

Tarjeta PCMCIA y sus especificaciones de tamaño

Su principal beneficio es su gran heterogeneidad. Pueden constituirse como puerto Ethernet,


terminal GPS, puerto Wireless LAN, puerto paralelo, adaptador SCSI, capturadora de vídeo, disco
duro, etc.
Las características más importantes de esta especificación son:
– Interfaz de conexión de 68 pines.
– 3 formatos disponibles (Tipo I, Tipo II y Tipo III). Las veremos a continuación.
– Incluye un sistema de información sobre la estructura de la propia tarjeta (CIS) que describe
características y capacidades para una configuración automática.
– Soporte para dos voltajes (3,3 y 5 voltios).
– Estándar PC Card ATA o modo de funcionamiento IDE.
– Posibilidad de captura de vídeo.
– Diversas funcionalidades heterogéneas (tarjetas inalámbricas, Bluetooth, etc.).
– Funcionamiento en 16 bits (velocidad de 8 MHz o 15,26 MB/s de ancho de banda) y Card-
bus de 32 bits (33 MHz, ancho de banda de 132 MB/s). Estas últimas sólo funcionan a 3,3
voltios y permiten su extracción “en caliente”, cosa que no permitían las anteriores.
Las tarjetas PC Card Tipo I tienen 3,3 mm de grosor y suelen dedicarse al almacenamiento con
memorias Flash, RAM, SRAM y OTP (One Time Programable, programables una sola vez).
Las PC Card Tipo II disponen de 5 mm de grosor y se utilizan normalmente para incorporar módu-
los con funciones adicionales (módem, tarjeta Ethernet, discos duros magnéticos...).
Una PC Card Tipo III, con 10,5 mm de grosor, utiliza un espacio correspondiente a dos huecos
para el Tipo I o II. Suelen dedicarse al almacenamiento e incorporan en su interior un disco magnético
como los utilizados en los discos duros.

Tipos de tarjetas PCMCIA. Todas las PC Card pueden insertarse en zócalos diseñados para el tipo superior, pero el tipo superior
no puede insertarse en el zócalo destinado al inferior

146 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

CURIOSIDAD:
La SDMI (Secure Digital Music Initiative, Iniciativa para la Música Digital Segu-
ra), bajo la tutela de la RIAA (Asociación Americana de la Industria Discográfica),
agrupa a 200 compañías y sellos discográficos como EMI o Warner. Su objetivo es
crear un estándar de seguridad para la protección de archivos musicales digitales.
Actualmente, la versión 1.0 se basa en marcas de agua, sistema desarrollado
por Verance Corporation (www.verance.com). Una variante de esta tecnología viene
siendo utilizada en España por la sDae (Sociedad Digital de Autores y Editores) y la
SGAE (Sociedad General de Autores y Editores) para identificar las obras musicales
del repertorio de sus socios y así perseguir las copias ilegales mediante su rastrea-
dor de Internet Araña.
Con una variante de este mismo sistema, la SDMI persigue impedir las copias
ilegales mediante su encriptación. Para poder ser utilizado, las tarjetas de memoria
que lean el archivo deben disponer de una identificación particular –ID– y el disposi-
tivo lector debe ser compatible con este sistema –actualmente no existe ninguno–.
Las marcas de agua son un código que se inserta en el archivo, inaudible por el
oído humano, pero identificable por software o por reproductores que lo soporten.

15.1.2. CompactFlash
El estándar CompactFlash (CF), basado en el estándar PCMCIA, fue aprobado por la Asociación
CompactFlash (CFA) establecida en octubre de 1995 por 12 compañías.
Su premisa partió de introducir una nueva clase de almacenamiento de bajo peso y bajas nece-
sidades energéticas. Las funciones serían capturar, retener y transportar datos, audio e imágenes.
Actualmente 205 compañías son miembros de la asociación.
En cuanto a tamaños, podemos encontrar las CF Tipo I de 3,3 milímetros de grosor y la CF Tipo
II de 5 milímetros. Las CF I pueden ubicarse en puertos para CF I y II, pero las CF II sólo encajan en
puertos CF II.
El último estándar aprobado es la versión 1.4, e independientemente de las anteriores divisio-
nes recoge otras dos: por un lado están las CompactFlash que se identifican como dispositivos de
almacenamiento (con memoria Flash) y por otro las CF+, con funciones adicionales: incluir discos
magnéticos (no memoria Flash), módulos adicionales de comunicaciones (Ethernet, módem, Blue-
tooth, Wireless LAN, etc.) u otro tipo de módulos (cámaras fotográficas digitales). Ambas pueden ser
de tipo I o II.
Las tarjetas CompactFlash de almacenamiento están diseñadas a partir de tecnología Flash, so-
lución basada en un chip de memoria no volátil que no requiere energía constante para mantener los
datos de forma indefinida. Su principal beneficio es que se trata de un dispositivo pequeño y portable,
y muy resistente, ya que no tiene piezas móviles.
Una tarjeta CompactFlash (CF) incluye un único chip controlador y un módulo que puede consistir
en memoria Flash o en un módulo complementario con diversas funciones: módem, tarjeta Ethernet,
Bluetooth, Wireless LAN, puerto adicional USB, etc. En una tarjeta CompactFlash de almacenamien-
to, el controlador gestiona los protocolos de intercambio, el almacenamiento de datos, su propia
alimentación y dispone de un sistema propio de diagnóstico y corrección de errores. El controlador de
las CF+ puede incluir más funciones, debido a la heterogeneidad de los módulos instalables.
Todas las CF están debidamente identificadas con la información contenida en CIS (Card Infor-
mation Structure). Estos registros de configuración describen la funcionalidad y características de la
tarjetas. De este modo favorecen el acceso a la información.
Relativamente reciente (mayo de 2001) es la aprobación por parte de la asociación Compac-
tFlash del sistema de codificación CPRM (Content Protection for Recordable Media) para las futuras
tarjetas Secure CompactFlash, entre otros proyectos. Las tarjetas Secure CompactFlash son com-
pletamente compatibles hacia atrás con las CF.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 147


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

De acuerdo con SDMI cada CF lleva su propio ID para proteger el copyright. Ese identificador
es usado para desencriptar la música que es descargada o comprada. Sin embargo, todavía no hay
ningún reproductor MP3 que utilice este sistema de seguridad.

Tarjetas CompactFlash de diferentes capacidades

15.1.3. SmartMedia
El estándar SmartMedia fue aprobado por la asociación PCMCIA en 1999. Desarrolladas por Tos-
hiba y Samsung, las tarjetas SmartMedia o SSFDC (Solid State Floppy Disk Card) luchan por hacerse
un hueco en el mercado.
Utilizan un terminal de 22 contactos. Disponen de capacidades entre los 8 y 128 MB y no dispo-
nen de controlador como las CF. El hecho de no disponer de controlador reduce costes, pero obliga a
tener que ubicarlo en los dispositivos lectores (cámaras, reproductores MP3, etc.).
El aspecto negativo es que algunos dispositivos no reconocen las nuevas tarjetas. Están dis-
ponibles dos versiones, 5 y 3,3 voltios, pero soporta ambas la vez como las tarjetas CF. El tamaño,
eso sí, es mucho menor, sobre todo en grosor (0,76 mm). Internamente, se trata de una memoria
formateada en FAT DOS.
El estándar recoge dos tipos de SSFDC dependiendo de la memoria que lleven. Por una parte es-
tán las que disponen de memoria Flash y por otra las que tienen Mask ROM. La Mask ROM funciona
igual que la memoria Flash pero no se puede grabar sobre ella. Por ejemplo, las casas discográficas
pueden utilizarla para grabar música original y que se pueda escuchar en reproductores MP3. La me-
moria Flash siempre funciona con 3,3 voltios y la Mask ROM puede utilizar ambos (3,3 y 5).
Por otro lado, si la tarjeta monta memoria Flash, puede incluir dos chips en vez de uno, lo que
aumenta su capacidad. Una tarjeta SSFDC con memoria Flash que utilice 3,3 voltios tendrá una
muesca en su parte superior derecha. Las que soporten 5 voltios la llevan en la parte superior iz-
quierda. Esto impide utilizar tarjetas en dispositivos no preparados a tal efecto. Las tarjetas SSFDC
también llevan protector en forma de círculo, para evitar escrituras no deseadas, que se puede tapar
con una pegatina.
Estas tarjetas, al igual que las CF, llevan un único identificador ID diseñado para evitar la dupli-
cación de música pirata. También tienen un sistema propio de detección y corrección de errores para
las transacciones de datos. Pese a no tener controlador, las tarjetas SmartMedia sí disponen de CIS
(Card Information Structure), que informa sobre su estructura e identifica el dispositivo.
Respecto a las primeras memorias, se ha mejorado en velocidad al utilizar la Flash NAND, desa-
rrollada por Toshiba, ya que las transacciones de datos se realizan en pequeños paquetes (512 kB
para la escritura, 8 y 16 kB para el borrado). No dispone de más posibilidades como la CF, así que no
se pueden utilizar módulos, como módems o tarjetas de red. Físicamente está realizada sin soldadu-
ras, el chip se fija con resina a la base y los contactos se ubican sobre la misma.

148 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

CURIOSIDAD:
Para almacenar grandes cantidades de imágenes
sin tener que salvarlas en el PC cada vez que se llene la
tarjeta de memoria, existen discos duros portátiles bajo
la forma de un lector de tarjetas CompactFlash y Smar-
tmedia. El dispositivo realiza un volcado completo de la
tarjeta de memoria insertada, posibilitando su reutilización
inmediata. Además, utilizando adaptadores, admite Multi-
mediaCard, Secure Digital y Memory Stick. Puede alimen-
tarse desde un automóvil o desde la red eléctrica, aunque
no puede editar las imágenes o borrar el contenido de la
tarjeta de memoria. Se conecta al PC a través del puerto
USB y puede montar discos duros de distintas capacida-
Tarjeta SmartMedia des (10, 20 o 30 GB).
acompañada de un adaptador

15.1.4. IBM Microdrive


Cumpliendo la especificación CF+ Tipo II, IBM ha conseguido introducir un pequeño disco duro
magnético y sus correspondientes cabezales dentro del espacio de una CompactFlash Tipo II. Tiene
un reducido precio pero mayor fragilidad que el resto de tarjetas.
En principio, todos los dispositivos compatibles con CF Tipo II lo son con la IBM Microdrive. Para
su funcionamiento con Windows CE previo a la versión 3.0 y Windows 95/98 es necesario instalar
algunos controladores incluidos con el producto o descargables de la web de IBM.

Unidad Microdrive de IBM

Las especificaciones oficiales de este dispositivo son:


– Velocidad rotación: 3.600 RPM
– Transferencia: 4,85 a 7,49 MB/sec
– Tiempo de acceso: 12 ms
– Alimentación: 3,3 y 5 voltios
– Dimensiones: 42,8 x 36,4 x 5 mm
– Peso: 16 gramos
– Temperatura de trabajo: 0 a 55 ºC

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 149


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

15.1.5. Multimedia Card


Con unas reducidas dimensiones, la MultiMediaCard (MMC) es una de las tarjetas de memoria
más pequeñas que existen. Las funciones que puede desarrollar esta tarjeta son paralelas a las de
las CF: pueden usarse con memoria Flash en diversos dispositivos multimedia o utilizar módulos adi-
cionales, función esta última que no se ha desarrollado comercialmente.
Esta especificación, desarrollada en principio por Sandisk y Siemens, está regida por la Aso-
ciación MultiMedia Card, que en 1998 estableció sus características principales. Dispone de un
método propio de detección y corrección de errores, se conecta a los dispositivos mediante un puerto
de 7 pines y para su identificación dispone de CID (Card Identification Number), que coincide en
funciones con el CIS de las tarjetas CompactFlash.
Utiliza un controlador dividido en dos partes que se ocupa de la gestión de la memoria y de la co-
municación con los dispositivos a los que se conecta. Actualmente, la última versión es la 3.2. Cada
tarjeta dispone de un número de identificación ID cuya finalidad es la protección del copyright musi-
cal. En 2001 se aprobó Secure MMC, para el intercambio seguro de archivos y su almacenamiento
mediante un nuevo módulo de encriptación dedicado en el controlador de la tarjeta.
Otra de las principales características de la MMC es la posibilidad de trabajar en modo SPI (Serial
Peripheral Interface), que disminuye mucho el rendimiento. Utilizando este protocolo, que suele em-
plearse en dispositivos de comunicación, la identificación de la tarjeta mediante CIS es sustituida por
la señal CS (Chip Select), la transferencia de archivos es mucho más lenta y unidireccional.

Tarjeta MultimediaCard

15.1.6. Secure Digital


En 1999, un consorcio integrado por Panasonic, Sandisk y Toshiba desarrolló una tarjeta que
evoluciona desde la MultiMediaCard hasta un nuevo formato denominado Secure Digital.
Los avances respecto a MMC incluyen la protección criptográfica de datos con copyright, au-
mento en 2 pines usados para la transmisión de datos (se consigue más velocidad de transferencia),
aumento en 5 MHz de frecuencia, incorporación de una pestaña para la protección de escrituras no
deseadas (sólo en el modelo de 2,1 milímetros de grosor) y aumento en la capacidad.
NOTA: A simple vista, las diferencias respecto a la MMC se pueden percibir
en un ligero aumento del grosor –de 1,4 a 2,1 milímetros– y en los dos contactos
adicionales.
Otra característica a tener en cuenta es su compatibilidad hacia atrás con las tarjetas MMC, y de
éstas con los dispositivos SD. Es posible su uso pero, por ejemplo, no podríamos leer en un disposi-
tivo SD los datos grabados en uno MMC, ya que los formatos son distintos. Sí podríamos utilizar una
tarjeta SD para grabar nuevos datos y leerlos en el dispositivo MMC, ya que la asignación de pines y
protocolos de transferencia son compatibles con los dispositivos MMC.
El nivel de seguridad de estas tarjetas es mucho más amplio que el de las MMC, ya que pueden
actualizarse para cumplir las especificaciones futuras de protección de seguridad de la asociación
SDMI. Igual que la MMC, incluye controlador embebido en la tarjeta y sistema propio de detección
y corrección de errores. Además, permite la desconexión en caliente y puede proteger su contenido
mediante clave.

150 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

En su especificación se recogen dos tamaños posibles: 2,1 y 1,4 milímetros de grosor. Puede
utilizar memoria Flash, ROM, comunicarse mediante los protocolos Secure Digital o SPI. Por otro lado,
no incluye la posibilidad de soportar dispositivos de entrada y salida (modems, puertos USB).

Tarjetas SecureDigital (SD). Las SD podrían confirmarse como la alternativa más seria a las tarjetas SmartMedia.

15.1.7. MemoryStick
La tarjeta más “estirada” de todas es obra de Sony. Se basa en memoria Flash, pero con la
posibilidad de montar diversos módulos, esta especificación tiene aplicación asegurada en varios
dispositivos de Sony: cámaras fotográficas, reproductores MP3, ordenadores portátiles, etc.
Físicamente se trata de una tarjeta alargada finalizada en un extremo con 10 pines y una mues-
ca. Exteriormente podemos distinguir un conector para evitar el borrado involuntario. Dispone de con-
trolador, posibilidad de montar memoria Flash o módulos de comunicaciones y sistema de protección
de errores. Es de color azul, que sería blanco si la tarjeta fuera MagicGate Memory Stick (que dis-
pone de un nuevo sistema de desencriptación para el formato ATRAC3 –utilizado por los MiniDisc–).
Se trata de un nuevo formato de audio comparable en calidad al MP3. Sólo los lectores que puedan
descodificar ATRAC3 (Adaptive Transform Acoustic Cording) podrán utilizar un MagicGate Memory
Stick. Otro tipo de contenidos, datos, fotos o archivos, no está protegido con este sistema.
Un nuevo formato, el Memory Stick Duo, reduce el tamaño y el peso a casi la mitad. Se utiliza
para dispositivos ultra compactos, pero mediante un adaptador también puede utilizarse en las tra-
dicionales ranuras Memory Stick. Tiene un controlador interno dedicado y utiliza un protocolo único
para Memory Stick. Dispone de sistema de detección y corrección de errores. Utiliza memoria Flash
NAND, empleada actualmente por casi todas las tarjetas que utilizan memorias Flash, que permite
borrar y escribir en bloques.

Tarjetas MemoryStick

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 151


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

15.1.8. xD-Picture Card


XD-Picture Cards son actualmente las tarjetas de memoria especializadas para fotografía digital
más pequeñas del mercado. A pesar de su pequeño tamaño, son capaces de albergar desde 256 Mb
hasta 8 Gb en un futuro próximo. Estas tarjetas se diseñan con el propósito de utilizarse especialmen-
te en las modernas cámaras de fotos digitales de varios megapíxeles de resolución.
Se basan en una tecnología de memoria de estado sólido no volátil y no presentan partes mó-
viles. Poseen un tamaño y diseño muy compacto, además de un requerimiento mínimo de energía,
que las hace ideal como dispositivos ligeros y de bajo consumo. Tienen además una gran tolerancia
a condiciones ambientales extremas. Existen adaptadores para su uso con otros sistemas ya estudia-
dos anteriormente como CF, puertos USB, etc.

CONCLUSIÓN: Como podemos comprobar, actual-


mente existe un exceso de formatos en cuanto a tar-
jetas de memoria de pequeño tamaño. Sin embargo,
parece que las tarjetas CompactFlash son el estándar
más usado para dispositivos de pequeño tamaño. Son
más rápidas y disponen de más capacidad que otras de
la competencia.
Tarjetas XD-Picture de diferentes capacidades

15.1.9. Lectores y Adaptadores de Tarjetas


Un lector de tarjetas es un periférico que se conecta al ordenador, ya sea mediante algún puerto
externo (generalmente USB) o que se incorpora en la propia carcasa del ordenador, cuya función
principal es permitir el acceso de los programas al espacio de almacenamiento de las tarjetas.
Estos dispositivos se comercializan acompañado de su controlador correspondiente y general-
mente aparecen como una unidad más (o un conjunto de ellas) en el explorador de windows. A partir
de ese momento el acceso a las tarjetas se realiza como si fuesen una unidad más del sistema,
posibilitando todas las operaciones típicas con los archivos (escribir, leer, mover, borrar, etc.).
En un principio existían lectores específicos para cada tipo de tarjeta, de hecho aún actualmente
es fácil encontrarlos en el mercado, pero últimamente se están imponiendo con fuerza los lectores
multitarjetas que, como su propio nombre indica, permiten el uso de tarjetas de diferentes formatos,
con las ventajas obvias que esto supone.

Lector externo de tarjetas de múltiples formatos.


Obsérvese las diferentes ranuras
preparadas para albergar las tarjetas

152 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

Por otra parte, también existen en el mercado adaptadores que permiten el uso de una tarjeta
con la interfaz de otra, en otras palabras, los adaptadores facultan el uso de una tarjeta en dispositi-
vos preparados para otro tipo.

Adaptador de Smartcard a Compactflash

15.2. PENDRIVES
Hasta ahora, para transferir datos desde un ordenador a otro teníamos que utilizar varias cajas
de disquetes, grabar un CDROM, trasladar físicamente el disco duro. Existe la posibilidad adicional
de enviar un e-mail, pero esto requiere mucho tiempo de transferencia cuando se trata de un gran
volumen de datos.
La solución revolucionaria a este problema aparece con los dispositivos PenDrive. Acceder a
datos y transportarlos nunca ha sido tan sencillo.
PenDrive es un dispositivo USB de memoria flash, capaz de soportar hasta 2GB de espacio de
disco. PenDrive es plug and play, se enchufa simplemente en cualquier puerto USB y el ordenador lo
detecta automáticamente, pudiéndose leer, escribir, copiar, borrar y mover datos desde el disco duro
al PenDrive o viceversa. En los modelos más avanzados se puede incluso reproducir archivos MP3,
ejecutar aplicaciones, visualizar pequeños vídeos directamente desde el PenDrive, etc.
El PenDrive USB de memoria flash se ha convertido en la llave para transportar datos.
Los PenDrive también soportan flash ROM (EEPROM) para ISP (In-System Programming), que
permite actualizar el firmware del sistema en cualquier momento a través del puerto USB. Para reque-
rimientos de seguridad, se incluye una pestaña de protección contra escritura y borrado.
La PenDrive es muy compacta, se puede transportar a cualquier parte metida en un bolsillo, cartera o
incluso como un llavero. Actualmente presenta varias capacidades de almacenamiento, desde 32MB has-
ta 2GB. Además no requiere batería, ni software, ni cables, y es compatible con cualquier puerto USB.
Podemos resumir las características de un PenDrive como sigue:
– Soporta flash ROM (EEPROM) para ISP (In-System Programming) a través del puerto USB. Es
posible cambiar/actualizar el firmware del sistema a través del puerto USB.
– Memoria flash de 32, 64, 128, 256 y 512Mb, 1 y 2Gb.
– Soporte USB 1.1 y USB 2.0
– Ratio de transferencia de hasta 12Mbit/s
– Soporte power saving para reducir el consumo de potencia
– LED indicador de uso
– Switch de protección escritura/borrado (incluidas o no según
marca)
– Hot Plug & Play: Capacidad de instalación/desinstalación en
cualquier momento
– Almacenamiento duradero: más de 10 años de retención de Uno de los muchos diseños
datos que existen de PenDrive

– No requiere alimentación externa, se suministra por el bus USB

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 153


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

15.3. UNIDADES EXTERNAS MULTIFUNCIÓN


Ante la proliferación de tarjetas de memoria y un cúmulo de necesidades variadas (transportar
grandes cantidades de información, liberar las tarjetas de las cámaras fotográficas, escuchar música en
formato MP3, etc.) surgen los dispositivos multifunción cuyas características pasamos a describir:
– Capacidad de Almacenamiento interno Ilimitado: Estos dispositivos funcionan con dis-
cos duros de 2,5 pulgadas extrafinos (Slim) de cualquier capacidad. Se pueden comprar con
disco preinstalado o bien instalar el suyo propio.
– Solución Compacta y Ligera: Dispositivo ligero, pequeño y fácilmente transportable.
– Compatible con todas las Tarjetas de Memoria - No necesita Adaptador: Funciona con
todas las tarjetas de memoria utilizadas por las cámaras digitales del mercado actual: Com-
pactFlash I/II, IBM Microdrive, SmartMedia, Memory Stick, Memory Stick Pro, Secure Digital
y MultiMediaCard.
– Rápida velocidad de Transferencia: La transferencia de ficheros desde una tarjeta de
memoria es efectuada rápidamente. La transferencia de ficheros desde y hacia el ordenador
se hace vía USB 2.0.
– Pantalla LCD: Suelen disponer de una pequeña pantalla LCD (de unas 3”) que muestra
información variada: el estado de funcionamiento, transferencia de ficheros, cantidad de
batería disponible, ficheros almacenados, etc.
– Batería Recargable: Estos dispositivos se alimentan de baterías Lithium recargable con
diferentes capacidades de utilización a plena carga.
– Otras funciones: Según los fabricantes y los modelos podemos encontrar una amplia va-
riedad de funciones adicionales, por ejemplo la operación de copiado o volcado de memoria
desde una tarjeta pulsando un solo botón, entre otras muchas.

Dispositivo multifunción portátil. En la vista de la izquierda se pueden apreciar las ranuras de conexión para las tarjetas de me-
moria; a la derecha se ha configurado como un reproductor MP3 portátil

16. MÉTODOS DE CONEXIÓN


Los dispositivos de almacenamiento se comunican y conectan al ordenador mediante el bus de
expansión. Existen varios estándares industriales:

154 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

– ST506
– ESDI (Enhanced Small Device Interface), este último ya en desuso.
– IDE (Integrated Drive Electronics)
– EIDE (Enhanced IDE)
– SCSI (Small Computer System Interface)
• SCSI-2
• Fast SCSI-2
• Fast/Wide SCSI-2
• Ultra SCSI

16.1. ST506
Los primeros discos duros en ordenadores personales eran gestionados por controladoras ST506,
un estándar creado por la conocida empresa Seagate. Dentro de esta norma se implementaron los
modos MFM y RLL, dos sistemas para el almacenamiento de datos que, si bien diferentes en su
funcionamiento, a nivel físico y externo del disco presentaban la misma apariencia.
Estas unidades incluían externamente tres conectores: el primero, y común a cualquier disco
duro, es el de alimentación. En los restantes se conectaba un cable de control y otro de datos desde
el disco a su controladora. El cable de control gestionaba la posición de los cabezales, y el de datos
transmitía el flujo de información desde y hasta la controladora.
NOTA: La diferencia entre MFM y RLL es a nivel interno; MFM (Modified Fre-
quency Modulation) y RLL (Run Length Limited) son dos métodos de codificación
de la información binaria.
RLL permite almacenar un 50% más de datos que el MFM, al aumentar la densidad de almace-
namiento. También la tasa de transferencia es superior en RLL, debido al más eficiente método de
grabación usado; sin embargo, la velocidad de rotación era la misma en ambos casos: 3.600 rpm.
En cualquier caso, la tasa de transferencia de estas unidades no era muy alta: una media de
5 Mbits/s en MFM y 7.5 Mbits/s para RLL. La capacidad de las unidades MFM no superaba los 40
Megas, mientras que RLL llegaba hasta 120.

16.2. ESDI
Esta interfaz supuso un importante respecto a la anterior técnica. ESDI (Enhanced Small Devices
Interface) significa precisamente “interfaz mejorada para dispositivos pequeños”. Para empezar, una
parte de la lógica decodificadora de la controladora se implementó en la propia unidad, lo que permi-
tió elevar el ratio de transferencia a 10 Mbits por segundo. Asimismo, se incluyó un pequeño buffer
de sectores que permitía transferir pistas completas en un único giro o revolución del disco.
No obstante, estas unidades no se extendieron demasiado; únicamente compañías como IBM
(muy aficionadas a tecnologías propietarias) fueron las que lo emplearon con profusión en sus máqui-
nas. La capacidad de estas unidades no solían superar los 630 Mb, y en cualquier caso, se trató de
una tecnología de transición, ya que poco tiempo después tuvo lugar un salto cuantitativo y cualitativo
muy importante, con la interfaz que se detalla a continuación.

16.3. EL ESTÁNDAR IDE


IDE (Integrated Drive Electronics) fue creado por la firma Western Digital por encargo de Compaq
para una nueva gama de ordenadores personales. Su característica más representativa era la imple-
mentación de la controladora en el propio disco duro, de ahí su denominación.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 155


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

Ahora únicamente se necesita una conexión entre el cable IDE y el Bus del sistema, siendo po-
sible implementarla en la placa base. Igualmente se eliminó la necesidad de disponer de dos cables
separados para control y datos, bastando con un cable de 40 hilos desde el bus al disco duro. Se
estableció también el término ATA (AT Attachment), que define una serie de normas a seguir por los
fabricantes de unidades de este tipo, y que veremos a continuación.
IDE permite transferencias de 4 Mb por segundo, aunque dispone de varios métodos para realizar
estos movimientos de datos. La interfaz IDE supuso la simplificación en el proceso de instalación y con-
figuración de discos duros, y estuvo durante un tiempo a la altura de las exigencias del mercado.
No obstante, no tardaron en ponerse de manifiesto ciertas limitaciones en su diseño. Dos muy
importantes eran de capacidad de almacenamiento, de conexión y de ratios de transferencia. En
efecto, la tasa de transferencia se iba quedando atrás ante la demanda cada vez mayor de presta-
ciones por parte del software. Asimismo, sólo podían coexistir dos unidades IDE en el sistema, y su
capacidad (aunque esto no era del todo culpa suya, sino también de la BIOS) no solía exceder los
528 Megas. La mejora vendría de la misma empresa que creó este estándar.
Las ventajas de las interfaces IDE son su facilidad de instalación y su precio. Actualmente existen
capacidades de almacenamiento desde 40 MB hasta 1 GB. Con esta interfaz sólo se pueden contro-
lar dos unidades. Además, cuando se desea instalar un nuevo disco, éste se conecta en daisy-chain
al primero, atendiendo a una configuración maestro-esclavo. La velocidad de transferencia que ofrece
esta interfaz llega hasta los 4 MB/s.

Modos de transferencia
Los dispositivos IDE pueden transferir información principalmente empleando dos métodos:
– PIO (Programmed Input/Output): Método de transferencia entre dos dispositivos que depen-
de del procesador para efectuar el trasvase de datos. A nivel de rendimiento no hay mayor
problema, ya que los micros actuales tienen la suficiente capacidad para gestionar estas
operaciones y alternarlas con otras.
ATA utiliza PIO y define la velocidad de transferencia en términos de “modos PIO” según la
siguiente tabla:

Modo PIO Tasa de transferencia (MBps) Estándar


0 3.3 ATA
1 5.2 ATA
2 8.3 ATA
3 11.1 ATA-2
4 16.6 ATA-2

EIDE (que veremos a continuación) amplió los modos PIO al 3, y estableció el MultiWord
DMA 1; con ello se logró una tasa de 11 o 13 Megas/s, dando lugar al término Fast ATA.
Con posterioridad, se definió la norma Fast ATA-2, para identificar aquellos productos que se
acogían a los modos PIO 4 y MultiWord DMA 2, que permiten alcanzar un máximo de 16.6
Megas/s. Existe otro método de transferencia propio del Fast ATA, y es la múltiple lectura/
escritura; es decir, la capacidad de leer o escribir varios sectores (normalmente hasta 32)
en una sola interrupción, lo que permite optimizar la transferencia incluso en buses lentos,
como ISA. Conviene resaltar que las tasas de transferencia citadas se consiguen en el mejor
de los casos (picos de transferencia), y no siempre son sostenidas.
– DMA: Transferencia independiente del procesador, que se realiza por mediación de un chip
DMA dedicado. Con el IDE original se usaban los modos PIO 1 y 2, que podían llegar a unos
4 Mb por segundo de transferencia; el modo DMA del IDE original no superaba precisamente
esta tasa, quedándose en unos 2 o 3 Mb por segundo.

156 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

Existe una variante de la transferencia DMA denominada BusMaster DMA que aprovecha
las ventajas de los chipsets de las placas base, cada vez más optimizados para estas labo-
res. Además de liberar al procesador, puede obtener por parte de éste un control casi total,
de forma que la información sea transferida con la máxima prioridad.
Aunque se pueden alcanzar 16 Mb por segundo, la modalidad Ultra DMA logra llegar a 33,3
Mb/s, aprovechando las capacidades del chipset TX de Intel.

16.4. ATA Y PARALLEL ATA


ATA es la abreviatura de Advanced Technology Attachment, que se puede traducir como “tecno-
logía avanzada de conexión”. Como antes mencionábamos es un término equivalente a IDE, descri-
biendo una tecnología de implementación de discos que integran el controlador en el propio disco.
Existen diferentes versiones de ATA, todas ellas desarrolladas por SFF (Small Form Factor):
– ATA: Versión original equivalente a IDE. Admite uno o dos discos duros, una interfaz de 16
bits y los modos PIO 0, 1 y 2.
– ATA2: Soporta modos PIO más rápidos (2 y 3) y modos DMA multipalabra (1 y 2). También
admite LBA (Logical Block Addressing, Direccionamiento .Lógico de Bloques) y transferen-
cias de bloques. ATA2 también se conoce como Fast ATA y EIDE.
– ATA3: Revisión menor de ATA2.
– Ultra ATA: También llamada Ultra DMA, ATA33 o DMA33. Admite DMA en modo 3 (multipa-
labra) a 33 MBps.
– ATA/66: Versión de ATA propuesta por Quantum Corporation y apoyada por INTEL; dobla la
tasa de transferencia hasta los 66 MBps.
– ATA/100: Revisión actualizada de la anterior versión que incrementa la velocidad hasta 100
MBps.
NOTA: ATA también se conoce como Parallel ATA en contraste con Serial ATA
que veremos a continuación.

16.5. SERIAL ATA

16.5.1. Introducción
Serial ATA o SATA es una tecnología de bus para ordenadores diseñada principalmente para la
transferencia de información con los discos duros. SATA se constituye como sucesor del estándar
Advanced Technology Attachment (ATA).
NOTA: ATA ha sido renombrada retrospectivamente como PATA (Parallel ATA)
con objeto de distinguirla de SATA.
Los discos de ambas tecnologías, SATA y PATA, disponen de controladores de bus integrados de
bajo nivel (IDE), pero este término generalmente sólo se aplica a PATA.

16.5.2. SATA 1
La primera generación de interfaz SATA, también conocida como SATA/150 o SATA 1, ofrece unas
prestaciones de 1,5 gigabits por segundo (1,5 Gbit/s). SATA utiliza una codificación 8B/10B a nivel
de capa física que garantiza una eficiencia del 80%, resultando por ello una velocidad efectiva de 1,2
Gbit/s o, en términos de Mb, 150 Mbits/s).
La relativa simplicidad de un enlace serie y el uso de una técnica denominada LVDS (Low voltage
differential signaling), permiten el uso de cables más largos, así como una mejor transición a mayores
velocidades.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 157


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

Puertos SATA de primera generación en una placa base.

16.5.3. SATA II
Muy poco después de la presentación de SATA, se produjeron algunas mejoras en el estándar,
incluyendo un aumento de velocidad en la capa física a 3 Gbits/s, duplicando las prestaciones de la
primera versión.
SATA II también utiliza una codificación 8B/10B, con la consiguiente reducción de su capacidad
de transferencia real a 2,4 Gbit/s (300 Mbit/s). Sin embargo, los discos duros actuales no soportan
todavía estas velocidades, siendo este el factor determinante.
En teoría, y para asegurar la compatibilidad entre SATA I y II, se requiere a los dispositivos más
modernos un modo de funcionamiento compatible con SATA I. En la práctica, sin embargo, esto no
siempre está garantizado de forma automática.
NOTA: Aunque ampliamente difundida, la denominación SATA II no es universal.
Esto se debe a que la organización internacional SATA (SATA-IO), organismo que
controla y regula el estándar, prefirió la denominación SATA 3.0 Gbit/s.

16.5.4. El fututo SATA


SATA-IO planea el diseño de un estándar a 6.0 Gbit/s. Esta velocidad no podrá ser alcanzada
por los discos duros, por lo que la principal aplicación será en combinación con multiplicadores de
puertos, que permiten la conexión de varias unidades a un único puerto. También será aplicable a
discos RAM.

16.5.5. Características Generales de la Tecnología SATA


Actualmente en el mundo de los microordenadores, tanto SATA I como SATA II registran unas
velocidades mantenidas (modo non-burst) similar a las más tempranas interfaces IDE, por debajo de
los 50 Mbit/s. De hecho, las principales aportaciones de SATA no se centran en el aumento de la
velocidad, sino en un menor consumo, una interfaz más reducida y cómoda, así como la capacidad
hot-plug o conexión en caliente, por la cual podemos conectar un disco SATA a un ordenador sin
apagarlo. Esto es especialmente útil en entorno de servidores y sistemas RAID, ya que aporta una
posibilidad de corrección de fallo muy interesante.
La tecnología SATA contempla un cable dedicado para cada dispositivo, así como un determinado
ancho de banda. Esta filosofía es opuesta al bus compartido de PATA. La contrapartida del sistema
SATA es que se requieren el doble de controladores para soportar el mismo número de dispositivos,
pero el estado de la tecnología actual permite este inconveniente sin grandes problemas.

158 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

Con objeto de facilitar la transición a la tecnología SATA, muchos fabricantes han diseñado uni-
dades mixtas PATA/SATA, que se configuran mediante una controladora PATA pero con un conector
SATA. Entre medio existe un chip conversor denominado “puente”. Estas unidades también disponen
de ambos tipos de conectores de alimentación eléctrica, aunque pueden carecer de algunas carac-
terísticas más específicas de la tecnología SATA. Esta tendencia terminó sobre 2004, cuando los
fabricantes comenzaron a producir en exclusiva unidades con tecnología SATA exclusiva.
Los discos SATA pueden ser conectados en controladores SCSI de tipo SAS (Serial Attached) y
comunicarse directamente por la capa física como un disco SAS nativo. La operación inversa, sin
embargo, no es posible; un disco SAS no puede conectarse a un controlador SATA.

16.5.6. Cables y conectores


Físicamente los cables de alimentación eléctrica y de datos de SATA son los cambios más llama-
tivos en relación a aquéllos utilizados en PATA. SATA define un cable de datos de 7 pines y 8 mm de
anchura dedicado a cada unidad. Este cable admite hasta 1 metro de longitud. En comparación, el
cable PATA puede alcanzar hasta 80 líneas y una longitud máxima de 46 cm.
El ancho reducido del cable SATA lo hace mucho más conveniente en el montaje y diseño de
ordenadores. Por otra parte, un inconveniente detectado consiste en que tienden a soltarse de su
conector con más facilidad.

Cable de datos SATA de 7 pines Cable de alimentación SATA de 15 pines

SATA también especifica un cable de alimentación eléctrica muy distinto de la tecnología Molex
de 4 pines de PATA, comenzando por que tiene 15 pines y es bastante más estrecho. El principal
inconveniente detectado es que su fragilidad es mayor, fallo que se manifiesta sobre todo en su ma-
nipulación a la hora de instalaciones o reparaciones.
La razón del elevado número de líneas en este conector radica en que suministra 3 voltajes di-
ferentes: 3,3 V, 5 V y 12 V. Cada voltaje es suministrado por tres pines, haciendo un total de nueve.
Cinco pines adicionales son para tierra y el último se utiliza para funciones de control en las unidades
más modernas.
Algunas unidades disponen de conectores de alimentación PATA para hacerlos compatibles y más
versátiles. La convención de colores es la siguiente:

COLOR FUNCTION
Amarillo +12V
Negro Ground
Rojo +5V
Negro Ground
Naranja +3.3V

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 159


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

16.5.7. External SATA

Logotipo de External SATA

Estándar creado a mediados de 2004. eSATA define cables, conectores y especificaciones de


señales para unidades SATA externas. Las características principales son las siguientes:
– Gran velocidad de transferencia. Se han medido hasta 115 Mbits/s.
– Especificaciones eléctricas y de señales idénticas a SATA estándar, permitiéndose la crea-
ción de líneas interna/externa directamente.
– La longitud máxima del cable alcanza escasamente los 2 metros.
eSATA está orientado al mercado de equipos portátiles, en competencia directa a los estándares
USB y Firewire. La principal razón de su posible éxito frente a las alternativas mencionadas radica en
que las unidades externas son IDE o SATA, siendo necesario una circuitería adicional para su conver-
sión a USB o Firewire. Además se necesitan protocolos de conversión de señales que ralentizan la
comunicación.
En su contra está la muy amplia difusión actual de USB, además de la inca-
pacidad de eSATA de suministrar energía a través del propio cable de datos, como
hace USB con las unidades externas de pequeño formato, eliminando la necesidad
de alimentación eléctrica independiente.

16.6. ENHANCED IDE (EIDE)


La interfaz EIDE o IDE mejorado, propuesto también por Western Digital, logra una gran mejora
de flexibilidad y prestaciones. Para empezar, aumenta su capacidad hasta 8,4 Gb y la tasa de trans-
ferencia empieza a subir a partir de los 10 Mb/s, según el modo de transferencia usado.
Además, se implementaron dos sistemas de traducción de los parámetros físicos de la unidad,
de forma que se pudiera acceder a superiores capacidades. Estos sistemas, denominados CHS y
LBA aportaron ventajas innegables, ya que con mínimas modificaciones (aunque LBA exigía también
cambios en la BIOS del PC) se podían acceder a las máximas capacidades permitidas.
Otra mejora del EIDE se reflejó en el número de unidades que podían ser instaladas al mismo
tiempo, que se aumentó a cuatro. Para ello se obligó a fabricantes de sistemas y de BIOS a soportar
los controladores secundarios siempre presentes en el diseño del PC pero nunca usados hasta el
momento, de forma que se pudieran montar una unidad maestra y otra esclava, configuradas como
secundarias.
Más aún, se habilitó la posibilidad de instalar unidades CD-ROM y de cinta coexistiendo en el
sistema. A nivel externo, no existen prácticamente diferencias con el anterior IDE, en todo caso un
menor tamaño o más bien una superior integración de un mayor número de componentes en el
mismo espacio.
EIDE amplió la flexibilidad en el conexionado, permitiendo la coexistencia de discos duros con
unidades de cinta y de CD-ROM, usando el estándar IDE. Para ello se ideó la norma ATAPI (ATA
Packet Interface), una extensión del protocolo ATA creada con el fin de aportar un único conjunto de
registros y mandatos, y de esta forma facilitar la coexistencia de estas unidades. Los dispositivos de
este tipo también pueden, por tanto, beneficiarse de todas las ventajas de los modos PIO y DMA.

160 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


PRINCIPALES UNIDADES DE ENTRADA Y SALIDA DE DATOS

16.7. SCSI
La interfaz SCSI (Small Computer System Interface) ha sido tradicionalmente relegada a tareas y
entornos de ámbito profesional, en los que prima más el rendimiento, la flexibilidad y la fiabilidad.
SCSI es una estructura de bus separada del bus del sistema. De esta forma, evita las limitaciones
propias del bus del PC. Además, en su versión más sencilla esta norma permite conectar hasta 7
dispositivos SCSI (uno de ellos ha de ser la controladora) en el equipo. Las ventajas no se reducen al
número de periféricos, sino también a su tipo: se puede conectar prácticamente cualquier dispositivo
(escáneres, impresoras, CD-ROM, unidades removibles, etc.) siempre que cumplan con esta norma.
Otra enorme ventaja de SCSI es su portabilidad, que posibilita la conexión de un disco duro o
CD-ROM a ordenadores Macintosh, Amiga, etc., que empleen también la norma SCSI. Un detalle a
resaltar es que todos los periféricos SCSI son inteligentes: cada uno posee su propia ROM donde
almacena sus parámetros de funcionamiento.
El rendimiento del estándar SCSI es bastante superior a IDE al no depender del bus del sistema.
No todo son ventajas: SCSI es más caro que IDE, y en la mayoría de ocasiones, más complejo
de configurar, aunque esto último es cada vez menos problemático a medida que la norma SCSI ha
evolucionado y mejorado.
Los estándares SCSI son los siguientes:
– SCSI-1: Máximo de 3 Mb/s de transferencia, con una anchura de 8 bits en el bus de datos.
– SCSI-2: Introdujo mejoras en el control de los dispositivos, inclusión de mejoras de caché y
otras, subiendo a 5 Mb de ratio, con la misma anchura de bits que su predecesora.
– Fast SCSI-2: Alcanzó 10 Mb/s, manteniendo 8 bits en el bus de datos. El modo Wide se
unió posteriormente al Fast, resultando el Fast/Wide SCSI-2, con el que se amplió a 16
bits el ancho de banda del bus de datos, lográndose hasta 20 Mb/s en transferencia y per-
mitiendo un soporte de hasta 15 dispositivos en cadena.
– Ultra SCSI: Ha conseguido llegar a 40 Mb por segundo a 16 bits y 20 Mb a 8 bits. Incluye
la norma SCAM (SCSI Configured Automatically), algo parecido al Plug & Play, que libera de
la clásica dificultad de configuración de las cadenas SCSI; para ello los dispositivos también
deben contemplar el SCAM.

17. TENDENCIAS TECNOLÓGICAS


La tendencia general se dirige, por un lado al incremento continuo de la capacidad y, por otro, a
obtener dispositivos más rápidos, más económicos, de menor tamaño y más fiables.
Para lograrlo, se están produciendo avances en el estudio de nuevos materiales, tanto para el
desarrollo de los medios de soporte como para el desarrollo de los subsistemas de lectura-escritura
(que apuntan a sistemas de almacenamiento óptico), en la investigación de nuevas técnicas de de-
posición de películas más finas (que permitirán la fabricación de medios magnéticos con densidades
de grabación mucho mayores), etc.
También se está investigando en el uso de técnicas de filtrado adaptativo digital, como la PRML
(Partial Response Maximun Likelihood), que permiten detectar los bits grabados a pesar de la inter-
ferencia intersimbólica (ISI) que se produce entre aquellos.
Estas técnicas reduce la distancia mínima que debe guardarse entre los bits grabados. La aplica-
ción de otras técnicas, conocidas como la superresolución, también permitirán incrementar la densi-
dad de grabación de los dispositivos de almacenamiento reduciendo la distancia entre pistas.
Los medios de soporte para el almacenamiento de información más prometedores utilizan tec-
nologías óptica y magneto-óptica. Las tendencias en este sentido tienen dos vertientes: un descenso
continuado del precio y un rápido crecimiento del mercado, en competencia directa con los discos
magnéticos.
Respecto a las necesidades de alta disponibilidad que se les exige a los dispositivos de alma-
cenamiento masivo de información, la tecnología RAID ofrece niveles de prestaciones, capacidad y
disponibilidad que sin ella difícilmente serían alcanzables, a un coste razonable.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 161


TEMA
5

Conceptos básicos de Telemática.


Teletratamiento. Módem. Multiplexores,
Enrutadores, Puentes, Adaptadores
de líneas. Concentradores. Terminales
remotos

La Telemática es la ciencia que estudia las comunicaciones electrónicas, sus


tipos, características, técnicas y los medios en que se desarrollan, así como las
aplicaciones prácticas y dispositivos necesarios para llevar la comunicación a la
práctica.
La telemática tiene múltiples aplicaciones que incluyen desde la detección por
radar hasta el control remoto de los satélites espaciales. Nuestro enfoque en este
tema estará orientado al mundo de la informática, en concreto hacia las redes
locales que es donde encuentran su campo de aplicación más amplio.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 163


CONCEPTOS BÁSICOS DE TELEMÁTICA

ESQUEMA INICIAL

1. Introducción e historia

2. Señales
2.1. Definición, parámetros y tipos
2.2. Conversión de señales

3. Conceptos

4. Esquema general de un sistema de transmisión de datos

5. Medios de transmisión
5.1. Los medios en las redes locales
5.2. Sistemas de cableado estructurado

6. Modos de comunicación
6.1. Según el flujo de información
6.2. Tipos de comunicación conmutada
6.3. Según el uso del ancho de banda

7. Equipos terminales y de comunicaciones


7.1. Módems
7.2. Características de los módems
7.2.1. Velocidad
7.2.2. Interface
7.2.3. Modos de Operación
7.2.4. Tipos de conexión a líneas
7.2.5. Normalización de Módems
7.3. Conversores de señales o adaptadores de línea
7.3.1. Módems banda base
7.3.2. AIT
7.4. Equipos terminales o terminales remotos
7.4.1. Teletipos
7.4.2. Teletex
7.4.3. Datáfono
7.4.4. Multiplicador de interface (MIM)
7.4.5. Difusor Radial (DR)
7.4.6. Facsímil
7.4.7. Centralitas digitales
7.5. Multiplexores

164 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


CONCEPTOS BÁSICOS DE TELEMÁTICA

8. Equipos para la interconexión de redes


8.1. Repetidores (Repeaters)
8.2. Concentradores (Hubs) y conmutadores (Switches)
8.3. Puentes (Bridges)
8.4. Enrutadores (Routers)
8.5. Pasarelas (Gateways)
8.6. Ordenadores multienlace

9. Servicios y sistemas de transmisión de datos


9.1. Servicios portadores
9.2. Comunicación vía satélite
9.3. Sistema VSAT
9.4. Servicios finales
9.4.1. Red Telefónica Básica (RTB)
9.4.2. Red Telegráfica conmutada (red TELEX)
9.4.3. Red Digital de Servicios Integrados (RDSI)
9.5. Servicios de valor añadido
9.5.1. Conmutación de datos por paquetes o circuitos
9.5.2. Videotex
9.5.3. Teletex
9.5.4. Correo Electrónico
9.5.5. Intercambio Electrónico de Documentos (EDI)
9.5.6. Transferencia Electrónica de Fondos y Puntos de Venta
9.5.7. Telealarmas
9.5.8. FTAM (File Transfer Access and Management)

1. INTRODUCCIÓN E HISTORIA
Podemos indicar el inicio de la transmisión digital de datos cuando Samuel B. Morse realizó una
demostración pública del telégrafo en 1844.
Años más tarde, en 1874, Thomas Edison ideó la multiplexación de señales, lo que posibilitó
transmitir en dos sentidos utilizando un único cable. Se obtuvieron velocidades mucho más altas que
en las transmisiones telegráficas, y su nuevo aparato, conocido como teletipo, sustituyó al telégrafo.
Ya en el siglo XX aparecen los primeros ordenadores en la década de los 50 para, a raíz de los
80, obtener su gran difusión causada por la creación del microordenador PC de IBM. Esta rápida
expansión de la informática personal ha dado origen a una nueva cultura y a una nueva forma de
tratamiento de la información.
En los últimos 20 años muchas compañías informáticas centran sus investigaciones en el desa-
rrollo de productos que permiten compartir información y recursos, surgiendo el concepto de redes
de ordenadores y sistemas distribuidos. La telemática, sus técnicas y métodos en continuo desarrollo
son la base para todo este progreso.
El término Telecomunicación proviene de comunicación, al que se añade el prefijo como indi-
cador de distancia.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 165


CONCEPTOS BÁSICOS DE TELEMÁTICA

En la definición anterior debemos considerar los siguientes conceptos:


– Comunicación: acción de comunicar o comunicarse.
– Comunicar: transferir información de un elemento a otro. Estos elementos pueden ser na-
turales (incluido el ser humano) o dispositivos artificiales.
La comunicación implica tres cuestiones básica para su realización práctica:
– Qué queremos transmitir: información (señal).
– Por dónde lo queremos transmitir: medio.
– Cómo lo vamos a transmitir: modo.
Los tres conceptos se relacionan de tal manera que la imposición de uno de ellos por cualquier
circunstancia puede obligar a cambiar incluso la naturaleza de cualquiera de los otros.

2. SEÑALES

2.1. DEFINICIÓN, PARÁMETROS Y TIPOS


Señal: en nuestro contexto denota aquel elemento de una comunicación cuyo objetivo es trans-
portar la información que se comunica. La señal tendrá un formato determinado que codifica dicha
información y viaja a través de un medio físico determinado.
Las señales pueden ser de muchos tipos. A continuación relacionamos aquellos más utilizados
en telemática:
– Eléctricas: a través de conductores metálicos.
– Luminosas: a través del aire, vacío y fibras ópticas.
– Electromagnéticas: a través del aire o del vacío.
Algunos tipos dependen del medio en el que se transmiten, otros son independientes de éste.
Por ejemplo, una señal acústica no puede transmitirse en el vacío, pero sí a través del aire. Las seña-
les electromagnéticas viajan sin embargo por ambos medios.
Para cada tipo de señal cabe responder a las preguntas relacionadas a continuación. La telemá-
tica busca y estudia las posibles respuestas:
– ¿Pueden codificar la señal la información que queremos transmitir?
– ¿Cuál es la distancia máxima de alcance?
– ¿Cuánto tiempo tarda en llegar?
– ¿Cómo llegan las señales?
En nuestro contexto se pretende transmitir información digital. La principal característica de este
tipo de información es que su valor no depende del tipo de señal, eléctrica, acústica, magnética, etc.
(lo normal será que la tengamos de todos estos tipos a la vez), ni de sus niveles físicos.
Para ello asociamos intervalos de valores de la señal con los valores cero o uno que nos permiten
representar información binaria. A este tipo de datos los llamamos digitales, frente a los analógicos
que pueden tener todo tipo de valores.
Otra característica de las señales que empleamos es que son periódicas, es decir, que se repiten
cada cierto tiempo. Las señales periódicas tienen tres parámetros básicos:
– Amplitud: la amplitud de la señal define el valor máximo que puede adquirir. En una señal
analógica la amplitud varía continuamente y alcanza el mismo valor cada período.
– Frecuencia: la frecuencia indica las veces que la señal se repite en un periodo de tiempo
determinado, generalmente un segundo. Se mide en hertzios (Hz).
– Fase: la fase nos indica el retraso (positivo o negativo) de la señal respecto al instante en
que se empieza la observación de la misma (eje vertical en la figura). Se mide en fracciones
de período o en grados.

166 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


CONCEPTOS BÁSICOS DE TELEMÁTICA







Representación de una señal analógica típica (también llamada senoidal pura) sobre un eje de coordenadas.
Se indican los tres parámetros básicos: amplitud, frecuencia y fase

2.2. CONVERSIÓN DE SEÑALES


La función de transformación de señales se realiza mediante los siguientes procesos básicos, los
cuales pueden utilizarse en combinación:
– Codificación: la información a transmitir se transforma atendiendo a criterios sobre la propia
transmisión (componente de corriente continua, distribución espectral de potencia, interfe-
rencia entre símbolos, etc.).
– Modulación: proceso que transforma la información digital en una señal analógica compa-
tible con la línea de transmisión. En función de la señal de entrada este proceso modifica
algunos de los parámetros que definen una onda senodial pura (portadora), lo que origina
tres sistemas básicos de modulación:
* De amplitud o ASK (Amplitud Shift Keying).
* De frecuencia o FSK (Frequency Shift Keying).
* De fase o PSK (Phase Shift Keying).
En el dispositivo de recepción se realizan los procesos inversos:
– Demodulación: proceso inverso a la modulación consistente en reconstruir a partir de la
señal recibida la información que la originó. El problema estriba en que la señal recibida que
no es exactamente igual a la que salió del emisor, ya que ha sufrido los efectos nocivos de
la transmisión (distorsiones, ruidos, etc.).
El receptor debe decidir en qué instante se produce la transición de un estado a otro. El error
que se produzca en esta decisión respecto al instante real determinará el grado de distorsión
de la señal reconstruida. La demodulación puede ser coherente o no coherente, según el
receptor posea o no una referencia en la onda portadora con la cual ponerse en fase.
– Decodificación: finalmente se produce la operación inversa a la codificación que se realizó
en el transmisor, obteniéndose la información original.
Normalmente todos los procesos descritos, tanto en el transmisor como en el receptor, se realizan en
un único dispositivo que recibe el nombre de módem y que estudiaremos en apartados posteriores.

3. CONCEPTOS
– Atenuación: las señales prácticamente en cualquier situación sufren un proceso de degra-
dación (combinación de disminución de potencia y deformación) al viajar por el medio en
que se transmiten. La atenuación mide esta degradación, que depende fundamentalmente
de dos factores: el tipo de señal y el medio. Tanto la atenuación como la deformación de-
penden del medio y de la frecuencia.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 167


CONCEPTOS BÁSICOS DE TELEMÁTICA

Un buen ejemplo de la influencia del medio es la luz. En el aire o en el vacío


tiene unas pérdidas muy pequeñas, pero se atenúa rápidamente en el agua, donde
a partir de 30 metros la visibilidad es prácticamente nula.
– Factor de atenuación: mide el nivel de pérdida de potencia que sufre la señal a su paso por
el medio. Se mide en decibelios por kilómetro (db/Km). Para un determinado medio depende
de la frecuencia de la señal.
– Ancho de banda: diferencia en Hertzios entre las frecuencias mayor y menor de una señal
que un medio permite en la transmisión.
Para cada medio de transmisión existe un rango óptimo de frecuencias en el que la señal
(para una distancia determinada) se transmite correctamente. Fuera de este rango el dete-
rioro que sufre la señal hace que posteriormente no sea reconocible y no se pueda recons-
truir la información que transporta. El margen de frecuencias donde para un medio y una
distancia determinadas es factible la transmisión se llama Ancho de Banda.
Un ejemplo típico es la línea telefónica, con un ancho de banda de 300 a 3000
Hz. El margen de frecuencias de la voz humana es mayor que dicho margen, por
lo que se deforma ligeramente dando ese tono característico de la voz a través del
teléfono.
– Velocidad de propagación: la velocidad máxima de una señal es la de la luz en el vacío,
hecho que viene determinado por la teoría de la relatividad. Aunque se asume que tanto las
señales eléctricas como las electromagnéticas viajan a la velocidad de la luz, esto realmente
no es así. La velocidad real a la que se transmiten las señales por los medios es bastante
más baja, dependiendo de ambos factores. Dos ejemplos típicos son:
* Señal electromagnética en el aire: 3,3 Km/μsg.
* Señal eléctrica en conductor de cobre: 5 Km/μsg.
NOTA: μsg es la millonésima parte de 1 segundo. ¡No intente competir en
velocidad con una señal electromagnética!
– Velocidad de modulación: número máximo de veces por segundo que puede cambiar el
estado de señalización de una línea. Se mide en Baudios.
– Velocidad de transmisión: número máximo de bits por segundo que pueden transmitirse
por una línea. Se mide en bits por segundo.
Aunque no es lo más frecuente, si el sistema de transmisión envía un bit por
cada cambio de estado de la señal, entonces coinciden la velocidad de transmisión
y la de modulación.
– Velocidad de transferencia de datos (throughput): cantidad de información que se trans-
mite por unidad de tiempo. Para calcularla es necesario descontar los caracteres de control
necesarios para la transmisión.
– Ruidos e interferencias: además de los problemas propios del medio de transmisión, en
los medios actúan otras señales debido a la capacidad del cable de actuar como antena re-
ceptora. El término ruido identifica todas las señales recogidas por el medio de transmisión,
que no son las originalmente transmitidas.
– Ruido impulsivo: son picos de ruido de muy corta duración y elevada energía. Producen
saturación del medio y perturban los datos. Se deben a cambios bruscos en el voltaje en
sistemas eléctricos cercanos: contactos, redes, ascensores, etc.
– Ruido de intermodulación: se produce por acoplo entre líneas próximas que distorsionan
sus frecuencias.
Otro de los ruidos que pueden afectar una señal es el denominado ruido blan-
co, que se produce en el interior de los hilos conductores debido a la vibración de
las moléculas por la temperatura.
– Distorsión de atenuación: los medios de transmisión no atenúan por igual las diferentes
frecuencias que componen una señal. La señal recibida, además de ver disminuida su po-
tencia absoluta, también sufre una disminución relativa en diferentes frecuencias.

168 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


CONCEPTOS BÁSICOS DE TELEMÁTICA

– Diafonía: se produce por acoplo electromagnético entre dos líneas próximas, cuando la
señal de una influye en la otra.
– Ecos: cuando se produce un cambio en las características del medio (terminaciones, co-
nexiones, etc.), parte de la señal se refleja interfiriendo en el medio.
– Caída de señal: interrupción de los circuitos de comunicación por tiempos cortos. Pueden
estar causadas por dispositivos defectuosos, tormentas, etc.

4. ESQUEMA GENERAL DE UN SISTEMA DE TRANSMISIÓN DE DATOS


El esquema general de un sistema de transmisión de datos es como sigue:

Donde:
– ETD (Equipo terminal de datos): son los dispositivos que procesan la información recibida o
que será enviada (en el receptor y emisor, respectivamente). Por ejemplo, un ordenador. La in-
serción del ETD dentro del conjunto se realiza mediante interfaces perfectamente definidas por
normas internacionales (CCITT), complementadas a veces con otras de carácter nacional.
– ECD (Equipo de comunicación de datos): equipos cuya función es transmitir la información.
Un módem es el ejemplo más clásico. Además de la mencionada, un ECD tiene otras fun-
ciones:
* Dialogar con el ETD en el establecimiento, mantenimiento y terminación de una trans-
misión de datos.
* Transformación del mensaje de datos que recibe del ETD en una señal compatible con
la línea de transmisión utilizada.
* Reconversión de las señales recibidas de la línea de transmisión en un mensaje de da-
tos compatible con el ETD.
– CD (Circuito de datos): líneas de transmisión que unen ambos extremos del sistema por
donde circulan las señales que se envían. La Interface ECD/CD tiene unas características
impuestas por el tipo de línea y naturaleza de la señal a transmitir.

5. MEDIOS DE TRANSMISIÓN
El medio de transmisión define las características físicas del canal que conecta cada dispositivo
a la red. La utilización de uno u otro medio de transmisión determinará:
– La velocidad máxima de transferencia de información.
– Longitud del segmento: distancia a la cual es posible transmitir sin utilizar repetidores de
señal.
– El grado de sensibilidad a interferencias.
– El mayor o menor coste del cableado y de las interfaces de conexión.
– Las posibilidades de integración voz/datos así como la posibilidad de utilizar banda ancha.
Existen diferentes tipos de medios de transmisión. La elección de uno u otro depende del tamaño
de la red, del ancho de banda deseado para la red y del coste del medio.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 169


CONCEPTOS BÁSICOS DE TELEMÁTICA

Cada medio de transmisión tiene sus ventajas e inconvenientes; no existe un modelo ideal con
una serie de características definidas. Las principales diferencias entre los distintos medios de trans-
misión radican en la anchura de banda permitida (y consecuentemente en el rendimiento máximo de
transmisión), su grado de inmunidad frente a interferencias electromagnéticas y la relación entre la
amortiguación de la señal y la distancia recorrida (necesidad de repetidores).

5.1. LOS MEDIOS EN LAS REDES LOCALES


Podemos considerar cuatro tipos de medios de transmisión para el entorno de redes locales:
– Cableado Coaxial: originalmente fue el cable más utilizado en las redes locales debido a su
alta capacidad y resistencia a las interferencias, pero en la actualidad su uso está en declive.
Su mayor defecto es su grosor que limita su utilización en pequeños conductos eléctricos y
en ángulos muy agudos. Existen dos tipos de cable coaxial: grueso (Thick) y fino (Thin).
– Par Trenzado: medio más extendido actualmente. Se originó como solución para conectar
teléfonos, terminales y ordenadores sobre el mismo cableado. Los diferentes tipos de cables
de par trenzado son:
* Par trenzado no apantallado (UTP, Unshielded Twisted Pair).
* Par trenzado apantallado (STP, Shielded Twisted Pair).
* Uniforme.
– Fibra Óptica: este cable está formado por uno o más hilos de fibra de vidrio. Uno de los
parámetros más característicos de las fibras es la relación entre los índices de refracción
del núcleo y el de la cubierta, que depende también del radio del núcleo y que se denomina
frecuencia fundamental. Según el valor de este parámetro los clasificamos en:
– Monomodo: cuando el valor de la apertura numérica es inferior a 2,405, un único modo
electromagnético viaja a través de la línea y por tanto ésta se denomina mono-modo. Estas
fibras, con emisores láser de altas prestaciones, proporcionan sistemas con un gran ancho
de banda y baja atenuación, pero resultan más caras de producir y el equipamiento es más
sofisticado.
– Multimodo: cuando el valor de la apertura numérica es superior a 2,405, viajan varios
modos electromagnéticos denominándose multimodo. Las fibras multimodo son las más
utilizadas en las redes locales por su menor coste. Las distancias de transmisión de este tipo
de fibra están alrededor de los 2,5 Km y se utilizan a diferentes velocidades: 10, 16 y 100
Mbps.
– Inalámbrico: permite mayor flexibilidad y disminuye los costes de la instalación. Sus incon-
venientes son: el efecto negativo sobre su rendimiento, fiabilidad de las conexiones, seguri-
dad y efectos sobre la salud. Algunas de las implementaciones pueden ser: radiofrecuencia
(18 GHz), infrarrojos y spread spectrum.

5.2. SISTEMAS DE CABLEADO ESTRUCTURADO


Por cableado estructurado se entiende un sistema de distribución integral de comunicaciones
(voz y datos) basado en la normalización de los cables, conectores y adaptadores de todas las comu-
nicaciones a las que da soporte.
El sistema de cableado con que se dota a un edificio es un componente fundamental de la in-
fraestructura en Tecnologías de la Información (TI) con que cuenta una organización. La aparición de
los sistemas de cableado estructurado (o sistemas de cableado genéricos) se basa en la necesidad
estratégica para una organización de considerar a largo plazo sus necesidades y requerimientos de
comunicaciones.
La vida útil de los cableados esta censada entre los 20 y 25 años, mientras que el hardware y
software no superan los 5 años, por ello es evidente la necesidad de dotar a la organización de una
infraestructura capaz de adaptarse lo mejor posible a los cambios tecnológicos que se sucederán
durante su ciclo de vida.

170 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


CONCEPTOS BÁSICOS DE TELEMÁTICA

Un cableado estructurado es el cableado de un edificio o serie de edificios, que cuenta con


cables, rosetas de conexión, distribuidores de planta, distribuidores de edificio y distribuidores de
campus, normalizados e interconectados de modo que puedan cubrir las necesidades y requisitos
durante la vida útil del edificio.
Gracias a la nueva orientación de infraestructura de edificios en el campo de precableado, hoy
en día es posible instalar un sistema universal que sea totalmente transparente a los usuarios una
red universal independiente de las aplicaciones. Como resultado, las cuestiones principales que
deben resolverse a la hora de instalar una red de este estilo no son tanto las aplicaciones a las que
van a servir como el sistema de cableado mismo, el número de edificios, el número de plantas por
edificio, el espacio disponible y las distancias a cubrir.
Un sistema de cableado estructurado ofrece una jerarquía de cables que se extienden a las dis-
tintas plantas del edificio o edificios, divididos en una serie de subsistemas, cada uno de los cuales
incluye los cables y el correspondiente hardware para interconectarlos entre sí.
Los tres subsistemas de un cableado estructurado son:
– El subsistema de Campus: se denomina así al susbsistema de cableado que permite in-
terconectar edificios en el entorno local de un campus universitario, parque tecnológico, etc.
La interconexión con el cableado de cada edificio se realiza en el Armario de Distribución del
edificio (generalmente situado en la planta baja o sótano del edificio).
– El susbsistema Troncal (o Vertical): se trata del subsistema de cableado que interconecta
las plantas del edificio convirtiéndose en la “espina dorsal” a partir de la cual se distribuyen
las conexiones de cada planta. Este susbsistema interconecta los Cuadros de Distribución
de cada planta (generalmente situados en un cuarto o un armario de conexiones) con el
Armario Principal de Distribución del edificio.
– El subsistema Horizontal: se trata del sistema de cableado que, partiendo de los Cuadros
de Distribución de planta, llega a las rosetas (puntos de conexión) situadas en la pared don-
de el usuario conecta su terminal. Así, pues, la topología básica es una estrella (o estrella
modificada), independientemente de la topología de la red de datos que se pretenda instalar
(anillo, bus, punto a punto, etc.). Se pretende que mediante simples cambios en los arma-
rios o cuadros de distribución, puedan realizarse reasignaciones de puestos aprovechando
las ventajas de mantenimiento que supone un cableado en estrella.
Los requisitos que se exigen a un sistema de cableado son:
– Capacidad de crecimiento: mediante el establecimiento de una modularidad dentro del
propio cableado que le permita añadir nuevos componentes.
– Absorción de las nuevas tecnologías: de forma que los componentes a añadir al sistema
de cableado sean los mínimos posibles.
– Alto grado de flexibilidad: tanto por permitir el empleo de tomas universales de datos,
como por proporcionar una movilidad del personal dentro del entorno de trabajo, sin necesi-
dad de grandes cambios.
– Fiabilidad: con mínimas interrupciones en el servicio y con un costo y tiempo de reparación
razonables.
– Identificación: facilidad en este sentido para la gestión de los circuitos de información.

6. MODOS DE COMUNICACIÓN

6.1. SEGÚN EL FLUJO DE INFORMACIÓN


Según el flujo de la información entre dos dispositivos, la comunicación puede ser:
– Simplex: la información siempre fluye en un único sentido.
– Half duplex: la información puede fluir en ambas direcciones, pero no simultáneamente.
– Full duplex: la información puede fluir en ambas direcciones simultáneamente.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 171


CONCEPTOS BÁSICOS DE TELEMÁTICA

6.2. TIPOS DE COMUNICACIÓN CONMUTADA


Independientemente del flujo de la información, las redes utilizan comunicación conmutada, que per-
mite compartir líneas físicas de comunicación. Esta técnica evita la necesidad de que exista una línea desde
un ordenador hasta todos los demás, disposición inviable cuando el número de ordenadores crece (el nú-
mero de líneas crecería exponencialmente). La comunicación conmutada presenta dos modalidades:
– Conmutación de circuitos: se crea una ruta única, ininterrumpida y exclusiva entre dos dispositi-
vos (también se denomina punto a punto). La línea se libera al cortar la comunicación. El principio
es que las líneas se comparten entre los dispositivos, pero cada uno debe esperar su turno.
Un buen ejemplo de conmutación de circuitos son las líneas de teléfono o un
conmutador físico entre dos ordenadores y una impresora.
– Conmutación de paquetes: sistema utilizado por la mayoría de las redes actuales. La in-
formación se divide en paquetes y se transmiten por la red. Los paquetes no tienen por qué
viajar por el mismo camino ni llegar al destino en orden, lo cual puede suponer un inconve-
niente. Además los paquetes deben incluir la dirección del destino.
Los protocolos respectivos serán los responsables del correcto ensamblaje de la información.
La principal ventaja es ser más estable: en efecto, si se cortase un canal, siempre se puede
redirigir el tráfico por rutas alternativas. Un ejemplo tradicional es el sistema de correos.
Un paquete es un segmento de longitud predeterminada de la información
completa que el emisor envía al receptor.

6.3. SEGÚN EL USO DEL ANCHO DE BANDA


Esta clasificación hace referencia a las características de la señal utilizada y al modo en que
ésta utiliza el ancho de banda proporcionado por el medio de transmisión. Básicamente existen dos
técnicas de transmisión que se aplican a las transmisiones en una red:
– Banda Base: en un momento dado sólo se transmite una única señal sobre el medio (se
asimila a un canal al que se le asigna toda la anchura de banda disponible).
Para permitir transmisiones simultáneas se realiza una multiplexación por división en el tiem-
po (TDM, Time Division Multiplex). Esta técnica se ha adoptado ampliamente por no ser
necesaria la utilización de módem y porque la señal se puede transmitir a alta velocidad.
En banda base la señal no está modulada, no siendo muy adecuada en transmisiones a larga
distancia ni en instalaciones con alto nivel de ruidos e interferencias. Permite la utilización de
dispositivos y repetidores muy económicos. Es adecuada en entornos con aplicaciones de trans-
misión de voz y vídeo además de datos. La transmisión en banda base es la técnica más habitual
en las redes de área local cuya misión fundamental es la interconexión de ordenadores.
– Banda ancha: se pueden realizar varias transmisiones simultáneas utilizando varios canales
a la vez y multiplexando por división de frecuencias (FDM, Frequency Division Multiplex).
Se modula la información sobre ondas portadoras analógicas, por este motivo los dispositivos di-
gitales se conectan a las redes de este tipo a través de un módem. A cada canal se le asigna una
frecuencia y en los receptores se sintoniza el canal que el usuario desea tener. Son adecuadas en
entornos con aplicaciones de transmisión de voz y vídeo además de datos, aunque su coste suele
ser superior a las redes en banda base y su puesta a punto y gestión más compleja.
Una red heterogénea puede combinar segmentos con técnicas de transmisión diferentes. En la
tabla siguiente se presenta una comparativa entre banda ancha y banda base:

BANDA BASE BANDA ANCHA


Ancho de Banda Hasta 20 Mbps Dependiendo del soporte físico, desde KHz hasta GHz
Tipo de señal Digital Analógica
Aplicabilidad Datos, voz digitalizada Varias redes sobre mismo cableado (datos, voz, vídeo)
Complejidad/
Sencillez, economía Mayor coste (elementos de conexión más complejos)
Coste

172 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


CONCEPTOS BÁSICOS DE TELEMÁTICA

7. EQUIPOS TERMINALES Y DE COMUNICACIONES

7.1. MÓDEMS
En los primeros tiempos de las redes de ordenadores surgió la necesidad de conectar múltiples
ordenadores separados entre sí por grandes distancias geográficas. Para solventar este problema se
estudió la posibilidad de utilizar una infraestructura ya existente y muy extendida: la red telefónica.
Esta solución generaba a su vez otro problema: los ordenadores utilizan señales digitales mien-
tras que la red telefónica era analógica. Había que transformar estas señales de una a otra para poder
utilizar la red telefónica en la comunicación de ordenadores. Un dispositivo conocido como módem
fue la respuesta a este segundo problema.
Un módem convierte la señal digital, que es la que utiliza el ordenador, en una señal analógica
válida para transmitir a través de la línea telefónica. En el extremo opuesto la conversión se invierte
recuperándose la señal digital original.
Un módem convierte señales digitales en señales analógicas y viceversa. Los ordenadores
pueden así utilizar las redes telefónicas de voz para la transferencia de información a grandes distan-
cias sobre una infraestructura ya existente.
La modulación es un proceso por el que se modifican las características de una señal analógica
llamada portadora, en función de la señal digital que se recibe del equipo de datos.

 

 
 

Esquema de un sistema de transmisión de información. La explicación del esquema se ofrece en la siguiente secuencia

1. El usuario introduce una información en el ordenador mediante un proceso de codificación,


por el cual la información pasa del lenguaje humano a un formato adecuado para el orde-
nador. Para ello se utiliza el teclado que convierte palabras en señales digitales. De forma
previa se ha producido un nivel superior de codificación cuando el usuario expresa sus ideas
con palabras, por ejemplo, en un idioma determinado.
2. El ordenador no puede transmitir las señales digitales directamente porque el medio (re-
presentado como una pequeña nube) no permite el transporte de este tipo de señal. Se
necesita un equipo intermedio (módem) que transforme la señal digital.
3. El módem ha transformado la señal digital en otra analógica mediante un proceso de modu-
lación. Ahora ya se puede transmitir por el medio.
4. La señal alcanza el equipo receptor. Comienza el proceso inverso.
5. El módem del equipo receptor transforma la señal analógica recibida en digital mediante un
procedo de demodulación. Ahora el ordenador dispone de una señal digital de entrada que
puede procesar.
6. El proceso de la señal recibida por el ordenador produce una decodificación de ésta, por
ejemplo, transformando las señales digitales en palabras en la pantalla, haciendo la informa-
ción interpretable por el usuario receptor en el otro extremos del sistema de comunicación.
Cuando hay perturbaciones en el camino que recorre la información aparecen errores. Uno de los
principales problemas a resolver es la detección y corrección de errores.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 173


CONCEPTOS BÁSICOS DE TELEMÁTICA

Existen módems de tecnologías muy distintas, pero todos han de cumplir una serie de normas
básicas o estándares para permitir comunicarse entre sí. Según esto tenemos módem V.19, V.24,
V.28, V.36, etc. Todos estos estándares se diferencian fundamentalmente en la velocidad de la co-
municación. La velocidad se mide en bits por segundo (bps). En la actualidad nos encontramos con
módems de hasta 56.600 bps. Para velocidades superiores se deben utilizar otros tipos de equipos
de comunicaciones, como módems de banda ancha, con interfaces adecuados a la velocidad del
módem (v.35) o redes de datos digitales de conmutación de circuitos.
Las velocidades normalizadas, para módems de banda de voz, a través de líneas telefónicas, son
las siguientes (si bien las más lentas han caído en desuso):
– 300 bps.
– 1.200 bps.
– 2.400 bps.
– 4.800 bps.
– 9.600 bps.
– 14.400 bps.
– 19.200 bps.
– 28.800 bps.
– 33.600 bps.
– 56.600 bps.
El software de comunicaciones para módem es tan importante como el módem mismo. Está en-
cargado de proporcionarnos una herramienta sencilla de manejar que gobierne el módem. El estándar
Hayes está diseñado como un lenguaje de comandos con instrucciones precisas que gestionan el
módem. La mayoría de programas hacen uso de este estándar.
Hoy en día la mayoría de los módem tienen funciones de fax, de ahí que se conozcan con el tér-
mino módem-fax. Un programa de gestión de fax sirve esencialmente para enviar y recibir documen-
tos, mantener una agenda de direcciones y un fichero de los faxes enviados y recibidos. Programas
de gestión de fax muy conocidos son: TRANSEND FAX y WINFAX PRO.
Con un módem no sólo puede comunicarse con otros ordenadores conectados a la red telefónica
y enviar y recibir faxes, sino que podrá acceder a Internet y abrir todo un mundo de información.

El módem ha sido y continúa siendo todavía en muchos casos la ventana


por la que mirar hacia internet desde nuestra propia casa

7.2. CARACTERÍSTICAS DE LOS MÓDEMS


En la selección debemos considerar todos los aspectos implicados en la problemática de las co-
municaciones. Para ello se tendrán en cuenta los parámetros que definen un módem y su forma de
operación. Entre éstos se encuentra la velocidad de transmisión, el tipo de interface con el terminal de
datos (ordenador), el modo de trabajo, la conexión a la línea telefónica y las normas que emplea en la
modulación.

174 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


CONCEPTOS BÁSICOS DE TELEMÁTICA

7.2.1. Velocidad
En los primeros equipos de comunicaciones la velocidad se especificaba en baudios, que corres-
ponden a una unidad de medida utilizada en la comunicación telegráfica que definía la cantidad de
veces que la señal cambia por unidad de tiempo.
NOTA: en los equipos actuales la velocidad debe especificarse en bits por se-
gundo (bps), ya que un baudio puede representar varios bits.
La red telefónica actual no soporta velocidades superiores a los 2.400 baudios, pero con codifi-
caciones en varios niveles pueden alcanzarse velocidades de 56.600 bps sin exceder dicho límite.
Si clasificamos los módems por su velocidad tenemos una gama que va desde 50 bps hasta 64
Kbps con líneas especiales. De acuerdo con la sofisticación podemos considerar tres categorías:
– Módems de baja velocidad: inferior a 1200 bps.
– Módems de media velocidad: desde 1200 hasta 9.600 bps.
– Módems de alta velocidad: hasta 56.600 bps.
Los módems más utilizados en la comunicación entre los micros trabajan en modo asíncrono.
Las conexiones síncronas se utilizan fundamentalmente para acceso a redes públicas o privadas o
comunicaciones entre ordenadores o terminales específicos.

7.2.2. Interface
Para referirnos a los equipos implicados utilizamos la nomenclatura más normal en redes de
comunicaciones de datos, donde se llama ETD o DTE (Data Terminal Equipment) al terminal de datos
que accede la red de comunicaciones (ordenador).
Al equipo que accede a la red se le denomina ECD o DCE (Data Communications Equipment) o
equipo terminal de circuito de datos. En el caso concreto que nos ocupa (comunicaciones a través de
la red telefónica) nos referimos al módem.
La conexión entre el ETD y el ECD constituye la interface de comunicaciones. La interface or-
denador-módem sigue las recomendaciones V.24/V.25 del CCITT, que se corresponde con la norma
RS-232C de la EIA. Éstas definen una serie de señales que se intercambian a través de circuitos
independientes que manejan señales de datos, de control y de sincronización.
Los circuitos de control manejan las señales que permiten realizar el protocolo de nivel físico
entre el ETD y el ECD, comandando la conexión y desconexión de módem a la línea telefónica, de-
tectando la conexión al módem remoto, controlando la transmisión de datos de forma adecuada, la
velocidad, la calidad de los datos recibidos, etc.
Los circuitos de sincronización se utilizan exclusivamen-
te cuando se trabaja en modo síncrono, proporcionando las
señales de reloj que se generan en el terminal transmisor, se
envían junto con los datos a través de la línea telefónica y se
recuperan en el módem receptor, que se encarga de enviar
al terminal receptor los datos y las señales de reloj a través
de dos circuitos independientes, asegurando de esta forma
el sincronismo entre los dos extremos del enlace.
Módem en funcionamiento
7.2.3. Modos de Operación
Los módems pueden operar fundamentalmente de una de las tres maneras siguientes:
– Half-duplex o semidúplex (HDX): un módem que trabaja en el modo HDX utiliza todo el
ancho de banda de la línea telefónica, por lo que a dos hilos solamente puede transmitir o
recibir datos, pero no ambas cosas de forma simultánea. Para poder transmitir y recibir en
este caso es necesario utilizar los circuitos de control de la interface, que manejan la línea en
función del proceso que esté realizando (transmisión o recepción). Actualmente este tipo de
operación está en franca regresión debido a que la eficiencia de las comunicaciones es baja,
pues es necesario un cierto tiempo de espera desde que se hace la solicitud de transmitir
hasta que la línea se estabiliza y queda lista para la transmisión.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 175


CONCEPTOS BÁSICOS DE TELEMÁTICA

– Full-duplex o dúplex (FDX): los módems que trabajan en FDX sobre líneas telefónicas a dos
hilos utilizan multiplexado por división de frecuencia o cancelación de ECO para conseguir la
transmisión bidireccional sobre un solo par. En este tipo de multiplexado se utiliza una banda
de frecuencia determinada para la transmisión en un sentido y otra banda distinta para la
transmisión en el sentido opuesto.
Dentro de cada banda, la marca y el espacio se representan por dos frecuencias diferentes,
lo que supone cuatro frecuencias que representan las cuatro combinaciones de marca y
espacio con dos sentidos de transmisión. Estas frecuencias se separan mediante filtros, y
deben estar lo suficientemente distanciadas como para que sea posible su discriminación.
Otra técnica empleada para la transmisión FDX se basa en la cancelación de ECO, en la cual
se utilizan circuitos especiales para evitar que la señal enviada por los circuitos de transmi-
sión entre de nuevo por la recepción del mismo módem. En este caso los módems pueden
utilizar la misma banda de frecuencia sin interferencias entre sí, por lo que disponen de
todo el ancho de banda para la transmisión, y así pueden conseguir velocidades superiores
incluso que en el caso de multiplexado de frecuencia.
– Multipunto: existe un sistema maestro que se comunica con un grupo de esclavos conecta-
dos a la misma línea utilizando protocolos denominados Polling. Normalmente la conexión
para este tipo de configuraciones suele ser a cuatro hilos. Los terminales deben ser capaces,
además de soportar el protocolo multipunto a nivel de software, de manejar las señales de
la interface de forma similar al caso de conexiones HDX.
En una conexión multipunto existe un módem principal, conectado al terminal maestro, y una
serie de módems secundarios a los terminales esclavos. El módem principal envía permanen-
temente la portadora a línea, siendo ésta recibida simultáneamente por todos los esclavos que
reciben del mismo modo todos los datos que envía el maestro. Cada uno de los terminales
remotos debe ser capaz de reconocer en la información que reciba los mensajes que le corres-
ponden, y aceptar y contestar únicamente a éstos. Cuando un terminal esclavo quiere enviar
información a la línea es necesario que haga una petición de emisión, con lo cual sólo enviará
portadora a línea cuando le corresponda transmitir, pues en caso contrario se produciría una
colisión de portadoras y el maestro sería incapaz de reconocer los datos recibidos.

7.2.4. Tipos de conexión a líneas


Para la conexión de módems se pueden utilizar líneas de Red Telefónica Conmutada (RTC) o
punto a punto (PP).
– Red telefónica conmutada (RTC): las líneas de red telefónica conmutada son las mismas
que en las comunicaciones de voz a través del teléfono, pudiendo ser utilizadas tanto para
las comunicaciones de voz como de datos. El coste de estas líneas se compone de un fijo
mensual y una parte variable en proporción a los pasos consumidos, que son al mismo pre-
cio que en las llamadas normales.
– Punto a punto (PP): las líneas punto a punto correspon-
den a conexiones permanentes entre terminales utilizadas
en general de forma exclusiva para la transmisión de datos.
El coste de estas líneas es fijo, y depende de la distancia
entre los extremos y de que sean normales o especialmen-
te acondicionadas (calidad normal o calidad especial).
Pueden ser de dos o de cuatro hilos y las velocidades que
soportan llegan hasta los 19.200 bps. La utilización de mó-
dems en conexiones punto a punto es económicamente ren-
table cuando se transfieren grandes cantidades de informa-
ción entre dos puntos o cuando las necesidades de acceso
obligan a una conexión permanente, aun con un nivel de uti-
lización de las líneas relativamente bajo. En este último caso
resulta interesante en una gran cantidad de aplicaciones la
utilización de una red de conmutación de paquetes en lugar
de la red telefónica con módems. Módem en funcionamiento

176 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


CONCEPTOS BÁSICOS DE TELEMÁTICA

7.2.5. Normalización de Módems


Para facilitar la instalación de circuitos internacionales y evitar la proliferación innecesaria y an-
tieconómica de soluciones particulares, el CCITT ha normalizado una serie de módems que cubren
prácticamente la totalidad de las necesidades presentadas en la actualidad.
Esta normalización define para cada tipo de módem una serie de características de forma que
puedan conectarse entre sí módems de diferentes constructores que han resuelto el problema con
tecnologías muy distintas.

Recomendación V.19
Diseñados para su instalación en una estación central, donde actúan como receptores de los
datos enviados por múltiples estaciones periféricas, constituidas por simples aparatos telefónicos de
uso universal. Están dotados de señalización multifrecuencia que emplean para establecer la comu-
nicación y/o para enviar los datos una vez establecida, envío que se realiza a la velocidad de hasta 10
caracteres/s. Sus características más significativas son:
– Cada carácter se transmite por medio de dos frecuencias emitidas simultáneamente.
– Las frecuencias pertenecen a dos subconjuntos separados, a y B, compuestos por cuatro
frecuencias cada uno. Pueden transmitirse, por tanto, hasta 16 combinaciones de las que
en los teléfonos ordinarios se emplean doce.
– La duración mínima de los períodos de emisión y silencio será de 30 y 25 ms, respectiva-
mente.
– Los datos suelen transmitirse unidireccionalmente. La respuesta es generalmente audible o
con tonos.
– La interface del módem, para su unión al ordenador, sigue las Recomendaciones V.24 y V.28.

Recomendación V.20
Se trata de un módem especial, muy simple y económico, que no se adapta a las características
generales definidas para los equipos conversores de señales. Se usa para transmisión en paralelo de
datos (carácter a carácter) sobre líneas vía Red Conmutada. Se basa en la transmisión simultánea de
dos o tres frecuencias diferentes elegidas según una determinada ley. Utiliza dos tipos de codificación:
16 o 64 combinaciones de frecuencias.
La velocidad de modulación es, como máximo, de 40 baudios, equivalente a 240 bits/s con el
segundo sistema de codificación. La interface lógica con el terminal es de tipo paralelo y sus caracte-
rísticas eléctricas y funcionales vienen definidas en las recomendaciones V.30 y V.31.

Recomendación V.21
Características:
– Velocidad máxima de transmisión: 300 bits/s.
– Transmisión asíncrona.
– Modo de explotación: permite el Dúplex Integral.
– Tipo de línea: Red conmutada o línea dedicada de dos hilos.
– Modulación en frecuencia.
– Interface lógica con el terminal según Rec. V.24 y V.28.
El hecho de permitir la explotación en Dúplex Integral sobre línea de dos hilos se debe a que al
trabajar a velocidades bajas no precisa toda el ancho de banda transmisible por la línea. El canal
se divide entonces en dos partes, cada una de las cuales constituye un canal independiente con
frecuencias portadoras de 1080 y 1750 Hz, respectivamente, sobre los que se producen desplaza-
mientos de 100 Hz hacia abajo para el bit 1 y hacia arriba para el 0.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 177


CONCEPTOS BÁSICOS DE TELEMÁTICA

Mediante un circuito de la interface lógica puede elegirse para transmitir el canal superior o el
inferior, quedando el otro para recibir, lo que puede hacer simultáneamente.
Por convención internacional, cuando se utilice la Red Conmutada como línea de transmisión, el
módem del extremo que llama debe elegir para transmitir el canal inferior.

Recomendación V.22
Características:
– Este módem permite trabajar en modo dúplex y a 1200 bits/s vía RTC o vía líneas arrendadas
a 2 hilos.
– La separación de canales se lleva a cabo por división de frecuencia, empleando como porta-
doras 1200 Hz para el canal bajo y 2400 Hz para el alto.
– La modulación de cada canal es DPSK.
– Transmisión en línea síncrona.
– Velocidad de modulación 600 baudios.
– Con aleatorizador de polinomio generador 1 + X 14 + X 17, y facilidades de prueba norma-
lizadas.
– Incorpora igualador fijo de compromiso, repartido entre transmisión y recepción.
Se especifican tres posibles configuraciones alternativas:
1. Módem síncrono a 1200 bits/s y 600 bits/s (facultativo).
2. Módem síncrono o arrítmico a 1200 bits/s y 600 bits/s (facultativo).
3. A las posibilidades de la segunda alternativa se le añade el modo asíncrono con capacidad
para tratar datos arrítmicos a 1200 bits/s y asíncronos hasta 300 bits/sg.
Dispone de memoria tampón en el transmisor que convierte los datos entrantes en un tren de da-
tos síncronos. Los datos asíncronos podrán ser de 8, 9, 10, u 11 bits por carácter. La configuración,
transmisión y recepción deberán ser idénticas.

Recomendación V.23
Características:
– Velocidad de transmisión 600 y 1200 bits/s.
– Tipos de transmisión: Síncrona o Asíncrona.
– Líneas de transmisión: Red Conmutada o línea dedicada de 2, 6, 4 hilos, calidad normal
(punto a punto o multipunto).
– Modos de explotación: semidúplex en líneas de 2 hilos o Dúplex integral en líneas de 4 hilos.
– Modulación FSK.
– Canal de retorno: opcionalmente puede utilizar un canal de baja velocidad (75 baudios) para
enviar hacia atrás señales de control.
– Interface lógica con el terminal según Rec. V.24 y V.28.
– Sensibilidad para señales de línea: 43 dBm.
– Señal de sincronismo: sólo módem.

Recomendación V.26
La secuencia de bits a transmitir se va dividiendo en dibitios (pares de bits consecutivos), consti-
tuyendo un símbolo que se corresponde con un salto de fase de la señal portadora.
Características:
– Velocidad de transmisión: 2400 bits/s.
– Tipo de transmisión: síncrona.

178 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


CONCEPTOS BÁSICOS DE TELEMÁTICA

– Línea utilizable: dedicada, 4 hilos, calidad especial.


– Modo de explotación: semidúplex o dúplex integral.
– Tipo de modulación: PSK (cuadrifásica diferencial).
– Canal de retorno opcional idéntico al de la V.23.
– Interfaz lógica según las Recomendaciones V.24, V.28.
– Frecuencia de portadora: F = 1800 Hz ± 1 Hz.
– Tolerancia de frecuencia en el receptor: ± 7 Hz, de los que 1 es del transmisor y 6 de la línea.
– Sensibilidad a señales de línea: 26 dBm.
– Señal de sincronismo: Por módem o por terminal.

Recomendación V.26bis
Permiten la transmisión de datos a 2400 bits/s, vía Red Automática Conmutada o línea dedicada
de dos hilos. Sus características son, esencialmente, las mismas que las fijadas en la Rec. V.26 con
las modificaciones siguientes:
– Al ser la línea a dos hilos, sólo permite la explotación en modo semidúplex, si bien puede
utilizarse opcionalmente el canal de retorno, en simultáneo con el canal de datos en el otro
sentido.
– Para el funcionamiento a 2400 bits/s sólo está prevista la solución B de la V.26 como tipo
de modulación.
– Para las comunicaciones en que las condiciones de transmisión no permiten trabajar a 2400
bits/s se ha previsto una segunda velocidad a 1200 bits/s. En este caso se usa una modu-
lación diferencial de fase bivalente con saltos de fase de +90º para el estado binario 0 y de
+270º para el 1.

Recomendación V.27
Los datos a transmitir se dividen en tribitios de 3 bits consecutivos, codificándose cada uno con
un cambio de fase. Para la transmisión de datos a 4800 bits/s existen tres tipos de módem: V.27,
V.27 bis y V.27 ter, siendo el básico el primero, con las siguientes características:
– Velocidad de transmisión: 4800 bits/s.
– Tipo de transmisión: síncrona.
– Línea utilizable: dedicada de calidad especial (M1020).
– Modo de explotación semidúplex o dúplex integral.
– Modulación: PSK octofásica diferencial.
– Canal de retorno: opcional y según Rec. V.23.
– Interfaz lógica: según Rec. V.24 y V.28.
– Frecuencia portadora: F = 1800 Hz ± 1 Hz.
– Igualador de amplitud y fase ajustable manualmente.
– Tiempo de sincronización: < 20 ms.

Recomendación V.27bis
Este módem es igual al anterior excepto en los siguientes puntos:
– El igualador de amplitud de fase es automático, autoadaptable con secuencias de arranque
distintas según la calidad de línea.
– Puede funcionar sobre líneas punto a punto, a dos o cuatro hilos y no precisamente de cali-
dad especial (M1020).

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 179


CONCEPTOS BÁSICOS DE TELEMÁTICA

– Para los casos en que las condiciones lo exijan disponen de una velocidad reducida de 2400
bits/s que sigue la recomendación V.26.
– Los tiempos de sincronización son de 50 ms para las líneas de calidad especial y de 70 en
líneas de menor calidad.

Recomendación V.27 ter (provisional)


En esta recomendación se establece la posibilidad y se fijan las condiciones para la transmisión
de datos a 4800 bits/s a través de la Red Automática Conmutada, admitiendo que no se puede ga-
rantizar una transmisión fiable en todos los puntos.
Para ello se utilizará el módem definido en la Rec. V.27 bis con algunas modificaciones realizadas
después de una serie de pruebas que garanticen su funcionamiento.

Recomendación V.29
Transmiten hasta 9600 bits/s en líneas de calidad especial, aunque sin excluirse su uso en cir-
cuitos de calidad inferior, a discreción de las administraciones interesadas.
Características:
– Velocidades de transmisión: 4800, 7200 y 9600 bits/s.
– Tipo de transmisión: síncrona.
– Línea de transmisión: dedicada, de cuatro hilos, calidad especial (opcional).
– El modo de explotación: semidúplex o dúplex total.
– Tipo de modulación: PSK y ASK combinadas.
– Interface lógica: V.24 y V.28.
– Inclusión facultativa de un multiplexor para la combinación de las velocidades binarias: de
7200, 4800 y 2400.
– bits/s.
– Frecuencia portadora: F = 1700 ± 1 Hz.
– Velocidad de modulación: 2400 baudios.

Recomendación V.32
La recomendación V.32 fue aprobada por la CCITT en Torremolinos en 1984 y permite la trans-
misión a 9600 bits/seg. Sus características son las siguientes:
– Velocidad de transmisión: 4800 o 9600 bits/segundo.
– Tipo de transmisión: asíncrono.
– Línea utilizable: a 2 hilos, punto a punto o RTC.
– Modo de explotación: full dúplex.
– Modulación: QAM (Modulación en Amplitud de Cuadratura).
– Frecuencia portadora: 1800 Hertzios.
– Tiempo de sincronización: < 20 ms.
– Nivel de recepción: entre 0 y 43 dBm.
Existe una variación de esta norma más reciente conocida como V.32 bis que permite velocida-
des físicas de hasta 14400 bits/segundo. Permitiendo con las normas de compresión y corrección de
errores V.42 y V.42 bis una velocidad lógica de hasta 57600 bits/segundo.

Recomendación V.36
Permiten la transmisión de señales digitales sobre una línea constituida por un grupo primario de
un sistema multiplex MDF (ancho de banda 60108 KHz), pudiéndose destinar a varias aplicaciones.

180 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


CONCEPTOS BÁSICOS DE TELEMÁTICA

Características:
– Velocidad recomendada: 48 Kbits/s.
– Velocidades para aplicaciones específicas: 56, 64, 72 Kbits/s.
– Tipo de transmisión síncrona.
– Línea utilizada: grupo primario (60108 KHz).
– Modo de explotación: dúplex integral.
– Interface lógica: según Rec. V.24, V.10 y V.l 1.
– Modulación de amplitud con Banda Lateral única (BLU).
– Frecuencia Portadora: 100 Khz.
En general los Módems V.36 se instalan en las centrales telefónicas, donde esté el grupo prima-
rio, y se prolongan hasta el usuario mediante enlaces en banda base.

7.3. CONVERSORES DE SEÑALES O ADAPTADORES DE LÍNEA


En el caso concreto de los utilizados por Telefónica, son de uso frecuente los Módem banda base
y sobre todo los Adaptadores de Impulsos Telegráficos (AIT).

7.3.1. Módems banda base


Estos equipos no realizan modulación ni demodulación. Son elementos muy simples, tanto en
transmisión como en recepción, limitándose su función a codificar y decodificar, aparte de las funcio-
nes de diálogo con el terminal e interface con la línea de transmisión.
La principal limitación de la transmisión de datos en banda base es que sólo pueden usarse como
línea de transmisión pares físicos de cables sin carga, limitándose el alcance a algunas decenas de
kilómetros (en el mejor de los casos) a causa de la diafonía, ruido, etc. Otra limitación, de menor
importancia, es que sólo permite transmisiones en modo síncrono.
Ventajas:
– Posibilidad de transmisión a velocidades altas (48 Kbits/s).
– Gran facilidad de puesta a punto y mantenimiento.
– Bajo coste de los equipos.
– Campos de aplicación:
– Transmisión de datos a velocidades bajas y medias (600 a 9600 bits/s) en zonas urbanas,
en concurrencia con los módems clásicos.
– Transmisión de datos a velocidades altas (40,8 y 48 kbits/s) sobre distancias de pocos kiló-
metros.
– Instalación de Redes Locales a gran velocidad.
– Realización de Redes Multipunto en zonas urbanas.
Este tipo de módem no está normalizado por el CCITT, pero presenta como típicas las siguientes
características:
– Velocidad seleccionaba entre: 600, 1200, 2400, 4800, 9600, 19200, 40800 y 48000.
– Tipo de línea: pares metálicos, sin carga, 2, 6, 4 hilos.
– Sincronismo de bit: proporcionado por el módem o por el terminal.
– Codificación bifásica diferencial.
– Interface con el terminal según Rec. V.24 y V.28.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 181


CONCEPTOS BÁSICOS DE TELEMÁTICA

7.3.2. AIT
Equipos obsoletos utilizados cuando la línea de transmisión es de tipo telegráfico (pares físicos y/o
canales de telegrafía armónica) y para velocidades de hasta 200 bits/s; se emplean como ETCD los
adaptadores de impulsos telegráficos, cuya función consiste en convertir la señal digital que entrega el
terminal (entre 3 y 25 voltios) en impulsos telegráficos de la misma duración que el bit que los origina,
pero de tensiones de ± 60 V, según que aquel sea 1 o 0. En la parte receptora, se realizará el proceso
inverso.
El AIT presenta una interface según Rec. V.24 y V.28 en el lado terminal, y entrega a la línea de
transmisión, que siempre será de dos hilos con vuelta por tierra, una corriente de doble polaridad y
nivel telegráfico. Permite el trabajo en modo semidúplex o dúplex integral.

7.4. EQUIPOS TERMINALES O TERMINALES REMOTOS


El terminal es el instrumento que recibe el mensaje y lo devuelve al sistema de telecomunicación.
También, de una forma generalizada, se dice que un equipo terminal de telecomunicaciones es todo
dispositivo que permite la entrada y salida de información y facilita la interconexión y el acceso a las
redes de telecomunicaciones mediante las oportunas interfaces a esas redes, para el envío y recepción
de la información a distancia. A continuación estudiaremos los terminales remotos para los servicios
de datos.
NOTA: actualmente la mayoría de estos equipos están desfasados. La principal
razón de ello es el avance de las telecomunicaciones en otras áreas, sobre todo
en internet.

7.4.1. Teletipos
El teletipo es en esencia una máquina de escribir capaz de entregar textos codificados en el
alfabeto CCITT2 (5 bits), transmitidos en formato arrítmico a 50 baudios (algunas administraciones
permiten el funcionamiento a 75 y 100 baudios).
El teletipo permite la recepción automática desatendida, poniéndose en marcha automática-
mente para la recepción de un mensaje e incluyendo una identificación automática del terminal
distante.
Aunque este servicio es muy limitado en cuanto a formato y juego de caracteres y en un futuro
lejano será sustituido paulatinamente por el Teletex, ofrece las ventajas de tener una cobertura mun-
dial, estar altamente normalizado y tener unas tarifas razonablemente bajas.
También existe la posibilidad de utilizar una interface ordenadortelex, aprovechando la difusión de
los PC’s, permitiendo la interconexión del sistema informática con la red telex, disponiendo además
de las facilidades y funciones del ordenador.

7.4.2. Teletex
En 1980 el CCITT normalizó el servicio TELETEX dando para el mismo la siguiente definición:
Un servicio internacional de transferencia automática de textos entre memorias
de dos terminales, que se utilizan para producir, editar y presentar dichos textos,
y que permite a los abonados el intercambio de correspondencia o archivos sobre
la base de esta transferencia automática de memoria a través de redes de teleco-
municación.
Los terminales Teletex integran de alguna forma las funciones del teletipo, la máquina de escribir
y del procesador de textos.
Cuando el terminal opere en modo local, por ejemplo, cuando sea utilizado como máquina de
escribir, la comunicación entrante no debería interrumpir el trabajo en local. Sin embargo, bajo la
condición de memoria de recepción ocupada, la producción de una copia permanente del mensaje
recibido debe tener prioridad sobre el modo local.

182 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


CONCEPTOS BÁSICOS DE TELEMÁTICA

En el modo de envío el terminal teletex debe ser capaz de enviar al menos una selección de
caracteres de los contenidos en el repertorio básico internacional de caracteres teletex. En el modo
de recepción el terminal teletex debe ser capaz de recibir todos los caracteres de este repertorio, así
como manejar páginas en formato vertical y horizontal.
Después de la transmisión en el modo básico de operación el contenido, disposición y formato
del mensaje Teletex en el terminal receptor será el mismo que el generado por el terminal transmisor.
Cada terminal Teletex debe tener una única identificación y deberá estar provisto con memoria para
las funciones de transmisión y recepción.

7.4.3. Datáfono
Es un equipo de abonado que trabaja como teléfono convencional y además como equipo para
comunicaciones informáticas. Como equipo de datos puede comunicarse con un Centro de Cálculo
Abonado (CCA) por la Red Telefónica Conmutada o por la Red de Transmisión de Datos (lberpac). Las
características más importantes son:
– La entrada de datos puede efectuarse por teclado principal, teclado auxiliar, o lectura de
banda magnética de la tarjeta.
– El procedimiento de conexión es automático mediante la pulsación de una tecla de control.
– Los datos de cada transacción se almacenan en un registro, antes de su envío a línea, para
permitir su corrección.
– Tienen un visualizador de mensajes de tutoría para guiar al operador en los distintos pasos.
– La velocidad de transmisión/recepción es de 300 bps.
– Los datos recibidos del CCA pueden destinarse al visualizador y/o a la impresora.
– Dispone de una rutina automática de mantenimiento.
– El identificativo del equipo está programado y coincide con el número telefónico de la línea
a la que se conecta.
– Consta de: Unidad de Control, Microprocesador + Memoria, teclado principal de funciones,
auxiliar, utilidad de display, etc.

7.4.4. Multiplicador de interface (MIM)


Este equipo se utiliza para aprovechar un enlace existente para poder establecer comunicación
con nuevos terminales. Para ello tienen que darse las siguientes condiciones:
– Ordenador que admita un programa multipunto.
– Igual velocidad para todos los elementos.
– Terminales inteligentes.
– Igual protocolo y código.
– Máxima distancia entre elementos 100 m.
La puerta de comunicaciones del ordenador y controlador se conecta al módem local a través
de la interfaz CCITT V.24/V.28, y la señal transmitida es llevada al punto remoto por medio de la línea
telefónica correspondiente, apareciendo una vez demodulada en la interfaz del módem remoto. Esta
señal se repite en cada una de las salidas del Multiplicador; sólo una, la que corresponde al terminal
identificado, acepta y contesta.

7.4.5. Difusor Radial (DR)


Basándose en los mismos criterios que se han comentado para el Multiplicador de Interface, pero
con unos resultados diferentes, se puede definir un equipo denominado Difusor Radial. Este permite
la conexión de una puerta de comunicaciones con varias líneas de teleproceso simultáneamente,
utilizando un programa multipunto.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 183


CONCEPTOS BÁSICOS DE TELEMÁTICA

La diferencia fundamental es que, mientras con el uso del MIM todos los terminales tenían que
estar ubicados en el mismo punto (100 m), con el uso del DR, cada terminal puede tener una ubica-
ción diferente utilizándose módems.
Al ser un equipo totalmente transparente y no introducir retardos, permite su uso con cualquier
sistema, pudiendo trabajar a velocidades de hasta 19.200 bps, en síncrono y asíncrono.

7.4.6. Facsímil
Los terminales de Facsímil, también conocidos como equipos de Telefacsímil o Telecopiadoras, o
más comúnmente como el equipo que presta el servicio “FAX”; se conocen desde el siglo pasado (año
1842). Permiten transmitir a distancia documentos mediante su exploración secuencial. Por supuesto
también permiten la recepción de documentos.
Los equipos normalizados por el CCITT para los servicios de facsímil se dividen en grupos:
– Grupo l. Equipos que emplean técnica analógica, capaces de transmitir un documento ISO
A/4 de 4 a 6 ms, tiempo excesivo que los hace poco eficaces. Resolución 96 x 96 líneas/
pulgada, modulación de frecuencia. Están en desuso.
– Grupo II. Terminales analógicos, utilizan técnicas de compresión de banda, aunque sin incluir
el procesamiento de la señal obtenida para reducir redundancia. Son capaces de transmitir un
documento ISO A4 en unos 3 ms. Modulación de amplitud en BLV, resolución similar al grupo l.
Están concebidos para su conexión a la red telefónica conmutada. Servicios Telefax, Burofax.
– Grupo III. Terminales digitales, equipos que, incorporando sistemas de reducción de la in-
formación redundante de la señal antes de realizar el proceso de modulación (modulación
en fase), son capaces de transmitir el documento ISO A4 en menos de 1 minuto. Están
concebidos para su conexión a la red telefónica conmutada y son compatibles con los del
grupo II. Servicios Telefax, Burofax.
– Grupo IV. Terminal digital concebido especialmente para su conexión a la red de datos. En
estas máquinas será usual el uso mixto Teletex/Facsímil. Están pensados especialmente para
el servicio Datafax (uso de las redes públicas de datos para la transmisión Facsímil). Si la
transmisión tiene lugar entre Oficinas Públicas se denomina BUROFAX. Emplea modulación
de fase. Envío A4 inferior a 3 segundos. Resolución: 203 x 203 líneas por pulgada.
Los terminales grupo II y grupo III del servicio Telefax, pueden funcionar en modo manual o se-
miautomático (recepción desatendida) e incluso como fotocopiadores en modo local.

7.4.7. Centralitas digitales


En los últimos años las centralitas privadas automáticas, PABX (Private Automatic Branch Ex-
change), se han convertido en uno de los dispositivos indispensables de cualquier red privada en la
que se pretenda tener integrados servicios, como mínimo, de voz y datos.
Tomando como elemento base la centralita es posible configurar redes de distintos tamaños y
características. Para ello se han de tener en cuenta las características de la PABX elegida:
– Capacidad de señalización.
– Facilidades de administración, gestión y mantenimiento.
– Plan de numeración que soporta, etc.
Se puede configurar una red privada utilizando las facilidades de las PABX y su capacidad de conmuta-
ción, convirtiendo a una PABX en un nodo de una red privada. También se puede utilizar la posibilidad de co-
nexión de las PABX con la red pública como medio de acceso a puntos no pertenecientes a la red privada.
Estas centralitas han tenido el problema de que no existía un estándar de señalización entre
PABXs, es decir un estándar de señalización extremo a extremo entre usuarios finales.
Está bastante extendida la clasificación de las PABX en clave de generaciones. Las dos primeras
generaciones de PABX soportaban únicamente voz. La tercera generación de PABX son sistemas de
conmutación y transmisión digitales, soportando voz y datos, si bien estos últimos ocupan circuitos
de voz. En las centralitas de cuarta generación el tráfico de datos se realiza por conmutación de pa-
quetes, y en señalización y capacidad de transmisión se siguen estándares básicos para encaminarse
hacia las redes digitales de servicios integrados.

184 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


CONCEPTOS BÁSICOS DE TELEMÁTICA

Las centralitas conectables a la RDSI conocidas como


ISPABX ofrecerán conexión universal para la transmisión de
voz y datos a 64 kbps. También funcionarán en conexión con
otras ISPABX a través de enlaces digitales, pudiendo confi-
gurarse como redes privadas cualquiera que sea la distancia
geográfica.
Aspectos a tener en cuenta en la elección de PABX:
– Telefonía. Enlaces con las centrales telefónicas.
– Equipos de Comunicación y Ofimática que hayan de
trabajar con PABX.
– Análisis de las necesidades que se deben cubrir y
necesidades futuras inmediatas.
– Análisis de la oferta del mercado, considerando
precio, prestaciones, interfaces que proporcionan,
tráfico que soportan...

Parte de una moderna centralita digital


7.5. MULTIPLEXORES
Los multiplexores surgieron para optimizar la utilización de un medio de transmisión en una confi-
guración punto a punto. Mediante técnicas de multiplexación se consigue el máximo rendimiento del
enlace de comunicación establecido. El aprovechamiento máximo de la capacidad del enlace se logra
realizando varias comunicaciones independientes, lo que ahorra la contratación de nuevos circuitos.
El uso de multiplexores está ligado a la utilización de circuitos digitales dedicados, como forma de
aprovechar al máximo la capacidad de transporte proporcionada por dichos circuitos. Puesto que estos
dispositivos utilizan técnicas de conmutación de circuitos, su empleo ha estado asociado a aplicaciones
sensibles al retardo (por ejemplo, voz digitalizada o tráfico de redes de área local), para las que las técnicas
de conmutación de paquetes no resultan apropiadas, o bien para la transmisión de grandes caudales de
tráfico de datos que normalmente no pueden ser manejados por redes de conmutación de paquetes.
Los multiplexores inteligentes normalmente incorporan:
– Reencaminamiento automático: supone la existencia de varios encaminamientos posibles
entre dos puntos de la red. En caso de que un fallo en el circuito provoque la interrupción de
la comunicación, la red establece un nuevo camino de forma automática.
– Encaminamiento selectivo: para cumplir con las restricciones que ciertas aplicaciones
pueden tener (básicamente, necesidad de bajos retardos).
– Gestión de ancho de banda. Este concepto supone:
* Existencia de esquemas de contienda para la asignación de ancho de banda.
* Posibilidad de mantener canales de reserva para su uso por aplicaciones críticas.
* Existencia de esquemas de prioridad en los canales, pudiendo ocurrir que un canal de
baja prioridad sea liberado cuando se requiera.

Equipos de comunicaciones en funcionamiento

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 185


CONCEPTOS BÁSICOS DE TELEMÁTICA

Las comunicaciones mediante redes basadas en multiplexores tienen como característica fun-
damental la existencia de retardos de transmisión muy bajos y la posibilidad de manejar caudales
de información muy elevados. Están especialmente indicados para aplicaciones relacionadas con
servicios de transmisión de datos a alta velocidad.
Estos equipos suelen incorporar la posibilidad de interconexión a otros dispositivos y redes, tales
como PABX o redes de conmutación de paquetes X.25, pudiendo por ello también utilizarse para la
instalación de redes privadas de telefonía y para aplicaciones que requieran servicios de transmisión
de datos a baja y media velocidad.
Existen dos técnicas de multiplexación bien diferenciadas:
– Multiplexado por división en frecuencia (FDM): técnica de tipo analógico. Las caracterís-
ticas fundamentales son:
* Se divide el ancho de banda en canales paralelos.
* La anchura de banda de cada subcanal es directamente proporcional a la velocidad.
* Para evitar interferencias entre subcanales se utilizan bandas de guarda.
* La capacidad del canal está limitada por el ancho de banda.
Aunque esta técnica ha tenido gran desarrollo en telefonía y radio, está cediendo más terre-
no al Multiplexado por División en el Tiempo (TDM), que emplea tecnología digital y por tanto
más potencia al poder hacer uso de ordenadores en su proceso.
– Multiplexado por división en el tiempo (TDM). Sus características son:
* Emplea tecnología digital, y por lo tanto es más apropiada para la transmisión de datos
que FDM.
* División del tiempo en intervalos.
* Muestreo de líneas.
* Tiempos de guarda para evitar interferencias.
* Necesidad de empleo de módems.
Un caso particular del TDM es el Estadístico, consistente en no asignar intervalos fijos de
tiempo a cada canal, sino en hacerlo en función del tráfico existente en cada momento
en cada uno de ellos. Por tanto emplea tramos de longitud variable y el muestreo de
líneas se realiza en función del tráfico existente en cada momento en cada uno de ellos,
es decir, en función de su actividad.



  
  
   
 

Esquema de una transmisión multiplexada en el tiempo.


La señal de salida es una composición de segmentos temporales de las señales multiplexadas

8. EQUIPOS PARA LA INTERCONEXIÓN DE REDES


Los equipos utilizados para la interconexión de redes en general, y de LANs en particular, se cla-
sifican basándose en el modelo OSI para la interconexión de Sistemas Abiertos (ver tema sobre redes
de ordenadores), distinguiéndose los siguientes elementos:
– Repetidores (Repeaters).
– Concentradores (Hubs) y conmutadores (Switches).
– Puentes (Bridges).

186 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


CONCEPTOS BÁSICOS DE TELEMÁTICA

– Enrutadores (Routers).
– Pasarelas (Gateways).
– Ordenadores multienlace.
NOTA: las internets (conexión de varias redes) no toman ninguna topología
específica, sino aquellas de las redes que las forman.

8.1. REPETIDORES (REPEATERS)


Cuando una señal analógica viaja por un cable sufre un proceso de atenuación que aumenta
si existen ruidos y resistencias en la línea. Los repetidores se usan para superar el problema de la
atenuación. Un repetidor copia y amplifica la señal de entrada, aumentando la amplitud de las ondas
analógicas sin variar su frecuencia (que es donde se codifica la información). Así, la distancia de una
red se puede hacer extensible hasta largas distancias.
Los repetidores operan a nivel OSI nº 1 (nivel físico, ver tema de redes) y son dispositivos que se
encargan de regenerar la señal entre los dos segmentos de red que interconectan, extendiendo su
cobertura hasta varios kilómetros. Su utilización está limitada al entorno privado.

8.2. CONCENTRADORES (HUBS) Y CONMUTADORES (SWITCHES)


Dispositivo que conecta segmentos de una red local. Un concentrador tiene diferentes puertos.
Cuando un paquete de información llega a uno de estos puertos, se copia a los demás, reenviando el
paquete al resto de los segmentos de la red.
Un segmento es una sección de una red que incluye puentes, y routers, divi-
diendo la red en múltiples fragmentos.
Dividir una red Ethernet (la arquitectura más común) en segmentos es una de las formas más
aceptadas de incrementar sus prestaciones en cuestión de velocidad. Una red segmentada correcta-
mente mantiene la mayoría del tráfico en segmentos únicos, siendo posible para cada uno de ellos
alcanzar el máximo de ancho de banda sin interferencias de los demás.
Los concentradores pueden conectarse entre ellos en lo que se denomina cascada para aumen-
tar el número de puertos disponible.
Existen tres clases de concentradores:
– Concentrado pasivo: actúa como un repetidor multipuerto; la información que llega por
cualquiera de ellos se repite automáticamente por todos los demás.
– Concentrador inteligente: incluye características adicionales que permite al administrador
de la red monitorizar el tráfico de red que circula por el concentrador. De esta forma se pue-
den asignar prioridades a algunos puertos específicos.
– Conmutador o switch: analiza la dirección de cada paquete y lo envía exclusivamente al
puerto que tenga asignada dicha dirección. Esta característica disminuye drásticamente el
tráfico en la red, por lo que estos dispositivos tienen una gran aceptación en el mercado.
Los modernos switches tienen puertos de 10, 100 e incluso 1000 Mbps, permitiendo al adminis-
trador asignar los puertos más rápidos a aquellos dispositivos con gran demanda de ancho de banda,
tales como los servidores y routers.

Vistas delantera y trasera de un pequeño concentrador. En esta última podemos apreciar los puertos de comunicaciones donde
se conectan los dispositivos, mientras que la delantera dispone de pilotos indicadores de la actividad del dispositivo

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 187


CONCEPTOS BÁSICOS DE TELEMÁTICA

8.3. PUENTES (BRIDGES)


Un puente conecta dos redes que utilizan la misma tecnología (p. ej. Ethernet o Arcnet), pero sólo
pasa un paquete de la red A a la B si dicho paquete tiene como destinatario un ordenador de la red B.
En caso contrario lo ignora, por lo que el tráfico de una red no se ve afectado por el de la otra.
Los bridges operan a nivel de MAC (nivel 2). Son por lo tanto elementos transparentes a los pro-
tocolos de niveles superiores. Los puentes pueden ejercer las siguientes funciones:
– Descongestionar una red saturada. En efecto, aprovechando la funcionalidad antes des-
crita, una red saturada puede segmentarse en dos unidas por un puente. El puente filtra los
paquetes de una a la otra y disminuye el tráfico global.
– Aumentar la seguridad ante posibles fallos en la red. Si dividimos una red mediante un
puente, un fallo en el sistema de cableado de una de ellas no afecta a la otra, a excepción
de que no podría comunicarse con ella.
– Mejorar la seguridad ante ataques piratas. Dividiendo una red poco segura en dos, una
de ellas al menos es segura. El flujo de información confidencial puede así restringirse a
una zona segura. Esto evita ataques por ejemplo mediante analizadores de protocolos, que
por otra parte se justifican como elementos de ayuda para analizar el tráfico, problemas de
saturación, análisis de programas de red, etc.
– Función de autoaprendizaje (self learning). Cuando un bridge recibe una trama de una
LAN, analiza la dirección origen de la misma y la compara con las direcciones almacenadas
en su tabla de enrutamiento. Si esta dirección no está incluida en la tabla, la añade junto
con un indicativo de la red (o segmento de red) a la que pertenece. Mediante esta función
de autoaprendizaje se pueden añadir estaciones en cualquiera de las redes sin necesidad de
actualizar la tabla de enrutamiento.
– Funciones de filtrado (filtering) y reenvío (forwarding). En cada trama que recibe, el
bridge analiza las direcciones origen y destino. Si ambas pertenecen a la misma red rechaza
automáticamente la trama de información (filtrado). En caso contrario la reenvía a la red
destino. En resumen un bridge es un elemento que interconecta dos redes aislando el tráfico
de una y otra mediante la función de filtrado.

8.4. ENRUTADORES (ROUTERS)


Un router es un dispositivo que conecta dos redes, que si bien pueden ser de la misma tecnolo-
gía, suelen ser distintas, p. ej. una Ethernet y una Token Ring. Los routers tienen una dirección en la
red a diferencia de los puentes (esta es una diferencia importante entre ambos dispositivos), y son
parte esencial en grandes redes con distintas tecnologías como internet.
Un ordenador puede por tanto direccionar un router como parte intermediaria en un proceso de
comunicación. Esto no es posible con un puente, que sin embargo debe examinar todos los paquetes
que circulan por el medio para determinar cuál debe retransmitir a la otra red y cuál no. Un router
nunca examina un paquete que no esté dirigido a él.
Los routers no sólo incorporan la función de filtrado característica de los bridges, sino que, ade-
más, encaminan la información por el trayecto óptimo. Por esta razón estos dispositivos son mucho
más adecuados cuando se trata de conectar un número elevado de LANs a través de una red de
interconexión compleja con múltiples caminos entre dispositivos.
Los routers utilizan un esquema de direccionamiento jerárquico (tablas de enrutamiento) que
distingue entre la dirección de un dispositivo dentro de la red y la dirección de red. Para ello el router
debe incorporar protocolos de nivel 3 (nivel de red). Son por lo tanto elementos dependientes del
protocolo de red (TCP/IP, DECNET, SNA, XNS, etc.), que sin embargo, a diferencia de los bridges,
permiten interconexión de LANs heterogéneas a niveles 1 y 2.
Los routers pueden ser estadísticos o dinámicos. Los primeros requieren una actualización de sus
tablas de enrutamiento por parte del gestor de la red ante un cambio o fallo de ésta. Son adecuados para
un control máximo sobre la red por parte del gestor, no siendo recomendables en redes complejas, en las
que son más adecuados los routers dinámicos. En éstos, el mismo protocolo de nivel 3 se encarga de la
notificación automática del cambio o avería mediante mensajes de difusión (broadcast) entre routers.

188 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


CONCEPTOS BÁSICOS DE TELEMÁTICA

Todos los dispositivos que estamos estudiando se pueden montar en una disposición especial denominada rack,
que consiste en un armario metálico con guías en sus lados donde fijar los dispositivos de comunicación

8.5. PASARELAS (GATEWAYS)


Este es un término genérico que puede referirse a conceptos distintos:
– El primero es como un router, con el mismo significado que explicamos en el apartado ante-
rior. Este sentido del término está cayendo en desuso.
– El segundo es una compuerta de aplicación, que es un software que traduce los datos entre
distintas aplicaciones de red, por ejemplo entre dos sistemas de correo electrónico.
Las pasarelas o gateways son elementos para la interconexión que operan en los niveles su-
periores al de red (niveles 4 a 7). Es decir, proporcionan interconectividad extremo a extremo entre
redes de distinta naturaleza (por ejemplo LANs Ethernet y Token Ring, PABX, RTC, etc.), pero son, al
igual que los routers, dependientes del protocolo. Una pasarela está definida para un escenario de
comunicaciones concreto, por ejemplo una gateway X25, que asume tareas de las capas de trans-
porte, sesión y aplicación a modo de terminal PAD (Packet Assembler/Disassembler). Son por tanto
elementos de interconexión orientados a la aplicación.

8.6. ORDENADORES MULTIENLACE


Un ordenador que disponga de varias tarjetas de red es un multienlace. Si las tarjetas son de
distinta tecnología, el ordenador puede servir como router, no es el caso si las tarjetas son de la
misma tecnología.

Pequeño armario de comunicaciones (también denominado rack) con varios dispositivos


de comunicaciones entre los que se distinguen dos concentradores (arriba) y un router (abajo, de color negro).
Obsérvense los pilotos de actividad en los concentradores

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 189


CONCEPTOS BÁSICOS DE TELEMÁTICA

9. SERVICIOS Y SISTEMAS DE TRANSMISIÓN DE DATOS


La Ley 31/1987, de 18 de diciembre, de Ordenación de las Telecomunicaciones (LOT), estableció
un marco jurídico donde deben ajustarse las diversas modalidades de telecomunicación.
Esta ley establece las funciones y responsabilidades de la Administración Pública y de los secto-
res público y privado. Esta norma distingue entre servicios finales y de valor añadido. También diferen-
cia las funciones reglamentarias siguiendo las directrices marcadas por el Libro Verde de la UE (Unión
Europea), que son potestad del Ministerio de Obras Públicas, Transporte y Medio Ambiente (MOPTMA)
y de las de explotación, que son realizadas por Telefónica de España, S.A.
A continuación se describe cada servicio definido en la LOT.

9.1. SERVICIOS PORTADORES


Son aquellos que proporcionan la capacidad necesaria para la transmisión de señales entre
puntos de terminación de red definidos. Estos servicios son:
– Servicio portador mediante conmutación de circuitos.
– Servicio portador mediante conmutación de paquetes.
– Servicio portador no conmutado o de alquiler de circuitos.
La LOT fijó un plazo para que el Gobierno español formalizara un contrato con Telefónica de Espa-
ña, S.A., que determinara los servicios portadores y finales de telecomunicación cuya explotación se
concedían en régimen de monopolio a la citada empresa. El contrato firmado el 29/11/1991 otorga
a Telefónica la concesión de los siguientes servicios portadores:
– Servicio portador del servicio telefónico básico.
– Transmisión de datos por la red pública de conmutación de paquetes que preste Telefónica.
– Transmisión de datos por la red telefónica conmutada.
– Alquiler de circuitos.
Debido a la transposición del Derecho interno de la Directiva 90/387/CEE y 90/388/CEE se reduci-
rán los servicios concedidos en monopolio. La transposición de estas Directivas al ordenamiento jurídico
español, reducirá los servicios portadores en régimen de monopolio de Telefónica a los siguientes:
– Servicio portador del servicio telefónico básico.
– Servicio portador de alquiler de circuitos.
El uso de los circuitos punto a punto está indicado en los siguientes casos:
– Cuando se necesitan veinticuatro horas permanentes de posibilidad de utilización. Por ejem-
plo, entornos on-line con consultas continuadas y entrada de datos en modo transaccional.
– Cuando se prevea la necesidad de utilizar la línea durante varias horas para una transmisión
ininterrumpida. Por ejemplo, transmisión batch con volúmenes de información muy elevados.
– Situaciones en que los tiempos de establecimiento y de respuesta son muy importantes.
– Para la interconexión en modo conmutado de redes locales a través de routers y bridges.

9.2. COMUNICACIÓN VÍA SATÉLITE


El objeto de las comunicaciones vía satélite es establecer radioenlaces entre estaciones fijas o móviles
a través de repetidores activos o pasivos situados en una órbita alrededor de la Tierra. La utilización de saté-
lites geoestacionarios de comunicaciones para uso comercial ha tenido su mayor difusión en la década de
los ochenta, cuando se dispuso de la tecnología necesaria para diseñar pequeñas estaciones terrestres.
Estos sistemas de comunicación vía satélite ofrecen enormes capacidades para el desarrollo de redes
privadas. Los costes asociados a redes privadas basadas en servicios terrestres han potenciado el uso de
redes de satélite privadas. Hoy se están realizando mediante el uso de satélites de comunicaciones, por
ejemplo, emisiones de vídeo, conversaciones telefónicas y transmisiones de datos en banda ancha.

190 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


CONCEPTOS BÁSICOS DE TELEMÁTICA

Entre las ventajas y desventajas de las comunicaciones vía satélite se pueden destacar:
Ventajas:
– El coste de la transmisión no depende de la distancia entre las estaciones emisora y receptora.
– El coste de la transmisión no depende del número de estaciones que reciben la comunicación.
– Se utilizan señales de gran ancho de banda capaces de transmitir grandes cantidades de
datos.
Desventajas:
– El retraso en la comunicación entre dos estaciones terrestres es de 250 ms.
– Las señales procedentes del satélite son muy débiles, necesitándose equipos sofisticados y
antenas de considerable tamaño para su amplificación.
– Los satélites que operan en la banda de frecuencia K (14/12 GHz) son muy sensibles a in-
terferencias por el mal tiempo.
– Los que operan en la banda C (6/4 GHz) son muy sensibles a las interferencias terrestres de
las grandes ciudades.

9.3. SISTEMA VSAT


El sistema VSAT (Very Small Aperture Terminal, Terminal de Pequeña Apertura) surge como una
respuesta a la amplia difusión de las redes de comunicaciones privadas por satélite. Está basado en
reducidas estaciones terrestres que se adaptan perfectamente a los requisitos de los usuarios y que
se pueden instalar incluso sobre los edificios.
Los equipos VSAT se comunican directamente con el satélite y se pueden utilizar para la transmi-
sión de vídeo, facsímil, comunicaciones digitalizadas de voz, etc. Por lo general este sistema ofrece
un rápido y económico método a las organizaciones para instalar una red propia de comunicaciones,
con la que poder acceder a sus sucursales, filiales o delegaciones lejanas.
El sistema VSAT utiliza la banda K del espectro de frecuencias y se adapta perfectamente a
redes de comunicación centralizadas con tráfico reducido. Hoy día funcionan redes que conectan
hasta 2000 estaciones periféricas a un coste relativamente bajo en comparación con enlaces
terrestres.

9.4. SERVICIOS FINALES


La LOT los define como aquellos que proporcionan la capacidad completa para la comunicación
entre usuarios, incluidas las funciones del equipo terminal y que generalmente requieren de conmu-
tación. Estos servicios son:
– Servicios de voz o telefónicos: telefónico fijo, móvil y de uso público.
– Servicios de textos o gráficos: télex, teletex, facsímil, videotex...
A continuación se describen las principales redes sobre las que se apoyan los servicios finales:
– Red Telefónica Básica (RTB).
– Red Telegráfica conmutada o red TELEX.
– Red Digital de Servicios Integrados (RDSI).

9.4.1. Red Telefónica Básica (RTB)


A la RTB también se le denomina Red Telefónica Conmutada (RTC), dado que se basa en la téc-
nica de conmutación de circuitos. Básicamente consiste en enlazar a voluntad dos equipos terminales
(teléfonos) mediante un circuito físico que se establece específicamente para la comunicación y que
desaparece una vez que se ha completado la misma.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 191


CONCEPTOS BÁSICOS DE TELEMÁTICA

La Red Telefónica Básica (RTB) es el soporte físico de comunicaciones más popular y el más
utilizado de los existentes en la actualidad en nuestro país y en el extranjero, puesto que se trata de
la red que da soporte al servicio telefónico tradicional. En España esta red es explotada y gestionada
por su propietaria Telefónica de España, S.A.
Ventajas:
– Posibilidad de establecer una comunicación telefónica con cualquier usuario del mundo.
– Compatibilidad con todas las redes telefónicas internacionales.
– Rapidez bastante aceptable en la comunicación.
– Capacidad para el intercambio electrónico de ciertas informaciones.
– Coste de comunicación moderado.
Desventajas:
– La cobertura no es total en el ámbito geográfico, sobre todo en lo que se refiere a las zonas
rurales menos favorecidas.
– La saturación en las líneas puede producir a veces un cierto retraso en el establecimiento de
la comunicación.
– La capacidad de transmisión de datos es bastante baja, dado que el diseño de la red res-
ponde básicamente a las necesidades de transmisión de señales analógicas.
– Los costes son crecientes con la distancia.

9.4.2. Red Telegráfica conmutada (red TELEX)


La red TELEX es de estructura similar a la red telefónica, en la que los abonados se conectan a
centros especiales de conmutación, y permite el intercambio de mensajes entre abonados de España
y entre abonados de España y del extranjero. Se utiliza baja velocidad de transmisión, de 50 a 200
bps, con el alfabeto UIT-T nº 2 y mediante procedimiento asíncrono.
En España esta red depende de Correos y Telégrafos.
Ventajas:
– Diálogo por escrito con otro usuario.
– Transmisión de datos en ausencia del operador quedando éstos registrados automáticamente.
– Red muy económica.
Desventajas:
– Limitada a aplicaciones de baja velocidad.
– La tarificación se realiza por tiempo de conexión, por ello es importante disponer de un sis-
tema de almacenamiento auxiliar.

9.4.3. Red Digital de Servicios Integrados (RDSI)


Si la información a enviar se codifica en formato digital, ésta puede transmitirse por una única red,
independientemente de la naturaleza diversa del formato original. Este concepto es la base de la Red Digital
de Servicios Integrados (RDSI). Un usuario de RDSI utiliza un único punto de acceso a la red para utilizar cual-
quier tipo de servicios de comunicación. Este punto permite la conexión simultánea de terminales de todo
tipo, accesibles mediante un único número identificativo. Así, el concepto de RDSI supone la desaparición
progresiva de la operativa tradicional, donde cada tipo de servicio se sustentaba sobre una red propia.
Según la definición de la UIT-T, la Red Digital de Servicios Integrados es:
Una red desarrollada a partir de la Red Telefónica Digital Integrada que pro-
porciona una conexión digital de extremo a extremo para dar soporte a un amplio
rango de servicios, sean o no de transporte de voz, a la cual tienen acceso los
usuarios mediante un número limitado de interfaces estándar usuario/red de pro-
pósito múltiple.

192 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


CONCEPTOS BÁSICOS DE TELEMÁTICA

En la RDSI, la información de señalización se procesa por un canal separado, de forma inde-


pendiente de la información a intercambiar por los usuarios de la red. El tratamiento separado de
señalización y datos permite una flexibilidad mucho mayor en el uso de las redes.
Aunque existe una única definición conceptual de la RDSI, se distinguen dos grandes variantes
de la misma. Actualmente está en desarrollo la RDSI de banda estrecha (RDSI-BE) y se prevé la RDSI
de banda ancha (RDSI-BA), que difieren en su capacidad máxima de transmisión.

RDSI-BE (RDSI de banda estrecha)


La RDSI de banda estrecha proporciona la incorporación de nuevas funciones en las centrales
digitales que permitan la existencia de elementos de conmutación de paquetes en las propias cen-
trales de conmutación, y conexiones conmutadas en la propia central, permitiendo así servicios como
la videoconferencia.
Se distinguen los siguientes elementos:
– Canales de transmisión: según los estándares de la UIT-T, la RDSI de banda estrecha ofre-
ce dos tipos de canales para la transferencia de información de usuario:
– Canal B: 64 kbps destinados a la transferencia transparente de información de usuario.
– Canal D: transporta la señalización entre el abonado y la red. Actúa a una velocidad de 16
kbps o de 64 kbps, según el tipo de interfaz.
– Accesos de usuario: la UIT-T ha definido dos tipos de acceso digital de abonado, cada uno
orientado a un tipo diferente de aplicación:
– Acceso básico (2B + D), formado por dos canales B y un canal D de 16 kbps. Su aplicación
principal es en las instalaciones pequeñas, de un único abonado o en centralitas y redes de
área local de pequeña capacidad.
Con un único acceso RDSI (número telefónico) se puede:
* Mantener dos conversaciones telefónicas diferentes, utilizando los dos canales B.
* Utilizar el canal D para comunicaciones de datos en modo paquete, atendiendo a la vez a:
• Ordenador personal.
• Módem.
• Fax.
• Terminal videotex.
• Otros equipos de datos.
– Acceso primario (30B + D), formado por 30 canales B y un canal D de 64 kbps, con los
que se obtiene una velocidad global de 2.048 kbps. Su aplicación principal es en centralitas
y redes de media y gran capacidad. Uno de los mayores atractivos de este acceso primario
es la posibilidad de definir redes privadas, físicas o virtuales.
Las ventajas de la RDSI de banda estrecha para un usuario serían las siguientes:
– Mejores servicios y calidad.
– Menos errores.
– Eliminación de módem.
– Reducción en tiempos y costes de transmisión.
– Establecimiento rápido de llamadas => Menor coste en tiempos de conexión.
– Mejora del tiempo de respuesta en servicios de consulta.
– Mejor gestión de comunicaciones internas.
– Reducción de cableado interno.
– Mayor facilidad en acceso a nuevos servicios.
– Terminales integrados y reducción de su coste.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 193


CONCEPTOS BÁSICOS DE TELEMÁTICA

– Estándares, compatibilidad de equipos y redes abiertas.


– Menor riesgo en la introducción de nuevos servicios.
– Integración de Informática y Comunicaciones (accesos).

RDSI-BA (RDSI de banda ancha)


No todos los servicios de telecomunicación podrán ser integrados en una RDSI de banda estre-
cha. Hay servicios que necesitan velocidades aún más elevadas, superiores a 2 Mbps, como son,
entre otros, la videotelefonía de banda ancha, mensajería de vídeo, sonido alta velocidad, videotext
de banda ancha, datos de alta velocidad...
La codificación de señales de vídeo convencional exige en la actualidad velocidades de transmi-
sión superiores a los 2 Mbps, que son el límite superior de la RDSI de banda estrecha.
Para integrar este tipo de servicios en la RDSI se requieren nuevos elementos de tecnología
avanzada. Los más significativos son los cables de fibra óptica para el acceso de abonado, y los
conmutadores de señales de banda ancha capaces de conmutar señales digitales de alta velocidad.
La integración de estos elementos en las redes actuales dará origen a la RDSI de banda ancha, cuyo
inicio de oferta comercial está previsto a largo plazo.
En la actualidad Telefónica se encuentra en una fase de migración hacia la transmisión y con-
mutación digital en su red básica, así como en la introducción de la señalización por canal común.
Esta migración tiene un gran peso en la estrategia de implantación de la futura red. El gráfico adjunto
recoge la planificación de Telefónica hasta la incorporación de la RDSI de Banda Ancha.

9.5. SERVICIOS DE VALOR AÑADIDO


Los Servicios de Valor Añadido (SVA) son un subconjunto de los servicios de telecomunicación
que tienen como característica común la de añadir alguna función o facilidad complementaria a otros
servicios de telecomunicación.
La LOT, en su artículo 20, define los servicios de valor añadido como:
Aquellos servicios de telecomunicación que, no siendo servicios de difusión y
utilizando como soporte servicios portadores o servicios finales de telecomunica-
ción, añaden otras facilidades al servicio soporte o satisfacen nuevas necesidades
específicas de telecomunicación como, entre otras, acceder a la información al-
macenada, enviar información o realizar el tratamiento, depósito y recuperación
de información.
A continuación se describen los principales servicios de valor añadido:

9.5.1. Conmutación de datos por paquetes o circuitos


El Real Decreto 804/1993, de 28 de mayo, aprobó el Reglamento técnico y de prestación del
servicio de telecomunicaciones de valor añadido de suministro de conmutación de datos por paque-
tes o circuitos:
Consistente en la explotación comercial de la transmisión directa de datos
desde y con destino a puntos de terminación de una red constituida por servicios
portadores, sistemas de conmutación o tratamiento de la información que sean
propiedad del concesionario, o cualquier combinación de los anteriores.
Las empresas que prestan este servicio necesitan que los operadores públicos le suministren
circuitos alquilados para interconectar sus centros entre sí y éstos con los de sus clientes. Estas em-
presas tiene las siguientes obligaciones:
– Admitir como usuarios a todas las personas físicas o jurídicas.
– Las tarifas máximas que deberán satisfacer los usuarios del servicio serán de público cono-
cimiento.

194 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


CONCEPTOS BÁSICOS DE TELEMÁTICA

– Cumplir las normas y especificaciones técnicas y de homologación de los equipos, aparatos,


dispositivos y sistemas.
– Garantizar la seguridad de la red en los casos de emergencia o fuerza mayor.
– Interconectarse con otros servicios de valor añadido de suministro de conmutación de datos
por paquetes o circuitos.
– Someterse expresamente a la normativa sobre protección de datos.
– Informar a los usuarios de las coberturas del servicio ofrecido.
– Informar de los modos de acceso a través de los servicios portadores de alquiler de circuitos
o del telefónico básico, así como de las facilidades disponibles en su servicio.
– Prestar el servicio con los niveles de calidad adecuados.
Las tarifas que deberán satisfacer los usuarios del servicio se compondrán de una cuota inicial
de conexión, cuota periódica de alquiler y cuota de utilización. El proyecto contempla en sus disposi-
ciones transitorias la situación en la que quedarán los clientes de Telefónica de España, S.A., y ella
misma tras la entrada en vigor del Reglamento indicado anteriormente:
Los usuarios que a la fecha de la entrada en vigor del Real Decreto tuvieran suscritos contratos
con Telefónica de España, S.A., podrán rescindir la relación jurídica existente previa notificación, con
un plazo de preaviso de seis meses.
Telefónica de España, S.A., podrá continuar prestando servicio de conmutación de datos duran-
te el período de un año, debiendo solicitar en el plazo de seis meses desde la publicación del Real
Decreto, la transformación de su título habilitante cumpliendo lo dispuesto por el Reglamento. En la
actualidad Telefónica de España, S.A., ya es una de las empresas que ha obtenido la autorización
administrativa para la prestación del servicio de conmutación de datos por paquetes o circuitos.
El servicio de conmutación de datos fue liberalizado a principios de 1993, fecha hasta la que
Telefónica lo suministraba en régimen de monopolio.

9.5.2. Videotex
El videotex es un servicio de telecomunicación especialmente orientado al acceso a bases de
datos a través de la Red Telefónica Conmutada, con un terminal específico de bajo coste y fácil ma-
nejo aunque también es posible convertir un PC en terminal de videotex añadiéndole una tarjeta de
emulación de muy bajo coste.

9.5.3. Teletex
El objetivo de este servicio es permitir la transmisión de textos alfanuméricos entre diversos
terminales, de tal forma que la información llegue del emisor al receptor en idénticas condiciones de
formato, presentación y contenido.

9.5.4. Correo Electrónico


El correo electrónico es un sistema de transmisión de textos, codificados en algún sistema están-
dar (ASCII, EBCDIC...), desde unos dispositivos de una red local o remota a otros. Existe un estándar
para el correo electrónico, denominado X.400, que permite el envío de ficheros entre sistemas dife-
rentes siempre que tengan interfaz con dicho estándar.

9.5.5. Intercambio Electrónico de Documentos (EDI)


Consiste en la transmisión electrónica de información de ordenador a ordenador, de forma que
pueda ser procesada automáticamente y sin intervención manual. Es decir, consiste en sustituir el
soporte físico (papel) de los documentos mercantiles más habituales que intercambian las organi-
zaciones (pedidos, albaranes, facturas, etc.) por transacciones electrónicas entre sus respectivos
ordenadores.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 195


CONCEPTOS BÁSICOS DE TELEMÁTICA

9.5.6. Transferencia Electrónica de Fondos y Puntos de Venta


Estos servicios están orientados a operaciones de pago y de crédito con tarjeta y compensa-
ciones bancarias. Desde los terminales se establecen comunicaciones con los centros de servicio
para la autorización, control y ejecución de las transacciones. También se incluyen en esta familia de
servicios las aplicaciones de banco en casa en entorno videotex u otros y el servicio de cajeros auto-
máticos. Se apoyan en las redes públicas de telefonía y de paquetes. Por el lado de los terminales,
éstos se conectan, dependiendo del tráfico, a la RTC (los de bajo tráfico) o a redes X.25 (los de tráfico
alto). Los centros de servicio acceden directamente a X.25.

9.5.7. Telealarmas
Servicio orientado a proporcionar a los centros de operación y servicio la información procesada pro-
cedente de sensores remotos. Se apoya en la RTC, utilizando la propia línea telefónica del abonado para
el envío instantáneo de una señal de alarma codificada cuando se activa algún sensor. Acceso a bases
de datos: servicio que permite a sus usuarios acceder a información residente en ordenadores remotos.
Por el lado de los suministradores están los productores, quienes generan y elaboran la información y los
distribuidores, quienes ponen los medios para facilitar el acceso a ella por parte de los usuarios.

9.5.8. FTAM (File Transfer Access and Management)


Es un estándar de la organización ISO diseñado para proporcionar un sistema completo de
tratamiento de ficheros en un entorno multivendedor. Es la pieza básica para mover ficheros entre
sistemas abiertos, y es aplicable para:
– Transferencia de un sistema de ficheros a otro.
– Acceso a ficheros por parte de una estación de trabajo que no tenga disco duro.
– Manejo de ficheros por parte de servidores de impresoras y de otros dispositivos de salida.
– Acceso remoto a bases de datos.

196 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


TEMA
6
Sistemas de numeración y su representación.
Representación de la información.
Unidades. Códigos de representación.
Organización de la información.
Registros, ficheros, bibliotecas y bases de
datos. Modos de acceso a ficheros y datos
Los sistemas de numeración y las teorías matemáticas que los
estudian, adquieren un interés muy importante en el desarrollo de la
informática, al estar ésta basada en un sistema de numeración espe-
cial: el sistema binario. Este tema estudia estos sistemas con especial
énfasis en la representación binaria de cantidades numéricas y en los
principios básicos del Álgebra de Boole.
La información es la materia prima con la que trabajan los orde-
nadores. La información es el producto que se transforma o genera
mediante las aplicaciones informáticas para obtener resultados útiles
y productivos. Este tema desarrolla las técnicas para representar la
información en el mundo digital de los ordenadores
Los ordenadores poseen una gran capacidad de procesar infor-
mación y ofrecer resultados productivos. En este tema analizamos las
diferentes técnicas de organización, definición y proceso de los datos,
desde sus estructuras más sencillas hasta los complejos diseños de
bases de datos.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 197


SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

ESQUEMA INICIAL

1. Sistemas de numeración
1.1. Evolución
1.2. Conceptos
1.3. Teorema Fundamental de la Numeración

2. El sistema decimal

3. El sistema binario
3.1. El bit y los números binarios
3.2. La aritmética binaria
3.2.1. La suma
3.2.2. La resta
3.2.3. La multiplicación
3.2.4. La división

4. Otros sistemas de numeración


4.1. El sistema octal
4.2. El sistema hexadecimal

5. Principales aspectos del Álgebra de Boole


5.1. Conceptos básicos de electrónica digital
5.1.1 Nivel físico: componentes y circuitos
5.1.2. Nivel lógico: puertas lógicas y Álgebra de Boole
5.2. Breve biografía de George Boole
5.3. Álgebra de Boole
5.3.1. Conceptos iniciales
5.3.2. Definición de Álgebra de Boole
5.3.3. Función booleana
5.3.4. Diagramas de Karnaugh
5.3.5. Estados
5.3.6. Puertas lógicas y tablas de la verdad

6. Comunicación e información

7. La información en los ordenadores

8. Las medidas de la información: concepto de bits, bytes, caracteres, palabras


y campos

9. La representación de la información numérica


9.1. Introducción
9.2. Binario puro

198 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

9.3. Codificación en módulo y signo (MS)


9.4. Complemento a uno (C-1)
9.5. Complemento a dos (C-2)
9.6. Codificación en exceso a 2n-1
9.7. El sistema BCD (Binary Coded Decimal)
9.8. Codificación decimal desempaquetada
9.9. Codificación decimal empaquetada
9.10. Codificación en coma flotante
9.11. Codificaciones en otras bases: decimal, octal y hexadecimal

10. La representación de la información alfanumérica


10.1. Introducción
10.2. El conjunto de caracteres
10.3. La representación Fieldata
10.4. El Código ASCII
10.5. El Código BCDIC y EBCDIC

11. Datos
11.1. Definición y características
11.2. Tipos de datos
11.2.1. Tipos de datos simples estándar
11.2.2. Tipo de datos simples no estándar
11.2.3. Tipos de datos estructurados o complejos

12. Constantes y variables


12.1. Definiciones y características
12.2. Operación de asignación
12.3. Notación húngara

13. Expresiones y operadores


13.1. Expresiones y operadores numéricos
13.2. Expresiones y operadores relacionales
13.3. Expresiones y operadores lógicos (booleanos)
13.4. Reglas de precedencia

14. Cadenas de caracteres


14.1. Juego de caracteres
14.2. Cadena de caracteres
14.3. Almacenamiento en memoria
14.4. Operaciones con cadenas

15. Registros

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 199


SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

16. Arrays
6.1. Arrays unidimensionales: vectores
6.2. Operaciones con arrays unidimensionales
6.3. Arrays bidimensionales: matrices
6.4. Arrays multidimensionales

17. Estructuras dinámicas lineales


17.1. Introducción y definiciones
17.2. Referencias
17.3. Tratamiento de la memoria dinámica
17.4. Lista simplemente enlazada
17.4.1. Procesamiento de listas enlazadas simples
17.5. Lista circular
17.6. Lista doblemente enlazada
17.7. Estructura de pila
17.8. Estructura de cola
17.9. Estructura de doble cola (bicola)

18. Estructuras dinámicas no lineales


18.1. Estructura de árbol
18.1.1. Terminología de los árboles
18.1.2. Árboles binarios
18.1.3. Árboles binarios de búsqueda
18.1.4. Aplicaciones de los árboles binarios
18.2. Grafos
18.2.1. Terminología de los grafos
18.2.2. Tipos de grafos
18.2.3. Representación de los grafos
18.2.4. Operaciones con grafos
18.2.5. Aplicaciones de los grafos

19. Ficheros (archivos)


19.1. Introducción
19.2. Definiciones
19.3. Características de los ficheros
19.4. Clasificación de los ficheros
19.4.1. Archivos permanentes
19.4.2. Archivos de movimientos
19.4.3. Archivos de trabajo o temporales
19.5. Tipos de soporte
19.6. Organización de ficheros
19.6.1. Organización secuencial
19.6.2. Organización directa
19.6.3. Organización secuencial indexada

200 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

20. Operaciones con ficheros

21. Ordenación y búsqueda


21.1. Métodos de ordenación interna
21.1.1. Método de la burbuja
21.1.2. Método de inserción
21.1.3. Método de selección
21.1.4. Método de ordenación rápida o QuickShort
11.2. Búsquedas
21.3. Ordenación, búsqueda y fusión externa
21.3.1. Fusión o mezcla de archivos ordenados
21.3.2. Fusión de archivos
21.3.3. Clasificación de archivos

22. Sistemas gestores de bases de datos (SGBD)


22.1. Introducción
22.2. Definiciones y características
22.3. Evolución
22.4. Modelos de bases de datos
22.4.1. Modelo relacional
22.4.2. Modelo jerárquico
22.4.3. Modelo en red
22.5. Seguridad en las bases de datos
22.5.1. Seguridad contra usos incorrectos o no autorizados
22.5.2. Seguridad contra fallos del sistema

1. SISTEMAS DE NUMERACIÓN

1.1. EVOLUCIÓN
Desde los comienzos de la historia, el hombre ha utilizado la escritura para mantener y transmitir
información. La escritura abarca una gran variedad de técnicas y formas que oscilan desde el antiguo
jeroglífico egipcio, en el que se utilizaban símbolos para la representación de palabras, hasta el alfa-
beto actual que utilizan la mayoría de los idiomas contemporáneos.
Originalmente, el alfabeto como conjunto de símbolos se desarrolló en Grecia y posteriormente
en Roma, y de él se deriva nuestro alfabeto actual.
NOTA: recordemos que, aunque nuestra cultura occidental ha heredado gran
parte de su bagaje del imperio romano, en aquella época el uso del número, tal
como lo conocemos hoy día, era inexistente. Los romanos utilizaban letras para
representar cantidades numéricas.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 201


SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

Uno de los primeros intentos para la representación de datos numéricos en forma de escritura
fue el sistema de numeración indoarábigo, del que derivan los actuales sistemas de numeración,
incluido el sistema decimal.
Un sistema de numeración se caracteriza fundamentalmente por su base, que es el número de
símbolos distintos que utiliza; además es el coeficiente que determina cuál es el valor de cada sím-
bolo dependiendo de la posición que ocupe.

1.2. CONCEPTOS
Desde tiempos prehistóricos el ser humano ha tenido la capacidad de contar objetos. Intuiti-
vamente este hecho resulta bastante sencillo, pero se basa en una abstracción muy importante: la
representación del número de forma independiente a los objetos a los que se aplica.
Cuando decimos que alrededor de una mesa hay cuatro sillas, estamos particularizando un con-
cepto numérico general: el número cuatro. Es una abstracción general porque podemos aplicar el
número cuatro a diferentes objetos siempre que se presenten en esta cantidad, sean sillas, lápices
o las ruedas de un coche.
Un dígito es una representación material de un concepto numérico. Por “material” indicamos
que se puede plasmar sobre algún soporte, por ejemplo, podemos escribir el número cuatro en un
papel.
Esta abstracción de las cantidades significan que cobran entidad por sí mismas, pero es una
identidad abstracta que necesita representarse de alguna manera. La representación “material” de
los números es la base para ideas más complejas, como las operaciones aritméticas básicas, en un
primer lugar, y el desarrollo de matemáticas más complejas posteriormente.
La forma de representar y ordenar cantidades nos lleva a considerar un sistema de numeración.
La definición más sencilla del término “Sistema de numeración” es la siguiente:
Un sistema de numeración es un conjunto de símbolos y reglas que se utili-
zan para la representación de datos numéricos o cantidades.
Esta definición se completa con los siguientes postulados:
1. La representación de un número se efectúa mediante cadenas de dígitos (o sólo uno de
ellos).
2. Las cantidades expresadas dependen de los dígitos empleados por una parte, y de las posi-
ciones de éstos dentro de la cadena, por otra.
Cualquier sistema de numeración de los que vamos a estudiar se basa en estos dos principios
básicos. Nótese que el primer principio no indica que son necesarios un número predeterminado de
dígitos. La principal diferencia entre ellos es el número de dígitos que utilizamos para representar las
cantidades.
NOTA: intuitivamente pensamos en diez dígitos, del 0 hasta el 9. La razón
de que pensemos en esta dirección se debe a que el sistema de numeración que
utilizamos tiene diez dígitos como reflejo de nuestros diez dedos. Los dedos son el
primer y principal instrumento para contar que el ser humano utiliza.
Un sistema de numeración se caracteriza por su base, que no es más que el número de símbolos
(dígitos) que utiliza. El sistema decimal tiene 10 símbolos, y, como antes mencionábamos, las perso-
nas lo adoptamos por la sencilla razón de que tenemos 10 dedos en las manos. La curiosa razón de
ello es que en tiempos prehistóricos se utilizaban los dedos para contar rudimentariamente y expresar
cantidades.
El segundo principio nos lleva a una nueva definición: los sistemas de numeración actuales se
denominan posicionales, indicando esto que el valor de cada dígito en un número depende de su
posición y de su valor intrínseco.
El valor posicional está íntimamente ligado a la base que utilice el sistema. El siguiente ejemplo
pone de manifiesto esta idea. Veamos el número 675 en sistema decimal.

202 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN




  

      

 
 


 
        

   

  

       

 
 
 
 

       
  

  

       
   

    

  

El número decimal 675. Para determinar la posición de un dígito en la cadena que representa
el número comenzamos a contar de derecha a izquierda empezando desde 0

Como resultado del razonamiento anterior tenemos:


675 = (6 x 10 x 10) + (7 x 10) + 5; o lo que es lo mismo 6 x 102 + 7 x 101 + 5
El ejemplo anterior demuestra cómo el valor cada dígito depende de su posición en la cadena,
de su valor intrínseco y de la base del sistema de numeración empleado.

1.3. TEOREMA FUNDAMENTAL DE LA NUMERACIÓN


Existe una formulación matemática que nos ofrece una definición formal de las ideas que aca-
bamos de estudiar: el Teorema Fundamental de la Numeración, que se puede expresar de la
siguiente forma:

Número = XnBn + Xn-1 Bn-1 + ... + X1B1 + X0B0 + X-1B-1 + . + X-m-1B-m-1 + X-mB-m

O en forma de sumatorio:
n
i
Número = 6 xi B
i = -m

Donde:
– i = posición respecto a la coma decimal
– B = base del sistema de numeración
– Xi = dígitos (en función del lugar que ocupa frente a la coma decimal)
– m = número de dígitos a la derecha de la coma decimal
– n = número de dígitos a la izquierda del número decimal

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 203


SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

En efecto cualquier número en cualquier base se puede representar como una serie de sumas y
multiplicaciones. Veamos ejemplos:
12034 = 1 . 104 + 2 . 103 + 0 . 102 + 3 . 101 + 4 . 100 (= 1 . 104 + 2 . 103 + 3 . 10 + 4)
73,148 = 7 . 101 + 3 . 100 + 1 . 10-1 + 4 . 10-2 + 8 . 10-3
Obsérvese que el segundo es un número con decimales. En este caso las potencias de 10 son negativas

El teorema aplicado a la inversa nos sirve para obtener la representación de una cantidad decimal
en cualquier otro sistema de numeración, por medio de divisiones sucesivas por la base.
Los conceptos estudiados pueden lleva al lector a plantearse el siguiente razonamiento:
Los ordenadores utilizan exclusivamente el sistema binario como medio de codificación de la
información.
El sistema binario es un sistema numérico que, como su propio nombre indica, sólo representa
números. No sólo eso, además, sólo posee dos dígitos, el 0 y el 1.
¿Cómo puede entonces un ordenador representar un texto, un gráfico, un sonido o una imagen?
Esta pregunta es muy interesante; por ahora baste decir que todos los tipos de información
mencionados pueden ser codificados mediante números. Las técnicas empleadas para representar
información mediante el sistema binario son muy amplias y las estudiaremos en el siguiente capítulo.
Ahora sigamos con los sistemas de numeración.

2. EL SISTEMA DECIMAL
Desde tiempos históricos el hombre ha utilizado el sistema decimal como norma fundamental
para contar, realizar operaciones aritméticas, manejar contabilidades, etc.
El sistema decimal tiene base 10, es decir, cuenta con diez dígitos o símbolos para representar
la información numérica:
0123456789
El sistema decimal derivó del sistema numérico indoarábigo, aunque la razón última de su uso
parece estar íntimamente ligada al hecho de que el ser humano cuenta con diez dedos en sus manos
(como antes comentábamos), siendo éstas el instrumento primario para contar.
El decimal es un sistema de numeración posicional; utiliza un conjunto de símbolos cuyos valores
dependen de sus posiciones relativas al punto decimal (.), que en caso de ausencia se presupone
colocado a la derecha del número.
No es objetivo de este libro enseñar las operaciones básicas que se pueden realizar con el
sistema decimal. Baste señalar que las principales son las aritméticas, incluyendo la inversión y
potenciación.

3. EL SISTEMA BINARIO

3.1. EL BIT Y LOS NÚMEROS BINARIOS


La base del sistema binario (como su propio nombre deja entrever) es el dos, esto significa que
tiene dos símbolos: el 0 y el 1.
Con un símbolo del sistema decimal podemos expresar 10 valores distintos, del 0 hasta el 9, sin
embargo con un símbolo del sistema binario estos valores se reducen a dos. La cantidad mínima de
información que podemos representar con el sistema binario se denomina BIT, de Binary digit (dígito
binario en español). El bit es una de las unidades básicas del sistema binario.
Veamos qué información se puede representar con un bit.
– Si queremos decir que algo es blanco o negro podemos utilizar un bit. Asignaremos un valor
de 0 para el blanco y otro de 1 para el negro.

204 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

– Si queremos contestar a la pregunta de si una persona es hombre o mujer podemos utilizar


un bit: 0 si es hombre, 1 si es mujer (o viceversa según el sistema de codificación de la
información que elijamos).
Sin embargo, el estado de un semáforo tiene tres valores, rojo, ámbar o verde. Con un dígito
del sistema decimal no tendríamos problemas: 1 para el rojo, 2 para el ámbar y 3 para el verde. No
obstante, si utilizamos el sistema binario tendríamos que emplear más de un bit, ya que uno solo
únicamente podría representar dos colores.
La tabla siguiente muestra los primeros números, en binario en la primera columna y sus corres-
pondientes en decimal en la segunda.

Sistema binario Sistema decimal


0 0
1 1
10 2
11 3
100 4
101 5
110 6
111 7
1000 8
1001 9
1010 10
1011 11
1100 12
1101 13
1110 14
1111 15
10000 16
10001 17
10010 18
10011 19
10100 20
10101 21
10110 22
10111 23
11000 24
11001 25
.../...
AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 205
SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

.../...

11010 26
11011 27
11100 28
11101 29
11110 30
11111 31

Observando esta tabla podemos advertir ciertas conclusiones curiosas:


– Al aumentar los números binarios el dígito situado más a la derecha varía de 0 a 1. Esto
equivaldría a la sucesión desde el 0 hasta el 9 en el sistema decimal; cuando llegamos al
último símbolo volvemos al primero (incrementando el dígito de la izquierda).
Este mismo proceso ocurre en el sistema binario, pero al haber dos únicos símbolos, éstos
se van alternando.
– Cada vez que en el sistema binario alcanzamos una potencia de 2, el número se incrementa
en un dígito. El número binario tiene un dígito más que la potencia de 2.
Obsérvese lo siguiente: para el 0 decimal sólo hay 1 dígito binario: 2º = 1 (recuérdese: un
dígito más que la potencia de dos), para el 2 hay dos dígitos binarios: 21 = 2, para el 4 hay
tres dígitos binarios: 22 = 4, para el 8 hay cuatro dígitos binarios: 23 = 8, para el 16 hay 5
dígitos binarios: 24 = 16, etc.
La explicación de este hecho de nuevo tiene una correspondencia en el sistema decimal:
cuando alcanzamos cualquier potencia de 10 tenemos que incrementar el número en un
dígito para seguir contando. Recordemos que el sistema binario utiliza la base 2, por ello
aumenta un dígito cada vez que se alcanza una potencia de dicha cantidad.
A medida que un número crece necesitaremos más dígitos para representarlo. Esto es una con-
clusión obvia del apartado anterior: en la tabla podemos ver cómo para representar el 16 decimal
necesitamos cinco dígitos en binario. Al disponer sólo de dos símbolos, la representación de grandes
cantidades requiere una extensa cadena de ceros y unos en el sistema binario.

3.2. LA ARITMÉTICA BINARIA


Al igual que el sistema decimal, el sistema binario proporciona operaciones básicas de adición,
sustracción, multiplicación y división, así como otras más complejas. Aunque los principios de estas
operaciones sean los mismos para ambos sistemas (y para otros muchos), los métodos para llevarlas a
cabo varían un tanto, especialmente para el lector que se enfrente a estos métodos por primera vez.
Sin embargo resulta muy sencillo diseñar y construir circuitos digitales que realicen estas opera-
ciones binarias de forma automática y a gran velocidad. En realidad las operaciones que vamos a des-
cribir, junto con otras que veremos en el capítulo siguiente, constituyen el núcleo de las actividades
que se producen en el interior de los procesadores, considerados los “cerebros” de los ordenadores.

3.2.1. La suma
La suma es la operación más sencilla. Sigue los mismos pasos que el sistema decimal, con la
importante diferencia de manejar sólo dos dígitos. Cuando el resultado de una suma parcial excede
de los símbolos utilizados (dos en nuestro caso) se produce un acarreo que se suma a la siguiente
suma parcial. Veamos varios ejemplos:

0+0=0
Este caso está bastante claro, pues es igual al sistema decimal

206 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

0+1=1
1+0=1
Los casos B y C son equivalentes, pues el orden de los sumandos no altera el resultado

1+1=0
(con un 1 de acarreo)
En decimal 1 + 1 = 2, pero al no existir el símbolo dos en binario, se produce el acarreo de una unidad

Pasemos a otros ejemplos más complejos:

12 1100
+ 34 100010
46 101110

En el caso anterior no ha tenido lugar ningún acarreo, cosa que no ocurre en los dos ejemplos
siguientes:

 

 

  



 



       

 
 

  


 

3.2.2. La resta
La resta binaria se efectúa de forma similar a la resta decimal, con la excepción indicada en la
siguiente tabla (*):

Tabla del 0 Tabla del 1

0–0=0 1-0=1

0 - 1 = No cabe (*) 1-1=0


Tabla de la resta en binario. La operación se realiza igual que en decimal,
con la única excepción marcada con el asterisco

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 207


SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

Veamos algunos ejemplos:


 
  
 
En este caso no hemos hecho más que aplicar la tabla del uno expuesta anteriormente. La cosa
se complica algo con el siguiente ejemplo:
 
  
 
Este último ejemplo es el más complicado:

  

 
  
 
      
       
     
      

3.2.3. La multiplicación
La multiplicación, como el resto de las operaciones, se realiza de forma análoga a si operásemos
en base decimal. El sistema binario, por tanto, tiene su propia tabla de multiplicar, aunque mucho
más sencilla que las del sistema decimal.

Tabla del 0 Tabla del 1


0x0=0 1x0=0
0x1=0 1x1=1
Tabla de la multiplicación en binario. Al tener dos dígitos, existen solamente dos tablas: la del cero y la del uno

Ejemplo:
 
 
 




   
    
 
  
    

208 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

3.2.4. La división
Por último, la división, al igual que las operaciones anteriores, se realiza de forma similar a su co-
rrespondiente decimal, teniendo en cuenta que las multiplicaciones y sumas intermedias lógicamente
han de hacerse en binario. Veamos un ejemplo, divídase 100010 (34) entre 110 (6):

 
   



 

4. OTROS SISTEMAS DE NUMERACIÓN


Aunque hayamos hecho especial énfasis en los sistemas decimal y binario, por ser, respectiva-
mente, los que utilizamos las personas y los ordenadores, existen otros sistemas dignos de tener en
cuenta en el mundo informático. Son el sistema octal (base 8) y el sistema hexadecimal (base 16).
Las razones por las que estos sistemas son importantes hay que buscarlas en el hecho de que 8 es
el número de combinaciones que se pueden obtener con tres bits, y 16 el máximo número de com-
binaciones obtenidas con cuatro bits.

4.1. EL SISTEMA OCTAL


Como antes indicábamos, el sistema octal tiene base 8, lo que significa que sólo utiliza ocho
símbolos. Parece lógico pensar que se utilizarán los ocho primeros números del sistema decimal,
como así ocurre. Considerando que comenzamos a contar con el cero, los dígitos empleados en el
sistema octal son:
01234567

4.2. EL SISTEMA HEXADECIMAL


El sistema hexadecimal tiene base 16. Es el primer sistema que estudiamos que tiene una base
superior al decimal, lo que nos lleva a plantear una curiosa pregunta: si el número de dígitos nece-
sarios en un sistema posicional es igual a la base que éste tenga, y si sólo tenemos diez símbolos
numéricos, ¿cómo representamos las cantidades en el sistema hexadecimal que tiene base 16?
Para representar cantidades en hexadecimal tenemos que recurrir a las letras, pues los símbolos
numéricos no son suficientes. De nuevo considerando que comenzamos a contar con el cero, los
símbolos empleados en el sistema hexadecimal son:
0123456789ABCDEF
La equivalencia con el sistema decimal se muestra en la siguiente tabla:

Hexadecimal Decimal
A 10
B 11
C 12
D 13
E 14
F 15
10 16
.../...
AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 209
SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

.../...
11 17
12 18
13 19
14 20
Equivalencia entre los dígitos hexadecimales y decimales. Sólo se incluyen aquellos mayores que 10,
que se representan por letras a falta de más dígitos numéricos, y algunos otros (hasta el 20 decimal)

Las operaciones algebraicas estudiadas para el sistema binario son válidas también para los sis-
temas octal y hexadecimal, con la salvedad de que operamos en base 8 y 16, respectivamente. Esta
similitud a la hora de operar se debe a que todos los sistemas mencionados son posicionales.
El sistema octal es muy poco utilizado en la actualidad, aunque hace algún tiempo tuvo su im-
portancia. El sistema hexadecimal, sin embargo, tiene un uso considerable al resultar muy útil por
varias razones:
– Su base es igual al número de combinaciones que pueden obtenerse con un nibble (4 bits).
– Representa una notación compacta eficaz para representar el contenido de un byte, cuyo
valor máximo en este sistema es FF, que equivale a 256 en decimal. Nótese, no obstante,
que en el primero de los casos sólo son necesarios dos símbolos en lugar de tres.

5. PRINCIPALES ASPECTOS DEL ÁLGEBRA DE BOOLE

5.1. CONCEPTOS BÁSICOS DE ELECTRÓNICA DIGITAL


Es importante introducir algunas ideas de electrónica antes de estudiar el Álgebra de Boole, con
objeto de vislumbrar la relación entre una teoría matemática desarrollada en el siglo XIX y la arquitec-
tura y diseño interno de los ordenadores actuales.
La electrónica de un ordenador es digital, se basa en señales digitales, me-
diante las cuales es capaz de procesar información de forma muy compleja.
Existen dos niveles de aproximación a la electrónica:
– Electrónico
– Lógico

5.1.1. Nivel físico: componentes y circuitos


Los circuitos electrónicos están formados principalmente por resistencias, condensadores, tran-
sistores, etc. En los primeros tiempos de la electrónica estos componentes eran relativamente gran-
des y caros, y se situaban de forma aislada sobre placas de plástico o de material aislante con pistas
conductoras sobre ellos.

Componentes electrónicos discretos dispuestos en un circuito

210 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

Actualmente los componentes más utilizados, los transistores, han evolucionado y se agrupan en
circuitos integrados muy pequeños y complejos. Esto se consigue mediante un importante proceso
de miniaturización e inclusión en pequeñas pastillas de silicio. Éstas se protegen del exterior en una
cápsula de plástico, constituyendo los chips o circuitos integrados.

Un chip de ordenador. El encapsulamiento se suele hacer en una pastilla de plástico en cuyo interior se encuentra
el diminuto circuito electrónico que procesa las señales digitales. Obsérvense los pines en forma
de patitas plateadas que se utilizan para conectar el dispositivo al resto del sistema

Por el interior de los chips circula una corriente eléctrica de bajo voltaje que activa su funciona-
miento. Al ser circuitos digitales sólo admiten dos valores de voltaje eléctrico. los ordenadores ba-
sados en estos chip son digitales, lo que implica que sus circuitos sólo admiten dos valores, por eso
decimos que siguen una lógica binaria.

5.1.2. Nivel lógico: puertas lógicas y Álgebra de Boole


A nivel físico encontramos componentes electrónicos y señales digitales. El nivel lógico, sin em-
bargo, se basa en operaciones matemáticas sobre las señales digitales, para ello se utilizan las pro-
piedades del sistema binario.
El funcionamiento del ordenador se basa en estas operaciones matemáticas, denominada álge-
bra booleana (también lógica booleana, álgebra de Boole o lógica binaria).
El Álgebra de Boole gobierna el funcionamiento de los circuitos electrónicos digitales. El nivel
lógico independiza este funcionamiento de los detalles físicos de los circuitos, como su construcción,
rango de las señales y otros aspectos.
El nivel lógico se apoya en unos circuitos digitales ideales que realizan las operaciones booleanas
básicas. Estos circuitos ideales se denominan puertas lógicas y, mediante su combinación, pode-
mos conseguir operaciones muy complejas.

5.2. BREVE BIOGRAFÍA DE GEORGE BOOLE


George Boole recibió sus primeras lecciones de matemática de su propio padre, quien fomentó
también su afición a la construcción de instrumentos ópticos. Posteriormente el interés de George se
centró en los idiomas y recibió instrucción en Latín en una librería local.
A la edad de 12 años había llegado a ser tan hábil en latín que su padre, en un arrebato de
orgullo por su hijo, mandó publicar una oda del poeta clásico Horacio, que George había traducido
completamente del latín. El talento y la profundidad del trabajo fue tal, que un profesor de la vecindad
cuestionó gravemente que la traducción hubiese sido realizada por un muchacho de 12 años, lo que
levantó una seria controversia.
Boole no estudió para un grado académico, pero a la edad de 16 años fue nombrado profesor
auxiliar de colegio. Mantuvo su interés por los idiomas e intentó ingresar en la Iglesia. Desde 1835,
sin embargo, pareció haber cambiado de idea ya que abrió su propio colegio y empezó a estudiar
matemáticas de forma autodidacta.
Durante este periodo Boole estudió los trabajos de Laplace y Lagrange. Su notas de
entonces llegaron a ser más tarde las bases para sus primeras publicaciones matemáticas. Boole
contaba con el importante apoyo de Duncan Gregory, quien se encontraba en Cambridge por ese
tiempo, y del editor de Cambridge Mathematical Formal recientemente fundado.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 211


SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

Boole comenzó a estudiar álgebra y poco después publicó una aplicación de métodos algebraicos
para la solución de ecuaciones diferenciales en el Transaction of the Royal Society. Por este trabajo
recibió la medalla de la Real Sociedad y fue el comienzo de su fama a gran escala.
Boole fue nominado para una cátedra de matemática en el
Queens College, Cork (Irlanda), en 1849. Enseñó allí durante el
resto de su vida, ganándose una reputación como un prominente y
dedicado profesor.
En el año 1854 publicó una investigación acerca de las leyes
del pensamiento sobre las cuales se basan las teorías matemáti-
cas de Lógica y Probabilidad. Boole aproximó la lógica en una nue-
va dirección reduciéndola a una álgebra simple, incorporando las
matemáticas. Agudizó la analogía entre los símbolos algebraicos y
aquellos que representan formas lógicas.
Comenzaba el álgebra de la lógica llamada Álgebra
Booleana o Álgebra de Boole, la cual resultó el funda-
mento principal para la construcción de ordenadores.
George Boole.
Boole también tradujo en ecuaciones diferenciales. El influyente Nacido el 2 de noviembre de 1815 en
“Tratado en Ecuaciones Diferenciales” apareció en 1859, el cálculo Lincoln, Lincolnshire, Inglaterra. Falleció
de las diferencias finitas, “Tratado sobre el Cálculo de las Diferen- el 8 de diciembre de 1864 en Ballin-
temple, County Cork, Irlanda. Boole
cias Finitas” (1860), y métodos generales en probabilidad. Publicó recluyó la lógica a una álgebra simple.
alrededor de 50 escritos y fue uno de los primeros en investigar También trabajó en ecuaciones diferen-
las propiedades básicas de los números, tales como la propiedad ciales, el cálculo de diferencias finitas y
distributiva. métodos generales de probabilidad

Muchos honores le fueron concedidos a Boole por las universidades de Dublín y Oxford, siendo
elegido miembro académico de la Real Sociedad en 1857. Sin embargo, su carrera, que comenzó
un tanto tarde, terminó desafortunadamente temprano, cuando contaba con sólo 49 años: un día
de 1864, como otros tantos, caminaba desde su casa al colegio, una distancia de dos millas, pero
aquella vez bajo una lluvia torrencial. Luego dio una conferencia con la ropa empapada. El resultado
fue un resfriado que dañó sus pulmones y terminó con su carrera y con su vida, poco después.
El sistema de lógica de Boole es una de las muchas pruebas de genio y paciencia combinadas.
El proceso simbólico del álgebra, inventado como herramienta de cálculo numérico, provee la gramá-
tica y el diccionario de los sistemas de lógica. El trabajo de Boole ha sido un paso fundamental en la
revolución de los ordenadores.

5.3. ÁLGEBRA DE BOOLE

5.3.1. Conceptos iniciales


Los conceptos básicos en que se basa el Álgebra de Boole son los siguientes:
– Proposición: enunciado del que se puede decir si es verdadero o falso.
– Absurdo: proposición que siempre es falsa.
– Tautología: proposición que siempre es cierta.
Sobre las proposiciones se pueden realizar una serie de operaciones:
– Negación: si una proposición es cierta la negada es falsa. Si una proposición es falsa la
negada es cierta. El símbolo de la negación es ™.
– Conjunción: las dos proposiciones deben ser ciertas. El símbolo de la conjunción es una , a
veces también se utiliza el símbolo &.
– Disyunción: al menos una de las proposiciones debe ser cierta. El símbolo de la disyunción
es, a veces también se utiliza el símbolo |.

212 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

– Implicación: la proposición primera condiciona la segunda proposición. El símbolo de la


implicación es una flecha doble de un solo sentido Ÿ.
– Doble implicación: la proposición resultante sólo es cierta si ambas son ciertas o ambas
falsas. El símbolo de la doble implicación es una flecha doble de dos sentidos œ.

5.3.2. Definición de Álgebra de Boole


Un álgebra de Boole es un conjunto en el que:
1. Se han definido dos funciones binarias (necesita dos parámetros) y una función monaria (nece-
sita un solo parámetro). Sean x, y los dos parámetros, entonces estas funciones se definen:
– Adición: representada por x + y
– Multiplicación: representada por xy
– Negación: representada por x’
2. Se han definido dos elementos, que designaremos por 0 y 1.
3. Tiene las siguientes propiedades:
– Conmutativa respecto a la adición: x+y = y+x
– Conmutativa respecto a la multiplicación: xy = yx
– Asociativa respecto a la adición: (x+y)+z = x+(y+z)
– Asociativa respecto a la multiplicación: (xy)z = x(yz)
– Distributiva respecto a la adición: (x+y)z = xz+yz
– Distributiva respecto a la multiplicación: (xy)+z = (x+z)(y+z)
– Identidad respecto a la adición: x+0 = x
– Identidad respecto a la multiplicación: x1 = x
– Complemento respecto a la adición: x+x’ = 1
– Complemento respecto a la multiplicación: xx’ = 0
Otras propiedades del álgebra de Boole son:
– Idempotente respecto a la adición: x+x = x
– Idempotente respecto a la multiplicación: xx = x
– Maximalidad del 1: x+1 = 1
– Minimalidad del 0: x0 = 0
– Involución: x’’ = x
– Inmersión respecto a la adición: x+(xy) = x
– Inmersión respecto a la multiplicación: x(x+y) = x
– Ley de Morgan respecto a la adición: (x+y)’ = x’y’
– Ley de Morgan respecto a la multiplicación: (xy)’ = x’+y’
De manera elemental, este álgebra trata sólo con ceros y unos. Podría parecer de poco interés,
pero, si reflexionamos un poco, nos daremos cuenta de que muchas cuestiones sólo admiten dos
estados (verdadero/falso, sí/no, encendido/apagado).
Además el sistema binario es potencialmente capaz de codificar cualquier información, y el Álge-
bra de Boole es ideal para realizar operaciones sobre dicha información.

5.3.3. Función booleana


Sea A un conjunto con estructura de Álgebra de Boole y cuyos elementos son
el 0 y el 1. Una función booleana es simplemente una aplicación de A x A x A x
... A en A. Es decir, una serie de operaciones con los elementos de A que da como
resultado un elemento de A.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 213


SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

En una función booleana pueden aparecer un número de variables de entrada con las que se rea-
liza una serie de operaciones determinadas por la función. El resultado de aplicar estas operaciones
produce un resultado que siempre será 0 o 1.
Si el número de variables es n, existirán 2n combinaciones posibles de valores de entrada a la
función.
Denominamos Producto mínimo (también miniterm) al producto donde apa-
recen todas las variables o sus negaciones.
Veamos un ejemplo:
Supongamos que cuatro amigos deciden ir al cine si lo quiere la mayoría. Cada uno puede votar
sí o no. Representemos el voto de cada uno por las letras A, B, C y D (que serán las variables de
entrada). La función devolverá sí (representado por un 1) cuando el número de votos afirmativos sea
al menos de tres y en caso contrario devolverá no (representado por un 0).
Por ejemplo: si A vota 1, B vota 0, C vota 0 y D vota 1 la función booleana devolverá 0 (ya que
no se alcanza mayoría). El producto mínimo que expresa este ejemplo será:

A·B’·C’·D
Las variables B y C están negadas porque sus valores son ceros

Otro caso: A vota 0, B vota 1, C vota 1 y D vota 1. La función booleana devolverá 1 (ya que ahora
hay mayoría). El producto mínimo que expresa este ejemplo será:
A’·B·C·D
Todos los casos posibles se representan en la siguiente tabla:

Votos Resultado
A B C D
1 1 1 1 1
1 1 1 0 1
1 1 0 1 1
1 1 0 0 0
1 0 1 1 1
1 0 1 0 0
1 0 0 1 0
1 0 0 0 0
0 1 1 1 1
0 1 1 0 0
0 1 0 1 0
0 1 0 0 0
0 0 1 1 0
0 0 1 0 0
0 0 0 1 0
0 0 0 0 0
Los 16 casos posibles de la votación. Recuérdese que 24 = 16

214 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

Las funciones booleanas se pueden representar como la suma de productos mínimos (miniter-
ms) iguales a 1. En nuestro ejemplo la función booleana quedará definida por:
f (A,B,C,D) = ABCD + ABCD’ + ABC’D + AB’CD + A’BCD

5.3.4. Diagramas de Karnaugh


Cuando la función booleana tiene muchos parámetros o se complica, es necesario un método
para simplificar su análisis.
Los diagramas de Karnaugh se utilizan para simplificar las funciones booleanas.
Aunque es una técnica bastante avanzada para ser tratada en este libro, comentaremos bre-
vemente que se basa en la construcción de tablas con las variables en las columnas y sus valores
posibles en las filas. Las casillas de la tabla contienen los resultados de aplicar los valores de las filas
a las variables. Se procede entonces a agrupar aquellas casillas adyacentes cuyos valor es 1, con la
condición de que el número de casillas agrupadas sea potencia de 2.
Este método, aunque complicado de describir, simplifica las funciones booleanas, ejercicio fun-
damental a la hora de diseñar operaciones complejas.

5.3.5. Estados
La electrónica digital se sirve de dos estados lógicos: verdadero (high 1) y falso (low 0). Esto
sirve para representar estados de forma clara y reducida. Por ejemplo, se puede decir que la luz está
apagada (0) con solamente un símbolo.
La electrónica no se escribe sobre un papel, sino que utiliza ciertas formas físicas, por ello los
estados se expresan en un circuito con una diferencia de potencial. 1 se representa con 5 voltios y
0 con 0 voltios. Así que una señal se puede transportar con un cable que tenga una diferencia de
potencial y se puede registrar a una distancia considerable.

5.3.6. Puertas lógicas y tablas de la verdad


Las puertas lógicas son circuitos digitales elementales que transforman una
información de entrada muy básica en otra de salida según los principios de la
lógica booleana.
Las puertas lógicas tienen una o varias entradas y una salida. Por estos canales se mueven las
señales digitales que son transformadas según la función de la puerta lógica. Las transformaciones
que sufren las señales al pasar por la puerta se representan en unas tablas denominadas tablas de
la verdad.
Las tablas de la verdad indican cómo reaccionan las puertas lógicas ante una combinación en
sus señales de entrada (recordemos que las señales sólo toman dos valores, representados como 0
o 1). Todas las operaciones que un ordenador es capaz de realizar están basadas en estos circuitos
básicos. Las puertas lógicas se combinan entre sí para formar unidades mucho más complicadas.
A continuación podemos observar las puertas lógicas básicas, los símbolos utilizados para su
representación en los circuitos digitales y sus tablas de la verdad.
– NOT: devuelve siempre el contrario de la entrada.

 

Entrada A Salida B
1 0
0 1
Símbolo y tabla de la verdad de una puerta NOT

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 215


SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

– AND: devuelve 1 sólo si todas sus entradas son 1. Otra forma de considerarlo es que devuel-
ve 0 si alguna de sus entradas es 0.





Entrada A Entrada B Salida C


0 0 0
1 0 0
0 1 0
1 1 1
Símbolo y tabla de la verdad de una puerta AND

– OR: devuelve 1 si alguna de sus entradas es 1.





Entrada A Entrada B Salida C


0 0 0
1 0 1
0 1 1
1 1 1
Símbolo y tabla de la verdad de una puerta OR

– XOR: devuelve 1 cuando sus entradas son diferentes y 0 cuando son iguales.





Entrada A Entrada B Salida C


0 0 0
1 0 1
0 1 1
1 1 0
Símbolo y tabla de la verdad de una puerta XOR

216 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

– NAND: sus salidas son las inversas de AND.





Entrada A Entrada B Salida C


0 0 0
1 0 1
0 1 1
1 1 0
Símbolo y tabla de la verdad de una puerta NAND

– NOR: sus salidas son las inversas de OR.





Entrada A Entrada B Salida C


0 0 0
1 0 1
0 1 1
1 1 0
Símbolo y tabla de la verdad de una puerta NOR

Aunque pueda parecer sorprendente, todas las operaciones que un ordenador es capaz de rea-
lizar están basadas en estos circuitos básicos. Las puertas lógicas se combinan entre sí para formar
unidades mucho más complicadas.
Hasta ahora hemos visto puertas con dos entradas. Podemos conseguir una puerta de varias
entradas combinando diferentes puertas básicas. Por ejemplo, si conectamos a la salida de un AND
una entrada de otro AND tendremos una AND de tres entradas (A, B y C):

 


Combinación de dos puertas AND básicas (dos entradas) para


obtener un módulo que funcione como una puerta AND de tres entradas

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 217


SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

La combinación de puertas permite realizar múltiples funciones que podrán sumar números,
multiplicarlos, compararlos, etc. Estas operaciones básicas se pueden a su vez combinar en módulos
más complejos hasta alcanzar el diseño de un procesador, que en última instancia no es más que un
gran conjunto de puertas lógicas.

Combinación de 5 puertas lógicas (NOTA: esta combinación se presenta únicamente


como un ejemplo de conexión entre puertas, no tiene ninguna función específica)

6. COMUNICACIÓN E INFORMACIÓN
La comunicación entre los seres vivos, en sus múltiples formas, se configura como una carac-
terística fundamental y necesaria de la vida, siendo a la vez consecuencia directa de ésta. Existen
numerosos mecanismos de comunicación: unos originados por la propia naturaleza y otros por la
inventiva humana.
En efecto, podemos identificar formas de comunicación en los más primitivos organismos vivos,
que utilizan ciertas moléculas como mensajeros químicos. En el otro extremo podemos citar los mo-
dernos sistemas de comunicación por satélite fruto de la inventiva humana.
De hecho actualmente es el hombre el máximo exponente de todos los organismos comunicado-
res, ya que, además de los medios naturales que posee (la capacidad del habla, por ejemplo, que es
única entre los seres vivos), utiliza todo tipo de dispositivos artificiales para comunicarse.
Para que cualquier tipo de comunicación pueda efectuarse deben existir ciertas entidades:
– Un emisor, origen de la comunicación.
– Un mensaje que transmite el emisor.
– Un medio por el cual viaja el mensaje.
– Un receptor que recibe el mensaje.
El mensaje se compone de la información a comunicar. Esta información se puede codificar de
diversas formas; por ejemplo, dos indios podrían comunicarse mediante señales de humo, cuyo sig-
nificado ambos conocen, sin embargo un soldado de caballería no entendería el mensaje. El mensaje
está codificado en forma de señales de humo que el soldado desconoce, pero no por ello deja de ser
válido para los indios.
Deducimos la importancia de que el receptor comprenda el significado del mensaje originado por
el receptor, en caso contrario no existiría comunicación. Para ello deben acordar codificar el mensaje
en un sistema que ambos entiendan. Cuando el lector lee estas páginas asimila su contenido porque
está escrito en castellano, sistema de codificación de la información que se aprendió en el colegio.
Es importante destacar que el sistema de codificación puede llegar a ser independiente del me-
dio de transmisión que se utilice. Por ejemplo, al leer las páginas de este libro, el medio lo constituye
el papel y la tinta, sin embargo cuando mantenemos una conversación con otra persona, el medio lo
constituye el aire y las ondas sonoras que viajan por él. En ambos casos el sistema de codificación
empleado es el castellano, pero se han utilizado distintos medios.

218 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

En los modernos sistemas de comunicación existe otro nivel de codificación de la información


más profundo, del cual el emisor y receptor no tienen por qué conocer su existencia. Imaginemos a
dos personas hablando por teléfono que están utilizando el castellano como sistema de comunica-
ción. Indudablemente ya están realizando un primer nivel codificación de la información a transmitir
(por ejemplo, la intención del emisor de invitar a comer a su amiga).
En este caso el emisor y el receptor están utilizando un medio más complejo: la red telefónica,
que está realizando una nueva codificación a un segundo nivel. Efectivamente, en el micrófono del te-
léfono del emisor está ocurriendo una transformación de las ondas sonoras en impulsos eléctricos, los
cuales viajan por el cable hasta alcanzar el otro teléfono, momento en el que se produce la transfor-
mación inversa: en el auricular del receptor los impulsos eléctricos se convierten en ondas sonoras.

7. LA INFORMACIÓN EN LOS ORDENADORES


Los fenómenos descritos ocurren también en el mundo informático, cuyo mayor representante es el
ordenador. Éstos tiene su propio sistema de codificación de la información, el cual resulta incomprensible
para los humanos (al menos para la inmensa mayoría de nosotros). Este sistema se denomina SISTEMA
BINARIO y es causa y efecto del diseño y funcionamiento de los modernos ordenadores digitales.
Debido a que los ordenadores utilizan un tipo de codificación distinto al nuestro para comuni-
carse y realizar sus operaciones, nos vemos obligados a transformar la información que queremos
comunicar al ordenador en una representación binaria, de forma que éste la entienda.
El sistema binario está basado en los mismos principios que el sistema decimal, que es el que
utilizamos en la actualidad para comunicar números. El sistema decimal es independiente del idioma
que utilicemos hasta cierto punto, ya que, curiosamente, un inglés, un alemán o un italiano lo enten-
derían perfectamente siempre que el medio fuese un papel con los números escritos. No ocurriría lo
mismo si el medio que se usa es la voz, ya que cada uno de ellos emplearía su propio idioma.
Este es un buen ejemplo de cómo la comprensión de un sistema de codificación puede llegar a
depender del medio que se utilice. En nuestro caso la causa de ello es que los idiomas se utilizan para
expresar información mucho más compleja que los números (ideas, sentimientos, etc.).
Un ordenador no puede llegar a entender información tan compleja, por eso utiliza un sistema
parecido al decimal: el binario. ¿Por qué entonces utilizar el sistema binario y no el decimal con el
que estamos más familiarizados?. La respuesta a esta pregunta la encontramos en el diseño de los
circuitos que forman los ordenadores. Estos circuitos reconocen señales eléctricas que sólo toman
dos valores, generalmente representados con los símbolos 0 y 1. Por otra parte el sistema binario
sólo tiene dos símbolos (frente a los diez que tiene el decimal), por eso es el candidato ideal para ser
usado por estos circuitos.
Ahora ya disponemos de un conjunto de símbolos, aunque sólo sean dos, para construir el
lenguaje de los ordenadores, de forma análoga que nuestros antepasados construyeron el lenguaje
castellano a partir de las letras del alfabeto (aunque este último fue fruto de una evolución temporal
más que de un diseño momentáneo).
NOTA: en los circuitos electrónicos, desde el punto de vista lógico, suele repre-
sentarse la presencia de tensión mediante 1, la ausencia de ésta corresponde al 0. Si
se hacen las consideraciones anteriores se dice que se está utilizando lógica positiva
(utilizada en la mayoría de los casos). Por otro lado, si se asocia el 0 a la presencia de
tensión y el 1 a la ausencia de la misma, se dice que se utiliza lógica negativa.
Los sistemas de representación de la información basados en el sistema binario permiten repre-
sentar todo tipo de informaciones u órdenes para que sean procesadas por el ordenador.

8. LAS MEDIDAS DE LA INFORMACIÓN: CONCEPTO DE BITS, BYTES,


CARACTERES, PALABRAS Y CAMPOS
El sistema binario es el sistema de numeración que utilizan internamente los circuitos digitales
que configuran el hardware de los ordenadores. La información que se puede representar con este

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 219


SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

sistema se agrupa en los siguientes niveles básicos (existen otros muchos más complejos cuyo estu-
dio queda para otros temas):
– BIT: unidad mínima de información representable con el sistema binario. Contiene la infor-
mación de un dígito binario, es decir 0 o 1. Bit es la contracción de Binary Digit.
– NIBBLE: agrupación de 4 bits.
– OCTETO o BYTE: agrupación de 8 bits. Es la medida estándar de información en informática,
aunque generalmente se utilizan múltiplos de esta cantidad para simplificar las cantidades.
– CARÁCTER: representación de una letra, dígito, signo de puntuación o código especial. Se
representa con 8 bits, es decir con un byte.
– PALABRA: agrupación de bits que se pueden tratar simultáneamente por un ordenador en
operaciones tales como movimiento de información hacia/desde la memoria, carga de regis-
tros, etc. Depende fuertemente de la arquitectura y diseño del ordenador y sus valores más
comunes oscilan entre 16, 32, 64 y 128 bits.
– CAMPO: agrupación de información a nivel lógico. Es más compleja que todas las anteriores
en cuanto almacena información más compleja, por ejemplo un nombre o la edad de una
persona.
– REGISTRO: agrupación lógica de campos, por ejemplo toda la información que el DNI posee
sobre una persona (nombre, fecha de nacimiento, etc.).
Cuando se aplicó toda esta teoría al diseño de los circuitos digitales, se observó la necesidad de
asociar los bits en grupos, con objeto de simplificar algunas operaciones y facilitar los diseños de los
circuitos electrónicos. Las agrupaciones más importantes son las siguientes:

Nombre Bytes Bits


Nibble o cuarteto 4 bits 4
Byte u octeto 1 8
Kilobyte 1.024 8.192
Megabyte 1.048.576 8.388.608
Gigabyte 1.073.741.824 8.589.934.592
Terabyte 1.099.511.627.776 8.796.093.022.208
Agrupaciones de bits más comunes. Esta tabla se expone a modo informativo. Se recomienda
memorizar únicamente las tres primeras filas

Al observar esta tabla también podemos señalar lo siguiente:


– El factor de multiplicación en la segunda columna es de 1.024 veces la cantidad anterior en
lugar de 1.000 como en otras magnitudes. Esto ocurre porque 1024 es el múltiplo de dos
más próximo a 1.000 (recordemos que trabajamos en sistema binario).
– El byte u octeto es considerado como la unidad más importante desde el punto de vista prác-
tico de la informática, así como el bit lo era en el aspecto teórico por representar la cantidad
de información más pequeña posible.

9. LA REPRESENTACIÓN DE LA INFORMACIÓN NUMÉRICA

9.1. INTRODUCCIÓN
La información numérica representa cantidades, de forma independiente de la base del sistema
utilizado. Por contra, la información alfanumérica contiene letras, palabras y otro tipo de datos. Desde
el punto de vista de los sistemas de codificación de la información esta distinción es fundamental,
debido, sobre todo, a que las operaciones que se realizan sobre un tipo u otro tienen naturaleza
completamente diferente.

220 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

En efecto, supongamos que tenemos una lista de nombres y otra de edades. Podemos ordenar
ambas listas, pero en el primer caso el criterio será el orden alfabético y en el segundo el orden de
numeración. Ambos procesos son distintos.
Otro ejemplo consiste en sumar dos números. Para todos resulta claro el significado de esta
operación, pero ¿cómo sumamos dos frases?. Suponiendo que las frases originales son:
– Frase 1. “Hola,”
– Frase 2. “mi nombre es Pepito”
La suma de ellas será:
Frase resultado: “Hola, mi nombre es Pepito”
Es decir, la concatenación de ambas. Como podemos apreciar los conceptos de suma son di-
ferentes si nos referimos a números o a palabras. Estas particularidades de las operaciones sobre
uno u otro tipo de información, hacen que los ordenadores almacenen la información en diferentes
formatos según su tipo.
En este apartado veremos cómo se guardan los datos numéricos, y en el siguiente los datos
alfanuméricos (así se denomina en informática a todo lo que no es un número). En ambos casos
supondremos que n es el número de bits de los que disponemos para almacenar la información,
coincidiendo generalmente esta cantidad con la longitud de palabra de la computadora.
Si por el contrario se utilizan más bits que los que tiene la longitud de palabra, los incrementos se
harán en múltiplos de ésta. Si representamos números con el doble de bits de la longitud de palabra,
diremos que estamos utilizando doble precisión.
Otro concepto fundamental en el estudio de los sistemas de representación numérica, es el
rango de representación.
Se denomina rango de representación de un sistema de codificación numé-
rica al conjunto de números representables por dicho sistema.
El rango de representación se escribe como un conjunto de dos números separados por comas
y rodeados por corchetes. Estos números son los límites inferior y superior del rango, más allá de los
cuales el sistema de codificación no puede representar cantidades.

9.2. BINARIO PURO


La codificación en binario puro es la más sencilla e intuitiva de las representaciones numéricas
que vamos a estudiar. Consiste en un simple cambio de base del sistema decimal al binario.
Por ejemplo:

        

    
   
 

El rango de representación genérico del sistema módulo y signo es (con n = número de bits):

[0, 2n-1]

Las desventajas de este sistema es que el rango de representación no es simétrico y que no


podemos representar números negativos.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 221


SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

9.3. CODIFICACIÓN EN MÓDULO Y SIGNO (MS)


Es un sistema muy sencillo: si disponemos de n bits para almacenar un número, reservamos uno
de ellos (el del extremo izquierdo, también llamado bit más significativo) para guardar el signo del
número, y los n-1 bits restantes contendrán el número en sí. Por ejemplo:
Para ciertos valores concretos obtenemos:
– n = 8: [0, 255]
– n = 16: [0, 32768]

          
  


 

        

  
     

 

    

El rango de representación genérico del sistema módulo y signo es (con n = número de bits):
[-2n-1+1, 2n-1-1]
Para ciertos valores concretos obtenemos:
– n = 8: [-127, 127]
– n = 16: [-32767, 32767]
Este sistema posee ciertas propiedades curiosas:
– Ventaja: El rango de representación es simétrico. Esto significa que pueden expresarse
los mismos números positivos que negativos.
– Desventaja: Existen dos representaciones del número cero. Efectivamente, para n = 8
tenemos que 1 0000000 y 0 0000000 representan ambos la misma cantidad: 0.
El sistema MS puede ampliarse para usar doble precisión aumentando el rango de representa-
ción e incluyendo números decimales.

9.4. COMPLEMENTO A UNO (C-1)


Este sistema es similar al estudiado anteriormente, manteniendo el bit más significativo para
guardar el signo y el resto para el número. La única diferencia radica en que para los números nega-
tivos se invierten los n-1 bits que contienen el número (no el bit de signo).
Nota: invertir un bit significa sencillamente ponerlo a 1 si su valor era 0 y
viceversa.
Sigamos con el anterior ejemplo:

          
  



 
 

             


  
      



    
 

      

Este sistema tiene un rango de representación igual al anterior, siendo éste también simétrico,
así como una doble representación del cero.

222 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

9.5. COMPLEMENTO A DOS (C-2)


Los números positivos se obtienen de la misma forma que los dos sistemas anteriores:
a) El bit más significativo contiene el signo: cero si es positivo y uno si es negativo.
b) El número en sí se obtiene como en el complemento a uno (invirtiendo los bits si el número
es negativo). La diferencia está en que a dicho número invertido se le suma 1. En caso de
que se produjese un acarreo en el bit más significativo, se desprecia.

  
      



    
 

      

        
   


 

         


  
 
     
       


!   
 
 "

Una de las diferencias de este método es que su rango de representación es asimétrico, variando
en el siguiente intervalo:
[-2n-1, 2n-1-1]
Obsérvese en la tabla cómo varía el rango de representación en función del número de bits y
cómo se manifiesta el rango asimétrico (obsérvese que los límites máximo y mínimo son diferentes):

Nº de bits (N) Valor mínimo Valor máximo


8 -128 127
16 -32.768 32.767
31 -2.147.483.648 2.147.483.647

Aunque un rango asimétrico supone un inconveniente, el sistema de complemento a dos tiene


la ventaja de poseer una única representación para el cero, que ocurre cuando todos los bits están
a cero.

9.6. CODIFICACIÓN EN EXCESO A 2n-1


Para un número n de bits, se denomina exceso a la cantidad 2n-1.
Por ejemplo, para n=8 tenemos: 28-1 = 27 = 128.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 223


SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

La codificación en exceso a 2n-1, a diferencia de los estudiados, no reserva ningún bit para el
signo. La cantidad es almacenada utilizando los n bits disponibles, de forma que al número en binario
puro se le suma el exceso.
Veamos algunos ejemplos:
   
 
 
   

         

         

   
 




Aunque con un rango asimétrico similar al sistema de complemento a dos, también tiene la ven-
taja de poseer una única representación para el cero:

        

9.7. EL SISTEMA BCD (BINARY CODED DECIMAL)


Este sistema toma su nombre de Binary Coded Decimal, que puede traducirse como Decimal
Codificado en Binario.
El principio del sistema BCD es muy sencillo: cada cifra de un número decimal se codifica me-
diante 4 bits, obteniéndose la siguiente tabla de equivalencia:

Dígito decimal Representación BCD


0 0000
1 0001
2 0010
3 0011
4 0100
5 0101
6 0110
7 0111
8 1000
9 1001
Tabla de equivalencia decimal-BCD. Cada dígito decimal se codifica mediante 4 bits
(recordemos que esta agrupación se denomina nibble)

Nótese que los cuatro bits permiten más combinaciones, por ejemplo 1101, que no son apro-
vechadas, por lo que de alguna manera estamos perdiendo capacidad de memoria. Veamos algunos
ejemplos de números codificados en el sistema BCD:

        

            

                
Cada agrupación de 4 bits representa un dígito de los números decimales

224 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

9.8. CODIFICACIÓN DECIMAL DESEMPAQUETADA


Este sistema está íntimamente ligado al anterior como se podrá apreciar a continuación. La co-
dificación decimal desempaquetada utiliza un byte para almacenar un dígito decimal de la siguiente
forma:

 
   
 
       
   
  
   
         
 

 
       
  
   !
       


Veamos un ejemplo:

        

        
  
 
 
  
        

  
 
        

  
   

      
         
    

 
     
   
   
  
  


 
   

9.9. CODIFICACIÓN DECIMAL EMPAQUETADA


Resulta obvio que el sistema anterior desperdicia bastante capacidad de memoria. Para solucio-
nar esto se ideó la codificación decimal empaquetada.
Esta variante elimina los bits de zona excepto en el último byte, donde se almacena el signo
siguiendo la misma técnica anterior. Los dígitos del número original se codifican igualmente en BCD,
como se puede apreciar en el siguiente ejemplo:
   
  
  

  

 
 
 
 
 

  

   
        

 ' ' ' ' ' ' ' &  

& ' ' & & ' ' &  


   

"
#  $"% ' & & & & & ' '  

 
 
! 
 
 
   !
 

    
 ! 



 
   
  
   

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 225


SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

9.10. CODIFICACIÓN EN COMA FLOTANTE


A medida que el software se fue desarrollando y la informática se introdujo en ciencias como la
física o la astronomía, se puso de manifiesto la necesidad de representar números muy grandes o
muy pequeños, y no sólo enteros, sino reales.
La codificación en coma flotante fue la solución que se adoptó, y representa los números
en notación científica, que responde a esta forma:
N = m x Bexp
Donde:
– N es el número a representar
– m es la mantisa
– B es la base de exponenciación
– exp es el exponente
Mediante esta fórmula un número tiene infinitas representaciones, sin más que combinar ade-
cuadamente los parámetros m, B y exp. Para estandarizar el sistema, se utiliza la notación normali-
zada, que consiste en que la mantisa no tenga parte entera y que el primer dígito de la parte decimal
sea distinto de cero (excepto en la representación del propio cero).
Veamos algunos ejemplos:

   



    



   
 


En un ordenador generalmente se utiliza una doble palabra para representar números en coma
flotante, a no ser que la longitud de ésta sea muy grande.
Por convención la base de exponenciación es 2 o alguna de sus potencias, no siendo necesario
almacenar este parámetro.
El número de bits se divide entre la mantisa y el exponente. Las reglas para llevar a cabo la re-
presentación en coma flotante son las siguientes:
– La base de exponenciación, como mencionábamos anteriormente, es 2 o algunas de sus
potencias, 8 o 16 en muchos casos. A este factor se le denomina también radix, y viene de-
terminado por la arquitectura del ordenador. Dado que es un número constante, no necesita
ser almacenado.
– El exponente, también conocido por característica, se suele almacenar codificado en
módulo y signo o exceso a 2n-1 y siempre es un número entero.
– La mantisa suele ser codificada en módulo y signo o complemento a uno o a dos. Es un
número real cuyo punto decimal siempre se considera en el mismo sitio, a la izquierda de
sus dígitos.
El formato de coma flotante se puede presentar en numerosas variantes al cambiar el número de
bits de la palabra o aquellos reservados para el exponente y la mantisa. Las definiciones más comunes
en los modernos ordenadores son las siguientes para simple y doble precisión, respectivamente:
    



 




226 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

Por último, vamos a estudiar el rango de representación de la codificación en coma flotante.


Vamos a generalizar algunos valores de la siguiente forma:

Símbolo Significado Correspondencia


m+ Mínimo nº positivo mínima mantisa x Base –máximo exponente
M+ Máximo nº positivo máxima mantisa x Base máximo exponente
m- Mínimo nº negativo – mínima mantisa x Base –máximo exponente
M- Máximo nº negativo – máxima mantisa x Base máximo exponente

Teniendo en cuenta la anterior tabla, el rango de representación queda como sigue:

 
   
 

    


  
 
  
        
     

    

   


 
  

 
   
 

    

Se observa la existencia de zonas donde se producen desbordamientos, cuando el número a


representar es demasiado grande, y subdesbordamientos cuando es demasiado pequeño (también
denominados overflow y underflow, respectivamente).
Además existen determinados números que, aunque están incluidos en los rangos de represen-
tación (las barras sombreadas en la figura a las que hay que añadir el cero), no son representables
por falta de precisión. En esos casos se redondea a la cantidad más próxima.
La codificación en coma flotante tiene los rangos simétricos y una única representación para el
cero. Si consideramos el ejemplo anterior de distribución de bits en una representación en simple
precisión, obtenemos los siguientes rangos, suficientes para prácticamente todas las aplicaciones
informáticas existentes:

m+ 1,469367938528 x 10-39
M+ 1,701411834605 x 1038
m- -1,469367938528 x 1038
M- 1,701411834605 x 10-39

9.11. CODIFICACIONES EN OTRAS BASES: DECIMAL, OCTAL Y HEXADECIMAL


Ya han sido analizados en apartados anteriores.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 227


SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

10. LA REPRESENTACIÓN DE LA INFORMACIÓN ALFANUMÉRICA

10.1. INTRODUCCIÓN
Hemos estudiado cómo un ordenador codifica datos internamente, pero, aunque los anteriores
sistemas permiten procesar información numérica satisfactoriamente, ésta no es la única implicada
en los programas. La importancia de la información alfanumérica es esencial en aplicaciones de pro-
cesos de textos, bases de datos, etc. Se hacen necesarios, por tanto, sistemas que soporten este tipo
de información, que, como ya señalamos, tiene diferentes propiedades que la numérica.
Por otra parte, los ordenadores necesitan algún tipo de información de control para realizar cier-
tas tareas. Por ejemplo, piénsese en un programa que emita un listado a partir de ciertos ficheros.
Cuando el ordenador ha enviado la primera línea a la impresora, de alguna forma tiene que indicarle
que debe efectuar un salto a la siguiente; del mismo modo hará cuando termine la página y deba
pasar a otra. Este tipo de información se incluye en los sistemas de codificación alfanumérica, como
veremos a continuación.

10.2. EL CONJUNTO DE CARACTERES


En el ámbito de la representación de información alfanumérica, se denomina carácter a cual-
quier símbolo representable o interpretable por un ordenador.
Los caracteres representables son aquellos que se pueden visualizar en la pantalla del ordena-
dor o imprimirse en una impresora, por ejemplo la letra “A” o el signo de puntuación “!”.
Los caracteres interpretables, sin embargo, no son visualizables, sino que se utilizan para codi-
ficar algún tipo de acción, como delimitadores, códigos de control en diversas operaciones, etc. Por
ejemplo, el carácter “BEL” hace sonar brevemente el pequeño altavoz de un terminal de datos y se
puede utilizar para indicar la ocurrencia de un error.
En los sistemas de codificación de información alfanumérica podemos encontrar tres tipos de
caracteres:
– Caracteres alfabéticos: son todas la letras mayúsculas y minúsculas.
– Dígitos numéricos: son los dígitos del 0 al 9.
– Caracteres especiales: signos de puntuación, de interrogación, de control, etc.
Al conjunto de todos estos caracteres, independientemente de cómo se codifiquen, se le deno-
mina conjunto de caracteres. Cada sistema de codificación tendrá su propio conjunto de caracte-
res. La dimensión del conjunto de caracteres, como el rango de representación en los sistemas de
codificación numéricos, dependerá del número de bits que se utilicen.

10.3. LA REPRESENTACIÓN FIELDATA


Fue uno de los primeros códigos de representación alfanumérico. Utilizaba seis bits para almace-
nar los caracteres, permitiendo disponer de 64 de ellos que dividía según el siguiente esquema:
– 26 letras mayúsculas
– 10 cifras numéricas (del 0 al 9)
– 28 caracteres especiales
La especificación Fieldata se resume en la siguiente tabla:

0 @ 10 E 20 O 30 Y 40 * 51 2 61 /
1 [ 11 F 21 P 31 Z 41 ( 52 3 62 .
2 ] 12 G 22 Q 32 ) 42 % 53 4 63 “
3 # 13 H 23 R 33 - 43 : 54 5 64 –
.../...
228 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO
SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

.../...
4 ^ 14 I 24 S 34 + 44 ? 55 6
5 SP 15 J 25 T 35 < 45 ! 56 7
6 A 16 K 26 U 36 = 46 ´ 57 8
7 B 17 L 27 V 37 > 47 \ 58 9
8 C 18 M 28 W 38 & 48 0 59 ,
9 D 19 N 29 X 39 $ 49 1 60 ;
Tabla de caracteres Fieldata. El quinto elemento representa el espacio (SP = Space)

Veamos un ejemplo de cómo almacenaría un ordenador una breve frase codificada en Fieldata:
HOLA, ADIÓS.

Carácter Fieldata (decimal) Fieldata (binario)


H 13 001101
O 20 010100
L 17 010001
A 6 000110
, 46 101110
5 000101
A 6 000110
D 9 001001
I 14 001110
O 20 010100
S 24 011000
. 62 111110
Tabla en la que se expone la representación Fieldata de una breve frase. La primera columna contiene
los caracteres que la componen (incluidos el espacio y los símbolos de puntuación), la segunda el código
Fieldata en decimal y la tercera en binario, que es como se almacenaría en la memoria del ordenador

10.4. EL CÓDIGO ASCII


ASCII son las iniciales de American Standard Code for Information Interchange, que se puede
traducir como Código estándar americano para el intercambio de información. Como su propio
nombre indica, se creó en los Estados Unidos y pronto supuso un gran éxito en la industria informáti-
ca, estableciéndose como un estándar a nivel internacional.
El código ASCII comenzó teniendo 7 bits para posteriormente ampliarse a 8 y denominarse ASCII
extendido. El ASCII extendido permite representar 28 = 256 caracteres, rango que permitió despejar
las limitaciones de los sistemas anteriores. ASCII extendido añade por tanto las letras minúsculas,
símbolos varios, caracteres de control, etc.
NOTA: los caracteres de control constituían una demanda de los sistemas
operativos y los lenguajes de aplicación primigenios necesarios para la comunica-
ción con los periféricos, entre otras aplicaciones.

0 NUL 32 SP 64 @ 96 ‘
1 SOH 33 ! 65 A 97 a
2 STX 34 “ 66 B 98 b
.../...
AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 229
SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN
.../...

3 ETX 35 # 67 C 99 c
4 EOT 36 $ 68 D 100 d
5 ENQ 37 % 69 E 101 e
6 ACK 38 & 70 F 102 f
7 BEL 39 ` 71 G 103 g
8 BS 40 ( 72 H 104 h
9 HT 41 ) 73 I 105 i
10 LF 42 * 74 J 106 j
11 VT 43 + 75 K 107 k
12 FF 44 , 76 L 108 l
13 CR 45 - 77 M 109 m
14 SO 46 . 78 N 110 n
15 SI 47 / 79 O 111 o
16 DLE 48 0 80 P 112 p
17 DC1 49 1 81 Q 113 q
18 DC2 50 2 82 R 114 r
19 DC3 51 3 83 S 115 s
20 DC4 52 4 84 T 116 t
21 NAK 53 5 85 U 117 u
22 SYN 54 6 86 V 118 v
23 ETB 55 7 87 W 119 w
24 CAN 56 8 88 X 120 x
25 EM 57 9 89 Y 121 y
26 SUB 58 : 90 Z 122 z
27 ESC 59 ; 91 [ 123 {
28 FS 60 < 92 \ 124 I
29 GC 61 = 93 ] 125 }
30 RS 62 < 94 ^ 126 a
31 US 63 ? 95 – 127 DEL

Tabla representando los caracteres del código ASCII extendido. Sólo se ilustran los 127 primeros.
En los ordenadores PC los restantes pueden elegirse entre varios juegos, posibilitando así el uso
de caracteres propios de un idioma particular, por ejemplo Ä, ô, ñ, etc. Entre los caracteres que faltan
hasta los 255, también se incluyen símbolos y signos, como ©, ‰, ™, ®.

Los caracteres de control comprenden desde el 0 hasta el 32 (este último representando el es-
pacio). El significado de algunos de ellos se expone a continuación:
– SOH: Start of Heading (comienzo de cabecera)
– STX: Start of Text (comienzo de texto)
– ETX: End of Text (final de texto)
– EOT: End of Transmission (fin de transmisión)
– BS: Back Space (retroceso)
– LF: Line Feed (avance de línea)

230 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

10.5. EL CÓDIGO BCDIC Y EBCDIC


El código BCDIC toma su nombre de Binary Coded Decimal Interchange Code; es decir, algo tan
enrevesado como Código de intercambio decimal codificado en binario. Por otra parte, al ampliar
el número de bits de codificación pasó a ser EBCDIC (Extended BCDIC o BCDIC extendido).
EBCDIC es similar al ASCII extendido en cuanto al número de bits que emplea (8), pero adopta
una norma distinta en cuanto a la distribución de los caracteres. Fue adoptada por los grandes orde-
nadores, donde actualmente puede aún encontrarse, aunque cada vez con menos frecuencia, pues
el código ASCII ha prevalecido como el estándar del mundo informático.
Algunos caracteres de control EBCDIC son:
– HT: Horizontal Tabulation (tabulación horizontal)
– CR: Carriage Return (retorno de carro)
– NL: New Line (Nueva línea)
– SOS: Start of Significance (comienzo de significado)
– EOB: End of Block (final de bloque)
– UP: Upper Case (mayúsculas)
       9 
   T  8
          
    
 :      
     ;      
     
  <     

       =     
  
    >  
  U
      ?     

    @ 
  
     A     V
       
B    
    #  (     
    $ 
)  C    
    ! %  *  D    
   "
&  +  E    

      ,  F    


  

 '   G   
W  
  
   H    

  
   I 
 "  
  
   J     
   
  
K 
    
   
   
   
   
 
  
    
   
  L 
   
  

  M 
  ! 

  
 8  N 
   
  
 -  7  O 
 

   .  6  P 
 

    /  5  Q 

 
   "  0  4  R 
 
    1  3 
S    
         2     

Tabla representando los caracteres del código EBCDIC

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 231


SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

11. DATOS

11.1. DEFINICIÓN Y CARACTERÍSTICAS


Dato: en el contexto que nos ocupa un dato es el elemento que almacena un valor y que se
puede tratar informáticamente mediante determinadas operaciones.
Los datos tienen 3 características fundamentales en un entorno de programación:
– Un nombre, que lo diferencia del resto y que se utilizará para referenciarlo.
– Un tipo, que determina las operaciones que se pueden realizar con ese dato.
– Un valor, que puede variar o no cuando se le aplican operaciones al dato.
Los datos pueden ser:
– Simples: constan de un elemento que se trata como una unidad indivisible.
– Compuestos: aunque el dato forme una estructura lógica, está compuesto por varios ele-
mentos a los que se puede acceder de forma independiente.

11.2. TIPOS DE DATOS


Los tipos de datos permiten almacenar información de distinta naturaleza. El nombre de una
persona no tiene la misma identidad que su edad, en el sentido de que el primero es un dato que
contiene letras y el segundo un valor numérico. Esta diferencia en la naturaleza de la información es
muy importante a la hora de definir los datos que la almacenan en el ordenador.
Los sistemas de programación incluyen una serie de tipos válidos para almacenar información de
carácter básico; son los tipos estándar. En caso de que el programador necesite tratar información
más compleja, se le facilita la posibilidad de definir otros tipos de datos, generalmente como combi-
naciones más o menos complicadas de los tipos estándar. Estos tipos se denominan no estándar o
personalizados.
Características de los tipos:
– Cada tipo se representa o almacena de forma diferente en la computadora.
– Un tipo agrupa datos sobre los que se realizan las mismas operaciones.
– Cardinalidad o rango: para determinados tipos el rango indica el conjunto de valores que
puede tomar el dato.
Clasificación de los tipos de datos:
– Simples:
– Estándar.
– No estándar.
– Estructurados:
– Estáticos.
– Dinámicos.

11.2.1. Tipos de datos simples estándar


– Numéricos: representan valores numéricos. Existen diferentes subtipos dependiendo del
rango del número que se quiera representar.
* Entero: subconjunto finito de los números enteros. No tiene parte decimal. El rango de los
valores depende del tamaño que se les da en memoria. Por ejemplo: 2, 34, 1456, 2002.
* Real: subconjunto finito de los números reales. Llevan signo y parte decimal. Si se uti-
lizan números reales muy grandes, se puede usar notación científica que se divide en
mantisa, base y exponente; de tal forma que el valor se obtiene multiplicando la mantisa
por la base elevada al exponente. Por ejemplo: 3,1416.

232 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

– Lógicos o booleanos: sólo puede tomar uno de dos valores posibles. Estos valores se pue-
den representar de distinta forma, verdadero o falso, 1 o 0, etc.
– Carácter: admite uno de los caracteres del conjunto que reconoce el ordenador (letras,
dígitos, caracteres especiales, ASCII). Su agrupación lógica da lugar al tipo cadena o string,
que se define como una secuencia de caracteres, por ejemplo, el nombre de una persona.
Las cadenas se definen entre comillas para diferenciarlas de otros datos. Por ejemplo:
Apellido1 = “García”
Donde apellido1 es el nombre del dato y García el valor que toma.
– Fecha/hora: los modernos sistemas de programación incluyen un tipo de datos especial
para la fecha y hora.

11.2.2. Tipo de datos simples no estándar


Existen otros tipos de datos altamente dependientes del lenguaje de programación que se utilice.
Por ejemplo, el tipo enumeración consiste en un conjunto definido de valores del tipo (1, 2, 3, 4, 5)
o (“A”, “B”, “C”). Estos tipos de datos se engloban en la categoría de No estándar en el sentido de
que son definidos por el programador.

11.2.3. Tipos de datos estructurados o complejos


Los tipos de datos estructurados se construyen agrupando un conjunto de datos de tipo simple.
Pueden existir datos estructurados que sean a su vez una asociación de otros datos estructurados,
originando complejas combinaciones acordes a las necesidades de los programas.
Existen dos subtipos para estos tipos de datos:
– Estáticos: ocupan un tamaño de memoria fijo, que queda definido en la etapa de declara-
ción de los datos. En este conjunto encontramos arrays, cadenas, registros, ficheros, con-
juntos, etc.
– Dinámicos: la estructura no ocupa un tamaño fijo, según las necesidades de los programas
va tomando o liberando bloques de memoria. Estas estructuras se manejan mediante un tipo
especial denominado puntero. Estructuras dinámicas son: listas enlazadas, árboles, grafos,
pilas y colas.
NOTA: las pilas y colas son estructuras especiales que admiten su implemen-
tación tanto en memoria estática como dinámica.

12. CONSTANTES Y VARIABLES

12.1. DEFINICIONES Y CARACTERÍSTICAS


Constantes: datos con un valor fijo asignado cuando se define la constante.
Este valor no puede ya ser modificado durante la ejecución del programa.
Variables: dato que se define con un nombre y un tipo determinado. El valor
que almacena puede variar durante la ejecución del programa, no así su nombre
y su tipo.
El programador define el nombre de las variables y es buena práctica que dicho nombre sea
intuitivo respecto a la información que va a almacenar.
Por ejemplo, si tenemos que almacenar la edad de una persona, lo más lógico es que definamos
una variable denominada “Edad”. Aunque tenemos libertad para llamarle “dat4456”; esta última
forma es menos intuitiva y más complicada a la hora de referenciar la variable en el programa.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 233


SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

NOTA: podemos imaginar una variable como una caja etiquetada con un nom-
bre que almacena un valor. La “caja” es en realidad una zona definida de la me-
moria del ordenador, que el programador no tiene por qué conocer. El sistema
de programación se encarga de gestionar estos detalles internos. Una constante
funciona de manera análoga pero el contenido de la caja es invariable.




  



 







Representación de una variable. Al detectar una variable o una constante con nombre, se reserva automáticamente
espacio en memoria para almacenarla. El espacio reservado depende del tipo de la variable

Antes de usar una variable hay que definirla o declararla, procedimiento que consiste en asig-
narle un nombre y un tipo. La asignación de un nombre a una variable se rige por ciertas normas que
dependen de cada sistema de programación. Por ejemplo, en la mayoría de ellos no está permitido
que el nombre de un dato comience por un dígito. No olvidemos, además, que el nombre debe ser
significativo para facilitar futuras referencias a la variable.
Si en el proceso de declaración no se asigna un valor a la variable (bien por elección del progra-
mador, bien porque el sistema de programación no lo permita), éste toma uno por defecto.
NOTA: cuando se asigna un valor a una variable por primera vez, hablamos
de inicializar dicha variable. Recuérdese que, a lo largo de la ejecución del progra-
ma, el valor puede cambiar.
Las constantes pueden llevar asociados un nombre o no; si no lo llevan, se llaman literales. El
nombre y valor se asignan al definir la constante y ya no puede cambiar a lo largo de la ejecución. En
cuanto al tipo, dependiendo del lenguaje de programación, es necesario especificarlo o no.
Ejemplo de declaración de constante: Const PI = 3,1416
La ventaja de usar constantes con nombre es que facilita el desarrollo del programa mediante
nombres fáciles de recordar. En el proceso de ejecución, el compilador ha sustituido las constantes
por sus valores correspondientes.

12.2. OPERACIÓN DE ASIGNACIÓN


Consiste en atribuir un valor a una variable. La forma genérica de expresar una asignación es la
siguiente:
Variable m Valor
Donde valor puede ser un número, una cadena de caracteres, otra variable, una expresión, etc.
En la siguiente tabla exponemos algunas asignaciones:
– Importe m 110
– Apellido 1 m “García”
– IVA m Importe * 0,16
– Total m Importe + IVA

Variable Valor asignado Comentario


Edad 35 Valor numérico
Apellido 1 “García” Cadena de caracteres (se pone entre comillas)
.../...
234 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO
SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

.../...
IVA Importe * 0,16 Expresión donde aparece una variable y un número
Total Importe + IVA Expresión donde aparecen dos variables
Tabla donde se desglosan y explican las partes de las anteriores asignaciones

El proceso de asignación se realiza en dos fases:


– Se evalúa la expresión de la parte derecha de la asignación obteniéndose un único valor.
– Se asigna ese valor a la variable de la parte izquierda.
Características de una asignación:
– En la parte izquierda sólo puede haber una variable.
– La variable a la que se le asigna el valor pierde su valor anterior.
– El tipo del valor que se obtiene al evaluar la parte derecha tiene que ser el mismo que el tipo
de la variable de la parte izquierda, es decir, a una variable sólo se le pueden dar valores de
su mismo tipo.

12.3. NOTACIÓN HÚNGARA


El estilo de notación húngara fue creado por Charles Simonyi, un programador de Microsoft des-
cendiente de húngaros. Mientras escribía su tesis doctoral sobre el tema de la productividad de los
programadores, observó que éstos pasaban bastante tiempo decidiendo los nombres simbólicos para
las variables, funciones y constantes simbólicas.
Simonyi diseñó un enfoque para acelerar este proceso: iniciar el identificador con una o varias
letras minúsculas que indiquen el tipo al que pertenece (las mismas para todo el programa), y a
continuación la abreviación de cierto número de palabras (cada una comenzando en mayúsculas)
describiendo los contenidos de dicho ítem.
El uso de la notación húngara puede resultar un poco incómodo al principio, pero cuando se me-
caniza su uso, ayuda a evitar errores muy comunes con los tipos de datos y a explicitar el contenido
semántico del código.

13. EXPRESIONES Y OPERADORES


Un operador es la representación de una operación entre dos elementos deno-
minados operandos. Una operación permite obtener un nuevo elemento en función
del valor de los elementos originales. Los operadores se describen como símbolos o
combinación de letras (que suelen ser palabras abreviadas).
Por ejemplo, la operación adición devuelve un nuevo valor que es la suma de dos operandos.
Como bien sabemos se representa con el símbolo +.
Existen otros operadores, no tan conocidos, que veremos a continuación, como ^, mod, or, etc.
Una expresión es una combinación de constantes, variables, operadores, pa-
réntesis y funciones con un sentido unívoco y definido y de cuya evaluación resulta
un único valor.
Toda expresión tiene asociada un tipo que se corresponde con el tipo del valor que devuelve la
expresión cuando se evalúa.
Por ejemplo, la siguiente es la expresión de la suma de dos números:


    

 

   

Expresión sencilla con sus elementos constituyentes: operandos, operadores y resultado

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 235


SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

La mayoría de los operadores son binarios (actúan sobre dos valores originales) situándose el
operador entre los dos elementos. Existen algunos que son unitarios (actúan con un único operando),
por ejemplo, la negación lógica NOT o el signo menos cuando precede a una expresión.

13.1. EXPRESIONES Y OPERADORES NUMÉRICOS


Utilizan una combinación de variables y/o constantes numéricas con operadores aritméticos. Su eva-
luación devuelve un valor numérico. Los operadores numéricos se representan en la siguiente tabla:

Aritméticas básicas Representación


Adición (Suma) +
Sustracción (Resta) -
Multiplicación (Producto) *
División (Cociente) /
Otras
Resto (Devuelve el resto de una división entera) Mod, %
División entera (Devuelve el cociente de una división entera) Div, \
Potencia ^
Principales operadores numérico y sus representaciones más comunes,
ya que varían dependiendo del lenguaje de programación que se utilice

13.2. EXPRESIONES Y OPERADORES RELACIONALES


Las expresiones relacionales, también llamadas de comparación, evalúan una relación entre
dos operandos y ofrecen un resultado que toma sólo dos valores definidos: verdadero o falso; es
decir, un resultado booleano.
Por ejemplo:
2 < 45 da como resultado Verdadero, ya que efectivamente 2 es menor que 45.
La evaluación de una expresión relacional sigue los siguientes pasos:
– Primero se evalúa el primer operando y se sustituye por su valor.
– Luego se evalúa el segundo operando y se sustituye por su valor.
– Finalmente se aplica el operador relacional y se devuelve el valor booleano correspondiente.
Los operadores relacionales se representan en la siguiente tabla:

Operador relacional Representación


Mayor >
Mayor o igual >=
Menor <
Menor o igual <=
Igual =, ==
Distinto <>, = !
Principales operaciones relacionales y sus representaciones más comunes,
ya que varían dependiendo del lenguaje de programación empleado

236 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

13.3. EXPRESIONES Y OPERADORES LÓGICOS (BOOLEANOS)


Una expresión lógica, al igual que las relacionales, sólo devuelve resultados booleanos (verdadero
o falso). Los operandos de una expresión lógica pueden ser de 2 tipos: lógicos y relacionales.
La particularidad de las expresiones lógicas es que sus operandos no tienen por qué ser boolea-
nos aunque se devuelva un valor booleano. Recordemos que una expresión numérica sólo admite
números como operandos.
En una expresión lógica se pueden utilizar operadores relacionales, con lo cual se obtienen va-
lores lógicos o booleanos a partir de otros que no lo son. Sin embargo, cuando los operadores son
lógicos los operandos obligatoriamente también tienen que ser lógicos.
Los operadores lógicos se muestran en la siguiente tabla:

Operando 1 Operando 2 AND OR


V V V V
V F F V
F V F V
F F F F
AND y OR son operadores binarios (necesitan 2 operandos de tipo lógico). Los resultados se representan
como V y F (verdadero y falso, respectivamente)

NOT 1/0
V F
F V
El operador NOT es unario

NOTA: las expresiones pueden ser complicadas e incluso de distinto tipo, como
en el siguiente ejemplo, donde se evalúa una expresión relacional cuyos operandos
son a su vez expresiones numéricas:
((3*2)+1-5^2) < (2-1)
-18 < 1 Da como resultado Verdadero

13.4. REGLAS DE PRECEDENCIA


Aunque los operadores pueden ser binarios (actúan como máximo con dos operandos), se pue-
den escribir expresiones que incluyan varios operandos, hecho que no supone ninguna incongruencia,
ya que dichos operandos serán evaluados dos a dos.
Las reglas de precedencia evitan situaciones en las que el orden al aplicar los operadores pueda
ocasionar resultados diferentes. Por ejemplo, sea la siguiente expresión:
10+8/2
Podemos evaluarla de dos formas:
– Primero la suma, luego la división: 10 + 8 = 18, 18 / 2 = 9. Obtenemos como resultado 9.
– Primero la división, luego la suma: 8 / 2 = 4, 10 + 4 = 14. Obtenemos como resultado 14.
El ejemplo anterior pone de manifiesto la necesidad de definir unas reglas de precedencia que
asignen prioridades en la aplicación de los operadores. Son las siguientes:

Tabla de prioridades
()
^, NOT
.../...
AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 237
SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

.../...
*, /, div, mod, AND
+, -, OR
<, >, =,

Tabla con las reglas de precedencia entre operadores. La primera fila es la más prioritaria, la úl-
tima menos. Las expresiones entre paréntesis siempre se evalúan primero. Este mecanismo permite
a los programadores definir las prioridades según sus necesidades.
Es importante hacer notar que aunque estas son las reglas más ampliamente aceptadas, en
última instancia dependen del lenguaje de programación que se esté utilizando.
Entre dos operaciones que tienen la misma precedencia se resuelva la ambigüedad mediante
la regla de la asociatividad. La más normal es la asociatividad a la izquierda, que evalúa primero los
operandos a la izquierda de la expresión.

14. CADENAS DE CARACTERES

14.1. JUEGO DE CARACTERES


Un juego de caracteres es un conjunto de símbolos que tiene asociado un número. El juego de
caracteres es el alfabeto que usa el ordenador para comunicarse con el usuario.
Los más extendidos son el ASCII y el EBCDIC. En cualquiera de los 2 juegos, existen 4 tipos de
caracteres:
– Alfabéticos: letras mayúsculas y minúsculas.
– Numéricos: números.
– Especiales: todos los que no son letras y números estándar, por ejemplo el símbolo de
acento, los paréntesis o los signos de puntuación.
– Control: no son imprimibles y tienen asignados caracteres especiales. Sirven para determi-
nar el fin de línea, fin de texto, etc. Ocupan las posiciones desde 128 a 255.

14.2. CADENA DE CARACTERES


Es un conjunto de 0 o más caracteres. Entre estos caracteres puede estar incluido el blanco.
Las cadenas de caracteres se delimitan con dobles comillas “ “ generalmente, aunque en algunos
lenguajes se delimitan con comillas simples ‘ ‘.
La longitud de una cadena es el número de caracteres de la misma. A veces los lenguajes de
programación insertan un carácter especial al final de la cadena para indicar su terminación. Este
carácter especial no entra en el cómputo de la longitud.
NOTA: una subcadena es una cadena extraída de otra. En el ejemplo anterior
“Hola” sería una subcadena de la cadena original.
Una curiosa cuestión se plantea cuando queremos introducir las comillas dentro de una cadena.
Ya que las comillas son los delimitadores de la cadena, tenemos que recurrir a la siguiente técnica:
incluir dos veces las comillas; la primera indica que la siguiente es parte de la cadena. Por ejemplo,
para almacenar:
Él dijo “Hola” y se fue
Tendríamos que utilizar:
“Él dijo “”Hola”” y se fue”
Las cadenas de caracteres se pueden asignar a variables y a constantes, de forma análoga a
cantidades numéricas. Hay que distinguir entre una variable de tipo carácter y una variable de tipo ca-

238 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

dena; el contenido de una variable de tipo cadena es un conjunto de 0 o más caracteres encerrados
entre comillas dobles “ “, mientras que una variable de tipo carácter es un solo carácter encerrado
entre comillas simples ‘ ‘.
NOTA: esto es así en la mayoría de los casos, pero recordemos que no es una
regla absoluta; depende del lenguaje de programación que se esté utilizando.

14.3. ALMACENAMIENTO EN MEMORIA


Un carácter ocupa un byte en memoria. Para almacenar cadenas de caracteres existen varias
técnicas:
– Almacenamiento estático: la longitud de la cadena se define antes de ser usada y se man-
tienen constante. La cadena se almacena en posiciones contiguas de memoria. Si la cadena
no ocupa todo el espacio, el resto se rellena con blancos, y esos blancos se consideran parte
de la cadena. Este sistema es muy deficiente y no se usa casi en ningún lenguaje.
Por ejemplo:
  


       

Una cadena de caracteres almacenada en posiciones contiguas de memoria. Nótese que los espacios en blanco también
requieren su celdilla, ya que se tratan como un carácter más. Obsérvese también que las comillas no se almacenan

– Almacenamiento semiestático: antes de usar la cadena, hay que declarar su longitud


máxima, espacio que se reserva en memoria en posiciones contiguas. La diferencia estriba
en que la longitud real de la cadena puede variar durante la ejecución del programa, aunque
siempre en los límites de la longitud máxima definida anteriormente.
Puesto que la cadena no tiene por qué ocupar la longitud máxima, para determinar qué parte
ocupa realmente se pueden utilizar diferentes métodos:
Reservar los 2 primeros bytes de la zona de memoria en que guardamos la cadena para indi-
car con el primer byte la longitud máxima de la cadena, y con el segundo la longitud actual.
Este el caso del lenguaje PASCAL.

    

Una cadena de caracteres almacenada en memoria. El primer byte indica la longitud, el segundo la longitud actual
y a continuación se almacena la cadena. Los dos primeros bytes no entran en el cómputo de la longitud total de la cadena

Reservar un carácter especial que indica el fin de cadena. Este sistema lo utiliza por ejemplo
el lenguaje C.

    
 

Una cadena de caracteres almacenada en memoria. El último byte actúa como delimitador (representado
por el carácter especial /0) y no entra en el cómputo de la longitud total de la cadena. En este caso es imposible
conocer la longitud actual de la cadena a priori; hay que recorrerla entera para realizar el cómputo de caracteres

– Almacenamiento dinámico: no hay que definir la longitud de la cadena antes de usarla, ni


siquiera la máxima. Para esto se utiliza la memoria dinámica, y para establecer el número de ele-
mentos de la cadena utilizaremos listas enlazadas en las que cada nodo almacena un carácter de
la cadena. La información no tiene que estar almacenada en posiciones contiguas de memoria.
NOTA: estudiaremos la estructura dinámica de datos más adelante en este
mismo tema.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 239


SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

14.4. OPERACIONES CON CADENAS


Al igual que con cualquier tipo de datos, podemos hacer operaciones de entrada y salida (leer y
escribir) y asignación a variables y constantes. Aparte de estas instrucciones, la mayor parte de los
lenguajes permiten realizar operaciones especiales con las variables de tipo cadena, que se suelen
almacenar en librerías externas.
Las operaciones más usadas son:
– Longitud: función a la que se le pasa una cadena como parámetro y como resultado devuel-
ve su longitud.
– Comparación: las cadenas se pueden comparar entre sí usando los símbolos de comparación.
Realmente la comparación se efectúa entre los valores ASCII asociados a cada carácter.
– Concatenación: une varias cadenas en una sola, manteniendo el orden de los caracteres
de las cadenas originales.
– Subcadena: extrae parte de una cadena.
– Inserción: inserta una cadena dentro de otra a partir de una determinada posición.
– Borrado: consiste en borrar de una cadena una subcadena que forma parte de ella. Hay que
dar la posición de inicio y final de la subcadena que quiero borrar.
– Intercambio: sustituye la aparición de una subcadena, dentro de una cadena, por otra sub-
cadena. Para eso la primera subcadena debe aparecer en la segunda.
– Conversión de cadenas a números: función que toma una cadena de caracteres numéri-
cos y devuelve el número asociado.
– Conversión de números a cadenas: función que toma un número y lo convierte a una
cadena.
– Carácter asociado a un número ASCII: función que toma un número, lo busca en la tabla
ASCII y devuelve el carácter asociado.
– Número ASCII asociado de un carácter: función que toma un carácter, lo busca en la
tabla ASCII y devuelve su número asociado.

15. REGISTROS
Un registro es un tipo estructurado de información formado por un conjunto de datos de tipos
básicos que se asocian de forma lógica para representar situaciones que así lo requieran.
Por ejemplo, si un programa necesita manejar la información que contiene un DNI, tendremos
un conjunto de datos de diferente naturaleza asociados por una relación lógica: pertenecen a una
persona.
Cada dato componente del registro se denomina campo.
La sintaxis que usaremos para definir un tipo registro es la siguiente:
Tipo <Nombre_registro> = Registro
<campo1>: <tipo>
<campo2>: <tipo>
<campo3>: <tipo>
Fin declaración de registro
Una vez definida la estructura de tipo registro, se pueden declarar variables de dicho tipo:

Var <Nombre_variable>: <Nombre_registro>

Para acceder a un campo concreto de una variable de tipo registro, utilizamos el operador punto:

<Nombre_variable>.<Campo1>

240 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

Por ejemplo:
DNI.Apellido1 m “Pepe”
El almacenamiento de un registro en memoria ocupa la suma del tamaño de cada uno de sus
campos. Esta información estará almacenada de manera contigua y según el orden en que hayamos
declarado los campos.
Las técnicas para almacenar cadenas de caracteres son aplicables a los registros.

16. ARRAYS

16.1. ARRAYS UNIDIMENSIONALES: VECTORES


Un array unidimensional, o lineal, o vector, es un conjunto finito y ordenado
de elementos homogéneos.
– Es finito porque tiene un número determinado de elementos.
– Es homogéneo porque todos los elementos almacenados van a ser del mismo tipo.
– Es ordenado porque se puede acceder a cada elemento del array de manera independiente.
Existe un mecanismo que permite referenciar cada elemento de un array: los índices (valor que
hace referencia a la posición del elemento dentro del array). Los índices son valores numéricos natu-
rales. Para referenciar un elemento de un array usaremos el nombre del array y entre corchetes [ ] el
índice que determina la posición de dicho elemento.

1 2 3 4 5 6 7 8 9 10
H o l a , J u a n
Array de elementos. En este caso los elementos son de tipo carácter, pero podrían
haber sido de cualquier otro tipo definido por el usuario

El rango o longitud de un vector o array lineal es la diferencia entre el índice de valor máximo y el
índice de valor mínimo de ese array + 1. Normalmente los índices comienzan a enumerarse, es decir,
el valor mínimo del índice es 0 o 1, dependiendo del lenguaje (en Pascal con 1 y en C con 0). Sin
embargo nada impide que comiencen en cualquier otro valor definido por el programador.
Los arrays se almacenan siempre en posiciones consecutivas de memoria y podemos acceder a
cada elemento del array de manera independiente a través de los índices. Un índice no tiene por qué ser
un valor constante, puede ser una variable o una expresión que al ser evaluada devuelva ese índice.
A la hora de definir un array siempre habrá que dar el nombre del array, el rango de sus índices y
el tipo de los datos que contiene. Para hacer esa declaración se utiliza la siguiente nomenclatura.
<Nombre_array>: Array [LI .. LS] de <tipo>
Por ejemplo:
Declaración de array:
Sueldo: Array [1 .. 8] de real
Asignación de un elemento:
Sueldo [5] m 100000

Asignación mediante un índice variable:

Var I: Entero
Im5
Sueldo [I] m 100000

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 241


SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

16.2. OPERACIONES CON ARRAYS UNIDIMENSIONALES


– Asignación o actualización de un elemento del array:
<Nombre_array>[indice] m valor
– Lectura y escritura de datos:
* Desde i=1 hasta 12
Escribir “Introduce el sueldo nº”; i
Leer sueldo [i]
* Fin desde
– Recorrido o acceso secuencial de un array: consiste en pasar por todas las posiciones del
array para procesar su información. Por ejemplo, para incrementar todos los sueldos:
* Desde i=1 hasta 12
Sueldo [i] m Sueldo [i] + 1000
* Fin desde

16.3. ARRAYS BIDIMENSIONALES: MATRICES


Un array bidimensional de M*N elementos es un conjunto de M*N elementos, todos del mismo
tipo, cada uno de los cuales se referencia a través de 2 subíndices. El primer subíndice podrá variar
entre 1 y M, si hemos empezado a numerar los índices por 1, y el segundo índice variará entre 1 y N,
si hemos empezado a numerar los índices por 1.
Definimos un array de 2 dimensiones de la siguiente manera.
<Nombre_array>: Array [LI1..LS2,LI2..LS2] de <tipo>
Referencia genérica:
Tabla [I, J] m Valor
(Con LI1 <= I <= LS1 y LI2 <= J <= LS2)
Por ejemplo:
Declaración de array:
Tabla: Array [1 .. 10, 1..10] de real

Asignación de un elemento:
Tabla [5, 4] m 25

El tamaño del array viene determinado por la siguiente fórmula (LS1-LI1 +1)*(LS2-LI2 +1)
La representación lógica de un array bidimensional es una matriz de dimensiones M*N donde M
es el número de filas de la matriz y N es el número de columnas. El elemento I,J ocupa la fila I y la
columna J. En memoria todos los elementos del array se almacenan en posiciones contiguas, pero
los programadores lo utilizan como una matriz:

1 2 3 4 5 6 7 8 9 10
1
2 H
3
4
Array bidimensional o matriz. Estos arrays tienen dos índices: el primero referencia la columna del elemento
y el segundo su fila. En nuestro ejemplo el elemento [5,2] contiene una “H”

242 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

16.4. ARRAYS MULTIDIMENSIONALES


Un array multidimensional es un array de 3 o más dimensiones. Los conceptos y las técnicas
estudiadas para los arrays anteriores son aplicables en este caso, considerando el número de índices
que tenga la matriz multidimensional que estemos tratando.

17. ESTRUCTURAS DINÁMICAS LINEALES

17.1. INTRODUCCIÓN Y DEFINICIONES


Las estructuras dinámicas de datos presentan una serie de características distintivas frente a las
estáticas:
– No es necesario definir el tamaño antes de usarla. El tamaño de la estructura se adapta a
las necesidades que vayan surgiendo a lo largo de la ejecución del programa. El único límite
lo constituye la capacidad de la memoria del ordenador.
– Los elementos o nodos que forman está estructura no tienen por qué estar situados en
forma contigua en memoria.
– Los nodos se relacionan entre sí mediante campos de enlace o punteros, que son campos
cuya función es almacenar la dirección de memoria del siguiente nodo.
– Un puntero puede contener un valor especial denominado NULL o NIL, que indica que el
puntero no está apuntando a ningún nodo. Esto es útil en situaciones especiales que ya estu-
diaremos.
– Los punteros de la estructura se definen como puntero a tipo, donde tipo es el tipo definido
por el usuario para los nodos de la estructura.
– Una estructura de datos dinámica viene determinada por un puntero especial que apunta a
su primer elemento. A partir de este puntero principal podemos recorrer la estructura.
– Las estructuras dinámicas pueden ser lineales o no lineales, según que desde un elemento
se pueda acceder solamente a otro o a varios.
Un puntero o apuntador es una variable especial en cuanto a su contenido: almacena una
dirección de memoria que corresponde a otra variable (denominada apuntada).
La variable apuntada puede ser más o menos compleja o de un tipo u otro. Según el tipo de da-
tos de la variable apuntada variará el tipo de puntero. A través de punteros se establece la conexión
o enlace entre los nodos que forman la estructura dinámica. Según se organicen los punteros y los
enlaces obtendremos diferentes tipos de estructuras (listas enlazadas, árboles, grafos, etc.).
En la siguiente figura representamos el nodo más sencillo de una estructura de datos dinámica:

Nodo de una estructura de datos dinámica donde se


pueden apreciar sus dos componentes principales: el
área de datos (que almacena la información útil) y el
puntero, que almacena la dirección de memoria del
siguiente nodo, creando un enlace entre ambos que
se representa mediante la flecha

Veamos un ejemplo práctico: supongamos que vamos a almacenar el nombre, apellidos, edad,
sexo y DNI de varias personas en una estructura dinámica de datos. Definimos el siguiente tipo:
– TIPO Persona
* Nombre: Char(20)
* Apellido1: Char(20)
* Apellido2: Char(20)
* Edad: Numshort

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 243


SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

* Sexo: Boolean
* DNI: Numlong
* Próximo: Puntero tipo Persona
– FIN

17.2. REFERENCIAS
Además del tipo definido anteriormente necesitamos una variable auxiliar de tipo pun-
tero (que llamaremos REC, de recorrido), que servirá para referenciar los distintos nodos de la
estructura y los datos que éstos contienen:
Var REC: Puntero tipo Persona
Por referencia entendemos el proceso por el cual accedemos a los datos de un nodo. Este ac-
ceso se realiza mediante el puntero REC, al que se le añade el campo del nodo al que deseamos
acceder.
Por ejemplo, supongamos que tenemos el nombre de una persona y queremos obtener su edad.
El primer paso es realizar una búsqueda por nuestra estructura dinámica hasta dar con el nodo ade-
cuado. Una vez localizado, el puntero REC nos sirve para referenciar el dato concreto que necesita-
mos, en la forma siguiente:
REC.Edad






 


 


   
 



Figura que representa un nodo de una estructura dinámica y el puntero REC que lo referencia.
Añadiendo el nombre de un campo (separado por un punto) al puntero, podemos acceder al valor de cualquiera de ellos

17.3. TRATAMIENTO DE LA MEMORIA DINÁMICA


Siempre que se hace una inserción en una estructura dinámica, hay que reservar una cantidad
de memoria igual a la que ocupa el nuevo nodo. La eliminación de un nodo implica el procedimiento
inverso: liberar la memoria que éste ocupaba.
Todos los lenguajes de programación tienen dos instrucciones que permiten reservar memoria y
liberar memoria dinámica, y asignar en el caso de la reserva la memoria a un puntero.
La instrucción de reserva tiene un único argumento, que será el tipo de datos para el que se hace
la reserva de memoria. Devuelve un puntero al comienzo de la zona que se ha reservado. La función
liberar memoria lleva un único argumento (tipo puntero).

17.4. LISTA SIMPLEMENTE ENLAZADA


Es una colección lineal de elementos (nodos), donde el orden entre ellos se establece mediante
punteros. Por estar simplemente enlazadas tienen la característica que desde un nodo sólo puedo
acceder al siguiente directamente.

244 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

NOTA: existe la posibilidad de almacenar listas mediante arrays (memoria es-


tática), donde la relación de los nodos viene dada por ocupar posiciones contiguas
de memoria.
Podemos generalizar la definición de un nodo de la siguiente manera:
– TIPO Nodo
* <Info>: Información efectiva
* <SIG>: Puntero al siguiente elemento
– FIN
Sólo nos resta definir la variable que contendrá el puntero que apunta al primer elemento de
la lista; lo denominaremos COM (de comienzo):
– VAR COM: Puntero a Nodo
A continuación se representa una lista típica simplemente enlazada:


  
    

      

   
  



 "# $


 

     

   
        
    !

Representación de una lista simplemente enlazada. Recordemos que los nodos de la lista pueden estar en cualquier zona
de memoria, no tienen por qué ocupar posiciones consecutivas. El puntero de comienzo da nombre a toda la estructura

En la práctica la forma más normal de utilizar listas enlazadas es mediante técnicas de memoria
dinámica, aunque una lista enlazada también se puede simular usando arrays (memoria estática).
Este método es poco usual por ser poco eficiente.
Con memoria estática se utilizarían 2 arrays del mismo tamaño y con la misma numeración de
índices. Uno de ellos guardaría los campos de información de la lista, y el otro (en la posición corres-
pondiente del primero) el índice del siguiente nodo.

17.4.1. Procesamiento de listas enlazadas simples


Una vez diseñada la lista, se necesitan una serie de operaciones para explotar las posibilidades
que ofrece. En cualquier operación sobre una lista necesitamos conocer la estructura de sus nodos
y el puntero de comienzo.
Las operaciones principales sobre una lista simplemente enlazada son las siguientes:
– Recorrido: desde el primer puntero que define la lista, la vamos recorriendo mediante los
punteros que contienen los nodos al siguiente elemento y que hemos denominados “Próxi-
mos” (ver figura anterior).
– Búsqueda: se trata de localizar un nodo que cumpla una determinada condición (por ejem-
plo, que su campo DNI tenga un valor determinado).
A la hora de hacer las búsquedas es importante considerar si la lista está ordenada o no. Básica-
mente se trata como un recorrido con el añadido de ir analizando el campo por el que se busca.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 245


SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

– Inserción: se realiza en los siguiente pasos:


* Antes de realizar cualquier proceso de inserción, hay que analizar si queda memoria
disponible (recordemos que las estructuras dinámicas van tomando memoria a medida
que crecen).
* Si es posible hacer la inserción, se reserva el espacio de memoria para el nuevo nodo.
* Se crea el nodo y se asignan valores a sus campos.
* Se actualiza el puntero de enlace.
A la hora de asignar un valor al puntero de enlace se presentan dos casos posibles:
* Inserción al comienzo de la lista: se modifica el valor del puntero de comienzo.
* Inserción en un lugar intermedio de la lista o al final: necesitamos conocer la posi-
ción del nodo anterior a la posición de inserción, cuyo puntero al siguiente se actualiza al
nuevo nodo. El puntero siguiente del nuevo nodo se actualiza al valor original que tenía
el puntero siguiente del nodo anterior.
– Eliminación: siempre que se hace un borrado de una estructura dinámica, se debe compro-
bar que la estructura no está vacía. Una vez determinado esto, hay que localizar el nodo a
borrar. Se pueden dar 2 casos:
* El nodo a borrar sea el primero: si es el del comienzo, hay que actualizar el puntero
al comienzo de la lista; ahora tendrá que apuntar al siguiente elemento.
* El nodo a borrar ocupa cualquier otra posición: hay que localizar la posición del nodo
y de su predecesor. Para desenlazar el nodo a borrar, el predecesor tendrá que apuntar
al que le sigue.
Finalmente, y en ambos casos, se libera la memoria que ocupaba el nodo.

17.5. LISTA CIRCULAR


Una lista circular es una lista enlazada simple en la que el último nodo tiene un enlace al primero:

  

  



Lista circular. Esta modalidad es en esencia igual que la anterior con la salvedad de que el último nodo apunta
al primero, característica por la que toma el nombre de circular

Una lista circular presenta una ventaja importante respecto a una normal: en las inserciones y
borrados no hay que suponer ningún caso especial, pues todos los nodos, incluido el primero útil,
tienen un predecesor.
Al recorrer la lista completa, empezaremos buscando la información por el comienzo y no sa-
bremos que hemos llegado al final hasta que el puntero REC de recorrido coincida de nuevo con el
comienzo.

17.6. LISTA DOBLEMENTE ENLAZADA


Las listas enlazadas simples se caracterizan porque desde un nodo sólo puedo acceder al si-
guiente; únicamente podemos recorrer la lista en un sentido, de principio a fin.

246 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

Las listas dobles se caracterizan porque desde un nodo podemos acceder directamente tanto al
siguiente como al anterior. Ahora tenemos 2 punteros de enlace en cada nodo.


  
    

      

   
  



  

  

Lista doblemente enlazada. Para conseguir el doble enlace necesitamos un puntero adicional en cada nodo.
Lo hemos denominado “Anterior”, ya que apunta al nodo que precede al actual

La anterior estructura permite recorrer la lista en 2 sentidos, de principio a fin y viceversa. Pode-
mos encontrar diversas variantes de esta estructura: puede existir un segundo puntero que apunte al
final de la lista (que permitiría comenzar el recorrido por el final) o la lista puede diseñarse de forma
circular, de forma análoga al caso de la lista simplemente enlazada.
Las operaciones principales sobre una lista doblemente enlazada son las siguientes:
– Recorrido: igual que una lista simplemente enlazada, con el añadido de que ahora también
podemos recorrer la lista en sentido inverso mediante el puntero anterior.
– Búsqueda: igual que en una lista simplemente enlazada, con la posibilidad mencionada
anteriormente.
– Inserción: lo primero es analizar si queda espacio disponible en memoria, en cuyo caso se
reserva un nuevo nodo. A continuación se inicializan sus campos, y por último se actualizan
sus punteros de enlace anterior y posterior.
Casos particulares (el proceso de eliminación varia ligeramente):
* Inserción al comienzo si la lista está vacía.
* Inserción al comienzo si la lista no está vacía.
* Inserción al final.
* Inserción en medio de la lista.
– Eliminación: primero se comprueba si la lista tiene algún elemento. Si es así, se busca el
nodo que queremos borrar y, si existe, tomamos la posición en que se encuentra.
Casos particulares (el proceso de eliminación varía ligeramente):
– Borrado del primer nodo.
– Borrado del último nodo.
– Borrado de un nodo intermedio.
Una vez eliminado el nodo habrá que liberar la memoria que ocupaba.

17.7. ESTRUCTURA DE PILA


Una pila es una estructura lineal de datos con una característica especial: las inserciones y las
eliminaciones no se pueden hacer en cualquier lugar, estamos obligados a realizar estas operaciones
por un extremo de la lista.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 247


SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

NOTA: el extremo de una pila se denomina cima.



 
 

Estructura de pila. Las operaciones de inserción y eliminación sólo se pueden realizar por un extremo denominado cima

El modo de operación que impone la pila supone que se procesen los elementos en orden inverso
a su entrada en la estructura, es decir, el primer elemento de la pila será el último que entró. Esta
técnica se conoce como LIFO (Last In First Out, último en entrar primero en salir).
Con una pila podemos realizar dos operaciones básicas, PUSH (meter) y POP (sacar), además de
otras funciones como TOP, que indica el elemento que ocupa la cima. Otras funciones nos ayudan a ma-
nejar las estructura de pila, indicándonos si ésta está vacía, el número de elementos que ocupa, etc.
NOTA: las pilas se pueden implementar con memoria estática (arrays) o con
memoria dinámica (listas enlazadas).
Las pilas tienen múltiples aplicaciones en informática. Un ejemplo típico es en las llamadas entre
funciones. En este caso, el sistema operativo utiliza una pila en donde va guardando la dirección de
retorno de cada una de estas llamadas.

17.8. ESTRUCTURA DE COLA


Una cola también es una lista lineal de elementos con una propiedad especial: las inserciones se
hacen por un extremo de la lista (final) y los borrados por el otro (principio).

 
  

Una estructura de cola. Las operaciones de inserción y eliminación se realizan por extremos opuestos

El modo de operación que impone la cola supone que se procesen los elementos en el mismo
orden de su incorporación a la estructura, es decir, el primer elemento de la cola es el primero que
entró. Esta técnica se conoce como FIFO (First In First Out, primero en entrar primero en salir).
Podemos implementar una cola con memoria estática (arrays) o con memoria dinámica (listas
enlazadas). Sea cual sea la implementación, siempre tendrán que existir dos variables, comienzo y
final, que apunten al comienzo y al fin de la cola, respectivamente.
Las colas, al igual que las pilas, tienen numerosas aplicaciones en informática. Un buen ejemplo
es la gestión de tareas por parte del sistema operativo y en la asignación de recursos.
Cuando un proceso necesita un recurso que esté ocupado, tendrá que ponerse en la cola. El
recurso se asigna según el orden de llegada de las solicitudes.

248 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

A veces interesa que ciertos procesos tengan mayor prioridad que otros, incluso aunque lleguen
más tarde; para ello se utiliza una variedad de colas denominada cola de prioridades.
Cada elemento de la cola tiene un campo adicional que indica su prioridad. La inserción de un
nuevo elemento en la cola se realiza en una posición dependiente de su prioridad. Se puede dar el
caso de que un nuevo nodo llegue con una prioridad más alta que cualquiera de los que espera en la
cola, en cuyo caso se coloca el primero. Podríamos decir que se “cuela” delante de todos los demás.

17.9. ESTRUCTURA DE DOBLE COLA (BICOLA)


Una bicola es una cola que admite inserciones y borrados por cualquiera de sus extremos.
Hay dos tipos especiales de bicolas:
– De entrada restringida: permite inserciones sólo por un extremo y borrados por los dos.
– De salida restringida: permite inserciones por cualquier extremo y borrado solo por uno.

18. ESTRUCTURAS DINÁMICAS NO LINEALES

18.1. ESTRUCTURA DE ÁRBOL


Los árboles se encuentran entre las estructuras de datos dinámicas no lineales. Un árbol es un
conjunto finito de nodos enlazados de forma que desde uno de ellos se tiene acceso a varios que a
su vez tienen la misma propiedad.
Estos nodos guardan entre sí una relación jerárquica, tal que siempre existe un nodo raíz a partir
del cual parten los demás, formando conjuntos cada uno de los cuales es a su vez otro árbol. A cada
uno de esos árboles se les llama subárboles del raíz.

Estructura de árbol

18.1.1. Terminología de los árboles


– Raíz: nodo esencial del que parten todos los demás. Es el único que no tiene antecesor. Un
árbol vacío es aquel que no tiene ningún nodo (Raíz = NULL).
– Nodo: cada uno de los elementos del árbol.
– Hoja o nodo terminal: nodo que no tiene ningún otro nodo debajo de él.
– Hijo: cada nodo que tiene debajo de él a otros nodos.
– Padre: todo nodo que tiene asociado un predecesor del que desciende.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 249


SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

– Hermano: relación entre los nodos hijos del mismo padre.


– Nivel: cada nodo de un árbol tiene asociado un número de nivel. El del raíz es el 0, y a partir
de ahí se va aumentando de 1 en 1 a medida que se desciende en el árbol.
– Camino (entre dos nodos A y B): sucesión de enlaces o nodos por los que hay que pasar
para llegar del nodo A al B.
– Rama: camino que termina en una hoja.
– Profundidad: número máximo de nodos de la rama más larga del árbol. Equivale al número
máximo de niveles + 1.
– Peso: número de hojas que tiene un árbol.
– Bosque: colección de 2 o más árboles.

18.1.2. Árboles binarios

Es un árbol con la peculiaridad de que cada nodo sólo puede tener 0, 1, o 2 hijos. A cada subár-
bol se le denomina subárbol izquierdo y subárbol derecho.
Los árboles binarios tienen las siguientes propiedades:
– Dos árboles binarios son similares si tienen los nodos colocados de igual forma uno a uno.
– Dos árboles binarios son equivalentes si tienen la misma estructura y los mismos contenidos.
– Un árbol binario es equilibrado si la altura entre su subárbol izquierdo y derecho se diferen-
cian como máximo en una unidad.
– Un árbol binario es completo si cada nodo tiene 0 o 2 hijos. El número máximo de hijos de
un determinado nivel i será 2 elevado a i.
– Un árbol esta lleno cuando todos los niveles están completos.
La representación de árboles binarios con punteros es relativamente sencilla después de lo estu-
diado sobre listas. Cada nodo del árbol tiene, además de los campos de información, dos punteros,
IZQ y DER (de izquierda y derecha, respectivamente) que apuntan a sus nodos hijos.
Los nodos hojas no tienen hijos, por los sus punteros serán NULL. Existe además un puntero
denominado raíz que apunta al primer nodo del árbol.
El recorrido de un árbol binario se puede realizar de tres formas según la dirección que tome el
recorrido. En cualquiera de las tres modalidades, siempre se recorre primero el subárbol izquierdo y
luego el derecho. Se diferencian en el momento en el que se recorre el nodo padre:
– Preorden: la raíz se procesa primero, luego el subárbol izquierdo y luego el derecho.
– Inorden: primero la raíz, luego el subárbol izquierdo y luego el derecho.
– Postorden: primero el subárbol izquierdo, luego el derecho y luego la raíz.
NOTA: los arboles son estructuras recursivas, por lo que los algoritmos más
eficientes con árboles son los recursivos.
Otras operaciones con árboles son:
– Búsqueda de un elemento: se recorre el árbol con cualquiera de los tres métodos hasta
encontrar el nodo deseado.
– Inserción en un árbol binario: primero se accede al padre, desde el cual se actualizan los
punteros a sus hijos. Esta operación se repite para los nodos que queden por debajo del que
acabamos de insertar.
– Borrado en un árbol binario: si el nodo a borrar sólo tiene un hijo, se sustituye directa-
mente. Si tiene dos hijos, hay que buscar cuál es el sucesor y el padre del sucesor, para a
continuación sustituir el nodo a borrar por su sucesor. Al final hay que poner como hijos del
sucesor (que es el que ha sustituido al nodo borrado) a los hijos del nodo borrado.

250 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

18.1.3. Árboles binarios de búsqueda


Son un tipo especial de árboles binarios que se caracteriza porque los elementos del árbol son
todos distintos y además están colocados de tal manera que el recorrido en Inorden de ese árbol da
lugar a que los elementos se procesen ordenados según un determinado campo de información.

18.1.4. Aplicaciones de los árboles binarios


Una de las aplicaciones más importante es dentro de la inteligencia artificial, y más concreta-
mente en el área de reconocimiento de patrones.
Se trata de utilizar los árboles para realizar clasificaciones. La clave está en asignar a cada nodo
del árbol un significado. Las distintas ramas tienen asociados criterios que ayudan a determinar el
sentido de las búsquedas.
Otras aplicaciones son el análisis de notaciones algebraica y la implementación de algoritmos de
compresión, etc.

18.2. GRAFOS
El grafo es una estructura de datos no lineal con la siguiente característica: un nodo puede apun-
tar a varios y a su vez ser apuntado por otros.

Estructura de grafo

18.2.1. Terminología de los grafos


Un grafo se compone por un conjunto V de vértices y un conjunto A de aristas. Cada arista se iden-
tifica con el par de vértices que une. Los vértices de una arista son entre sí nodos adyacentes.
– Grado de un nodo: número de aristas que contienen a ese nodo. Si el grado de un nodo es
0, se dice que es un nodo aislado.
– Grado de un grafo: número de vértices de ese grafo.
– Camino: un camino C de longitud N de un nodo V1 a un nodo V2, se define como la se-
cuencia de nodos por los que hay que pasar para llegar del nodo V1 a V2. La longitud es el
número de aristas que comprende el camino.
– El camino es cerrado si empieza y termina en el mismo nodo. El camino es simple si todos
los nodos de dicho camino son distintos a excepción de los de los extremos que pueden ser
iguales.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 251


SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

– Bucles: arista cuyos extremos son idénticos.


– Arista múltiple: dos o más aristas que conectan los mismos nodos.

18.2.2. Tipos de grafos


– Grafo conectado o conexo: existe un camino simple entre 2 cualquiera de sus nodos.
– Grafo desconectado: aquel en que existen nodos que no están unidos por ningún camino.
– Grafo dirigido: cada arista tiene asignada una dirección (identificada por un par ordenado).
– Grafo no dirigido: la arista está definida por un par no ordenado.
– Grafo sencillo: aquel que no tiene ni bucles ni aristas múltiples.
– Grafo múltiple o multigrafo: permite la existencia de aristas múltiples o bucles.
– Grafo completo: cada nodo del grafo es adyacente a todos los demás.
– Grafo etiquetado con peso ponderado: cada arista tiene asociado un valor denominado
peso. Se usa para indicar algún criterio de evaluación como la longitud o la importancia de
la arista respecto a un parámetro.
– Peso de un camino: la suma de los pesos de las aristas del camino.

18.2.3. Representación de los grafos


Existen dos formas de representar un grafo:
– Con memoria estática (matriz de adyacencia): matriz de N*N elementos donde N es el
número de nodos del grafo. Cada posición M(I,J) indica si hay una conexión o no entre los
nodos asociados a la posición I y J de la matriz.
– Con memoria dinámica. Se utilizan dos listas enlazadas:
* Lista de nodos: formada por todos los vértices.
* Lista de adyacencias: contiene las aristas del grafo.

18.2.4. Operaciones con grafos


– Búsqueda de un nodo: se trata de localizar un nodo que contiene una determinada infor-
mación. Para ello le pasamos la información al procedimiento de búsqueda y éste devuelve
su posición si lo encuentra o NULL en caso contrario.
– Búsqueda de una arista: se trata de buscar una arista dados sus campos de información,
origen y destino. Devuelve un puntero a la lista de aristas que apunta a esa arista o NULL si
no existe.
– Inserción de un nodo: se recorre el grafo hasta el punto de inserción. A continuación se
actualizan los punteros que salen del nuevo nodo y aquellos que lo apunten a él desde nodos
ya existentes.
– Inserción de una arista: primero hay que comprobar si existen los nodos origen y destino,
luego hay que comprobar que no existe una arista igual en esa dirección. Por último se rea-
liza la inserción.
– Borrado de un nodo: primero se borra el nodo y después todas sus aristas.

18.2.5. Aplicaciones de los grafos


Se pueden representar diagramas de transformaciones de estado. También se aplican en diver-
sos campos de investigación para encontrar el método más corto y más rentable.

252 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

19. FICHEROS (ARCHIVOS)

19.1. INTRODUCCIÓN
Uno de los objetivos más importantes de la informática es el tratamiento automático de grandes
cantidades de información. Esta información tiene variados orígenes y es de muy distinta naturaleza,
abarcando desde datos básicos para el funcionamiento de una empresa (nóminas, contabilidad, ad-
ministración, clientes, proveedores), hasta la información recogida y enviada a la Tierra por las sondas
espaciales, incluyendo muchas otras fuentes.
NOTA: en informática los términos archivo y fichero son equivalentes y se usan
indistintamente.
Tradicionalmente el tratamiento de la información y su almacenaje se ha realizado de forma manual;
dependiendo de la naturaleza de ésta se utilizaban fichas de clientes, libros contables, etc. La aplicación
de los ordenadores como técnica para la gestión de la información supuso una profunda revolución.
Los grandes archivos informáticos y bases de datos simplifican y aceleran de forma espectacular
el tratamiento y almacenamiento de la información. Estas ventajas se derivan de las características
físicas de los soportes físicos magnéticos y ópticos utilizados, y se pueden resumir en:
– Gran capacidad de almacenamiento en un reducido espacio.
– Rapidez en el proceso de los datos.
– Precisión y exactitud de los resultados.
Los archivos informáticos, por tanto, tendrán que soportar gran cantidad de información y ade-
más de distinto tipo. Efectivamente, en un archivo podemos encontrar datos tan variados como los
pedidos mensuales de una empresa, el código escrito por un programador, dibujos creado por un
artista gráfico, etc.
La organización interna de los archivos y las operaciones que hagamos sobre ellos dependerá del
tipo de información que contengan, siendo su estudio el tema del presente capítulo.

19.2. DEFINICIONES
Un fichero es un conjunto de datos relacionados lógicamente y organizados
según ciertos criterios, que se almacenan en memoria secundaria, generalmente
en un disco o cinta magnética.
La relación entre los datos debe seguir un criterio lógico. No tendría sentido, por ejemplo, alma-
cenar información de los pedidos hechos a una empresa de piezas mecánicas en el mismo fichero
donde se guardan los diseños de las piezas. Los contenidos de los ficheros dependen de estos cri-
terios. El diseño de los archivos depende de los especialistas informáticos en unos casos, pero en la
mayoría están regidos por formatos estandarizados muy extendidos y aceptados.
El formato de un fichero define la organización lógica de éste, la estructura de
los datos, posición, longitud, etc.
Como hemos dicho, los ficheros se organizan de muy diversas formas: contienen desde una
simple secuencia de bytes hasta complejas estructuras de datos, formatos de gráficos, etc. Una es-
tructura típica es dividir un fichero en registros.
Un registro lógico es un conjunto de datos relacionados, estructurados de
una forma lógica, a los que se acceden y se tratan de manera unitaria. Desde el
punto de vista de programación simplemente es una estructura de tipo registro.
Para ilustrar la aplicación práctica de este concepto, imaginemos que deseamos guardar infor-
mación sobre nuestros clientes para felicitarles en sus cumpleaños. Necesitaríamos varios datos
sobre ellos, por ejemplo:
– Su nombre (para saber a quién llamamos).
– Su fecha de nacimiento (para saber cuándo llamamos).
– Su teléfono (para saber dónde llamar).

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 253


SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

Campo: unidad elemental de información que representa un atributo de una


entidad. Se define con un nombre, un tamaño y un tipo de datos.
Por tanto, un campo de un registro es cada dato individual que lo compone, el cual tiene signi-
ficado por sí mismo en el contexto del registro del que forma parte. Los registros a su vez se agrupan
en un fichero con la siguiente estructura:



 
         

 
         

 
         





 
         

Estructura de un fichero organizado en registros y éstos a su vez en campos (sombrados con distintas tonalidades)

En muchas ocasiones uno de los campos que forman un registro contiene un valor que nunca
se repite. Si en el ejemplo anterior guardásemos también el DNI de nuestros clientes, tendríamos un
campo cuyo valor no repite nunca, puesto que cada persona tiene un número de DNI único, al menos
en teoría. Este tipo de campos se denominan claves.
NOTA: los campos claves suponen una gran ventaja, ya que con ellos pode-
mos identificar un registro de manera unívoca, es decir, tenemos la certeza de que
no existen dos registros con el mismo valor en el campo clave. Esto permite acelerar
muchas operaciones con el fichero: búsquedas, ordenaciones, etc.
Puede suceder que un archivo no tenga ningún campo clave, pero, sin embargo, que una com-
binación de ellos sirva con el mismo propósito.
Piénsese en una empresa que, entre otros datos, almacena en un fichero de facturas el número y el
año de emisión. Ambos campos pueden repetirse: el año porque con seguridad la empresa emitirá más
de una factura al año, y el número de la factura porque la numeración se reinicia cada año. En este caso
no tenemos un campo clave único, pero la combinación del año y del número de factura puede funcio-
nar como tal. Efectivamente, en un año sólo puede haber una factura con un número determinado.
El caso opuesto también puede ocurrir: un registro que contenga más de un campo clave. En ese
caso se denomina clave primaria a aquella elegida para optimizar las operaciones antes comentadas
de ordenación, búsqueda, etc. Al resto de los campos claves se les llama claves secundarias.
Por otra parte, cada vez que se realiza una operación sobre un fichero, se trasvasa cierta cantidad
de información del ordenador a la memoria secundaria, ya sea ésta un disco, una cinta o cualquier
otro dispositivo. A esta cantidad de información se la denomina bloque o registro físico.
Registro físico o bloque: es la cantidad de datos que se transfieren en una
operación de E/S entre el dispositivo externo y la memoria.
No hay que confundir el concepto de registro físico con el anteriormente expuesto (al que a veces
se denomina registro lógico), ya que ambos se distinguen en aspectos tan importantes como el
tamaño, la estructura y la cantidad de información que contienen.

254 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

Otra diferencia esencial es que el registro lógico lo define el programador o analista, con objeto
de abstraer la información de los detalles físicos de su tratamiento. El registro físico viene predetermi-
nado por el ordenador, por el periférico de almacenamiento o incluso por el sistema operativo.
Los registros físicos contienen generalmente un número determinado de registros lógicos, deno-
minándose factor de bloqueo al número de éstos que comprende. Sin embargo, si el registro lógico
tiene el tamaño suficiente puede ocurrir lo contrario, que necesite más de un registro físico para su
transporte entre la memoria central y la secundaria y, por tanto, más de un acceso al dispositivo pe-
riférico. En este caso se los conoce como registros expandidos. Generalmente encontraremos que
los registros físicos tienen capacidad suficiente para albergar varios registros lógicos.
Por tanto el factor de bloqueo puede ser:
– Menor que 1: el registro lógico ocupa más que el físico, se transfiere menos de un registro
lógico en cada operación de E/S.
– Igual a 1: el tamaño del registro lógico y el físico es el mismo, y se transfiere un registro
lógico en cada operación de E/S.
– Mayor que 1: situación más común. En cada operación de E/S se transfiere más de un re-
gistro lógico.

 



  



 

 

 


 

     

Factor de bloqueo. El registro físico tiene un tamaño de 270 bytes, mientras que los registros lógicos ocupan 100 bytes.
El factor de bloqueo viene dado por la relación entre estas dimensiones: 270/100 = 2,7

   



  

  



  

 

Registros expandidos. Ahora el registro lógico es mayor que el registro físico. Este caso rara vez se da en la práctica

Cuanto mayor sea el factor de bloqueo más registros lógicos se transferirán en una operación
de entrada/salida, ahorrando tiempo. Por otra parte, cada vez que se transfiere información de
E/S, se almacena temporalmente en una zona de memoria especial llamada buffer. Cuanto mayor
sea el tamaño de bloqueo, mayor será el buffer y menos memoria me quedará para el resto de la
información.
Es necesario encontrar un equilibrio entre estos dos factores contrapuestos para determinar el
tamaño idóneo.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 255


SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

19.3. CARACTERÍSTICAS DE LOS FICHEROS


En el mundo de la informática, y de la programación de ordenadores en especial, existen estruc-
turas complejas para procesar, representar y guardar la información. Entre ellas los archivos poseen
ciertas características propias que los diferencian de las demás:
– Localización en memoria secundaria: se almacenan físicamente en algún dispositivo que
forma parte del conjunto de periféricos del ordenador. Frecuentemente el lugar de residencia
de los archivos es algún soporte magnético como un disco o una cinta, aunque en la actua-
lidad se están implantando nuevos medios como el CD-ROM o el DVD.
– Gran capacidad: una de las ventajas que aportan los nuevos medios es permitir gestionar
ficheros de tamaños enormes. Por el contrario, y salvo contadas excepciones, los ordenado-
res disponen de más memoria secundaria que principal en dos o tres órdenes de magnitud.
Esto hace que se planteen problemas a la hora de trasvasar ficheros grandes a la memoria
central del ordenador.
– Permanencia: la información guardada en la memoria principal se borra cuando el ordena-
dor se desconecta. Decimos por ello que esta memoria es un dispositivo volátil. Sin embar-
go, la información de un archivo almacenado en memoria secundaria permanece aunque
el ordenador esté apagado. Para eliminar esta información hay que realizar explícitamente
una operación de borrado. Por desgracia ciertos factores ajenos pueden ocasionar también
pérdidas de esta información, por ejemplo los virus informáticos o fallos del sistema.
– Independencia respecto a los programas: en el sentido de que generalmente el tiempo
de vida de un fichero no está condicionado por el programa que lo creó. Sin embargo existen
situaciones en las que esto no se cumple, tal es el caso de los ficheros temporales (que
estudiaremos más adelante en este mismo capítulo), cuyo tiempo de vida queda limitado por
el programa que lo crea. Esta característica adquiere otro matiz si consideramos que pueden
existir un número indeterminado de programas que accedan al mismo fichero.

19.4. CLASIFICACIÓN DE LOS FICHEROS


Según la función de los archivos, podemos clasificarlos de la siguiente manera:

19.4.1. Archivos permanentes


Contienen información que no varía con el transcurso del tiempo o lo hace en poca medida. Los
archivos permanentes pueden a su vez dividirse en:
– Archivos de consulta: el contenido de estos archivos permanece constante a excepción de
esporádicas operaciones de puesta al día. Como su propio nombre indica se utilizan como
fuente de información variada, desde una lista de municipios de una provincia, hasta la
información gráfica del plano de una ciudad.
– Archivos maestros: su contenido refleja la situación específica de una empresa u organis-
mo en un momento dado, por ejemplo, una relación de sus trabajadores. El archivo maestro
(también denominado de situación) es actualizado periódicamente pero con una frecuencia
relativamente baja. Las diferencias entre los archivos maestros y los de consulta son escasas,
siendo quizá la más importante el uso que se hace de ellos, más reiterado en el último caso.
– Archivos históricos: los archivos históricos son archivos maestros que quedan desfasados.
Aun así no se desechan, se guardan para usos de consultas estadísticas e históricas (de ahí
su nombre). Por ejemplo, sería interesante almacenar las ventas mensuales de una empresa
para generar un balance a final de año. Tendríamos entonces un archivo histórico sobre las
ventas de los meses pasados, que se actualiza añadiéndole las ventas del mes en curso.

19.4.2. Archivos de movimientos


Si continuamos con el ejemplo anterior, tenemos un claro ejemplo de un archivo de movimientos
en aquel que se utiliza para almacenar las ventas del mes actual y que posteriormente se fusionará

256 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

con el histórico anual. Deducimos, por tanto, que un archivo de movimiento sirve para actualizar un
archivo maestro, cosa que es cierta en la mayoría de los casos, ya que podemos encontrar archivos
de movimiento que pasan ellos mismos a históricos sin ser adjuntados a ningún otro.
Los registros de un archivo de movimiento suelen ser altas, bajas y modificacio-
nes, y se denominan registros de movimiento o transacciones.

19.4.3. Archivos de trabajo o temporales


El tiempo de vida de estos archivos es muy limitado, coincidiendo generalmente con la ejecución
de un programa o de un proceso. Se utilizan como soportes de apoyo temporal para realizar ordena-
ciones, compactaciones, etc.

19.5. TIPOS DE SOPORTE


Los soportes de almacenamiento secundario donde se almacenan los ficheros pueden ser de dos
tipos, en función del modo de acceso a la información que contienen:
– Acceso secuencial: cuando se abre un fichero, se accede inicialmente al primer registro del
archivo para recorrer los demás consecutivamente hasta alcanzar el deseado. Es decir, que
para alcanzar un registro se deben recorrer previamente todos los anteriores.
La cinta magnética es el ejemplo clásico de un dispositivo de acceso secuencial obligatorio.
Por otra parte, esta técnica se puede utilizar con cualquier soporte que no sea exclusivamen-
te de acceso secuencia (como los discos).
– Acceso directo: consiste en acceder a cualquier registro sin necesidad de haber pasado
antes por los anteriores. Solamente se puede realizar en los denominados soportes direc-
cionables, como los discos magnéticos. En una cinta magnética, por su propia concepción
física, resultaría imposible realizar una operación de este tipo.
Para que un dispositivo de almacenamiento pueda realizar un acceso directo necesita cono-
cer la posición del registro que se desea. Esta posición se puede calcular según diversos mé-
todos y depende fundamentalmente de la organización del archivo y de sus campos claves.

19.6. ORGANIZACIÓN DE FICHEROS


Los ficheros cuyo contenido está organizado en registros y campos tienen características espe-
ciales en cuanto a su organización y gestión. Ejemplos de tales cuestiones son: ¿cómo se localiza un
registro en una operación de búsqueda? Cuando se consulta el último registro dado de alta, ¿hay que
pasar por todos los que anteriormente existían hasta llegar a él? Esta y otras preguntas obtienen su
respuesta en el diseño y organización de los ficheros, así como en sus métodos de acceso.
Sea un soporte de información que contiene un archivo. Se denomina modo
de acceso al método realizado sobre dicho soporte con objeto de localizar un
registro del fichero.
Por ejemplo, piense en el disco duro de un ordenador PC. El fichero se sitúa en la superficie de
una de las caras magnetizables en su interior. Para localizar un registro dentro de dicho fichero la
correspondiente cabeza lectora/escritora debe moverse hasta localizarlo y poder así operar sobre él.
El método seguido es diferente si en cambio utilizamos una cinta magnética.
El modo de acceso lo decide el programador en función del soporte utilizado y del tipo de orga-
nización que ha diseñado para el archivo. Estos factores están condicionados por el uso y las opera-
ciones que se van a realizar sobre el fichero. En los apartados siguientes exponemos las diferentes
organizaciones existentes.

19.6.1. Organización secuencial


Los registros ocupan posiciones consecutivas de memoria y sólo se puede
acceder a ellos de uno en uno a partir del primero.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 257


SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

En un archivo secuencial no se pueden hacer operaciones de escritura cuando se está leyendo,


ni operaciones de lectura cuando se está escribiendo. La actualización de un fichero secuencial pre-
cisa crear un nuevo archivo donde se copien los registros que vayan a permanecer, modificados o no,
junto con los nuevos.

 

  

Esquema lógico de un archivo secuencial. Los registros se graban uno a continuación de otro consecutivamente,
sin dejar huecos y según el orden en que son guardados. La marca EOF (End Of File) determina el fin de fichero.
El cilindro representa el dispositivo de almacenamiento que guarda el fichero

Las operaciones básicas que se realizan sobre los ficheros secuenciales son:
– Definir la estructura del fichero.
– Apertura y cierre del fichero.
– Tratamiento de los registros.

19.6.2. Organización directa


En un archivo con esta organización se accede a los registros aleatoriamente mediante su posi-
ción, es decir, indicando el lugar relativo que ocupan dentro del conjunto de posiciones posibles. En
esta organización se pueden leer y escribir registros, en cualquier orden y en cualquier lugar.
NOTA: la organización directa también se denomina aleatoria o relativa.
Presenta el inconveniente de que el programador debe establecer la relación entre la posición
que ocupa un registro y su contenido; además, se desaprovecha parte del espacio destinado al archi-
vo, ya que pueden quedar huecos libres entre registros.
Su principal ventaja es la rapidez de acceso a un registro cualquiera, ya que no es preciso recorrer
los anteriores.













Esquema de un archivo directo o relativo. El acceso a un registro determinado no implica el


paso obligado por los que le preceden

258 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

Para conseguir direccionar cada registro directamente, se necesitan dos requisitos:


1. Que cada registro tenga asociada una clave única que lo identifique.
2. Una función especial llamada función de direccionamiento capaz de convertir la clave en
una dirección física real en el dispositivo.
En la práctica existe un paso intermedio entre la clave y la dirección física; se denomina direc-
ción relativa a registro. Imaginemos un fichero con N registros, cada uno con su clave única. Ade-
más de la clave podemos identificar cada registro por su número de orden, que va desde el 1 hasta
N. Este número de orden o posición del registro es la dirección relativa que tiene que ser convertida
posteriormente a una dirección física en el soporte de información.
NOTA: la dirección en el soporte tiene varias partes: volumen, cilindro, pista...,
que son las propiedades físicas del dispositivo de almacenamiento (generalmente
un disco).
Un problema interesante estriba en cómo convertir la clave de un registro en una dirección rela-
tiva. La conversión de la clave tiene que estar comprendida en el intervalo (1, N), que representa el
número de registros existente. Es decir, que la función convierte la clave en un número de 1 hasta N
(o desde 0 hasta N-1, si comenzamos a contar desde cero, práctica muy habitual en informática).
Puede ocurrir que a diferentes claves les corresponda la misma dirección relativa y por tanto la
misma dirección física para almacenarse. A estos registros se les denomina sinónimos, y cuando esto
ocurre se almacenan los registros que originan la misma posición en un lugar especial reservado para
guardar los sinónimos. El área reservada se puede colocar en varios sitios dentro de un dispositivo.
En cualquier caso, la función que convierte una clave en una dirección relativa a registro debe
diseñarse de forma que produzca el menor número de sinónimos posibles.

19.6.3. Organización secuencial indexada


En los archivos indexados, la dirección relativa la calcula automáticamente el sistema a partir
del campo de clave. Para ello utiliza un conjunto auxiliar de índices que relacionan las claves con las
posiciones de los registros.
Un archivo con esta organización consta de tres áreas:
– Área primaria: contiene los registros de datos, clasificados en orden ascendente por su
campo clave.
– Área de índices: es un archivo secuencial creado por el sistema, en el que cada registro
establece una división (segmento) en el área primaria, y contiene la dirección de comienzo
del segmento y la clave más alta del mismo. De esta manera, el sistema accede de forma
directa a un segmento del área primaria a partir del área de índices, de forma similar a la
búsqueda de un capítulo de un libro a partir de su índice.
– Área de excedentes (overflow): espacio reservado para añadir nuevos registros que no
pueden ser colocados en el área primaria cuando se produce una actualización del archivo.
Esta organización presenta la ventaja de un rápido acceso por medio de la clave del registro, y
además el sistema se encarga de relacionar la posición de cada registro con su contenido por medio
del área de índices. También es trabajo del sistema la gestión de las áreas de índices y excedentes.
Los inconvenientes que presenta son la necesidad de espacio adicional para el área de índices
y el desaprovechamiento de espacio que resulta de quedar huecos intermedios libres después de
sucesivas actualizaciones.

20. OPERACIONES CON FICHEROS


Las operaciones sobre los archivos dependen en gran medida de la información que contenga.
Aun así existe un conjunto de operaciones generalizadas dadas en casi todos los sistemas informáti-
cos. Estas operaciones pueden hacerse desde un programa de usuario aunque de forma indirecta, ya
que éste solicita al sistema operativo los servicios de tratamiento de ficheros.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 259


SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

Las operaciones sobre ficheros son las siguientes:


– Creación: este proceso crea el fichero en el soporte físico. La creación del fichero no tiene
por qué implicar la escritura de datos en un primer momento, limitándose el proceso de
creación a modificar ciertos datos que indicarán al sistema operativo la existencia del nuevo
fichero (asignación de un nombre, especificación del método de acceso, etc.). De hecho
muchos lenguajes de programación fuerzan la creación un fichero antes de poder escribir en
él, diferenciando ambas operaciones. En otras ocasiones, sin embargo, la simple escritura
de un dato en un fichero que no existe significa su creación automática.
NOTA: antes de la creación del fichero se define la estructura de su registro y
una variable que va a referenciar el fichero.
– Apertura: el proceso de apertura del fichero lo habilita para realizar operaciones sobre él. En
todo momento existirá un puntero que indica la posición del fichero activa. Al abrir un fichero
el puntero apunta al comienzo de éste, salvo que se utilice el modo de apertura Append (lo
veremos a continuación), en cuyo caso apunta al final del fichero. A medida que se realizan
operaciones en el fichero, el puntero se va actualizando señalando el registro activo.
En algunos lenguajes existe una operación RESET que posiciona el puntero al principio del
fichero independientemente de donde se encuentre en un momento dado.
Los modos de apertura dependen del lenguaje de programación y del modo de organización.
Se distinguen varios de ellos:
* Modo de entrada: el fichero se utiliza exclusivamente para leer información. No se
permiten operaciones de modificación o eliminación.
* Modo de escritura: el fichero se utiliza exclusivamente para añadir información. No se
permiten operaciones de lectura o eliminación.
* Modo de entrada/salida: el fichero permite operaciones de consulta y actualización de
su información.
* Modo APPEND: append significa añadir. Este modo se utiliza para añadir información al
final de un fichero.
– Cierre: anula la conexión entre la variable del programa que maneja el fichero y el fichero
real que está en el dispositivo. Para cambiar el modo de trabajo con un fichero es necesario
cerrarlo y volverlo a abrir con un nuevo método de apertura.
– Copia: una operación de copia consiste en duplicar un fichero, obteniendo una copia exacta
del mismo. Es una operación muy frecuente e implica renombrar el nuevo fichero, con objeto
de que el sistema operativo pueda distinguirlos en caso de que ambos residan en el mismo
lugar. Si el fichero se copia a otro soporte, o en otro lugar dentro de éste, no es necesario
el cambio de nombre. Aunque en principio parezca que la copia de un fichero es una única
operación, en realidad está compuesta de una sucesión de operaciones más básicas, por
ejemplo, la creación del nuevo fichero, lectura del original, escritura en el nuevo y otras que
veremos a continuación. Un caso especial de copia es cuando se realiza sobre la impresora
(que algunos sistemas operativos tratan como otro soporte de información).
– Actualización: las operaciones de actualización son las más comunes en la mayoría de los
archivos que forman parte de bases de datos, donde las actualizaciones se realizan sobre
determinados registros. En otros archivos, como por ejemplo los que contienen imágenes,
no tiene el mismo sentido ya que una actualización implica un nuevo fichero. Las operacio-
nes de actualización consisten en la inclusión de un registro nuevo, en la eliminación de otro
que ya no sea necesario o en la modificación de los campos de un registro existente. Estas
operaciones son más conocidas como altas, bajas y modificaciones, y son imprescindibles
para mantener un archivo actualizado.
NOTA: la eliminación de un registro del fichero se puede realizar de dos formas:
* Física: eliminación física del registro del soporte.
* Lógica: el registro se señala con una marca especial de borrado pero no se elimina física-
mente.

260 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

– Consulta: al igual que las anteriores se utiliza sobre todo en archivos cuyos contenidos son
registros, obteniéndose el contenido de uno o de un conjunto de ellos que cumplan deter-
minadas condiciones. Las operaciones de consulta están precedidas de otras de búsquedas
condicionales, por ejemplo en un fichero con datos personales podríamos realizar la siguien-
te consulta: “Seleccionar los registros de individuos que sean mayores de 60 años”.
– Ordenación: se trata de reubicar los registros que componen un fichero según un criterio
determinado, el cual suele ser un campo al que se denomina clave de ordenación. Pueden
existir varias claves de ordenación. Un archivo ordenado de este modo acelera las consultas
si éstas se realizan por la clave de ordenación. Los métodos de ordenación se estudian en
apartados posteriores.
– Concatenación: la concatenación consiste en obtener un fichero de dos, agregando los
registros del segundo a continuación del primero. Ambos ficheros deben tener la misma
estructura para poder realizar esta operación, que por otra parte puede ampliarse para más
de dos archivos. La concatenación de ficheros puede considerarse como una sucesión de
operaciones de actualización si pensamos que estamos dando de alta registros al fichero
resultado. Si la concatenación se realiza de tal forma que el fichero resultado mantenga
el orden original de los ficheros a unir, entonces hablamos de una operación de fusión o
mezcla ordenada.
– Partición: podemos considerarla como la operación opuesta a la anterior, puesto que origina
dos ficheros (con la misma estructura) a partir de uno. La partición se realiza sobre la base
de algún criterio definido; por ejemplo podríamos partir nuestro fichero en uno que contenga
los clientes nacidos antes y después de una determinada fecha. De forma análoga al caso
anterior, la partición puede dar origen a múltiples ficheros.
– Compactación: cuando se elimina un registro de un fichero, en realidad se marca el regis-
tro de forma que no se considere válido en operaciones sucesivas, es decir, no se elimina
físicamente del fichero. A los registros que se encuentran en este estado se les denomina
huecos. Una operación de compactación elimina los huecos rellenándolos por ejemplo con
los últimos registros del fichero, aprovechando así mejor la memoria ocupada.









 

  
  
  !   
  
   
"       
   



    
 













  !   
  
   


   

Proceso de compactación de un fichero con un hueco. El hueco es aprovechado


para reubicar el último registro y así liberar memoria

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 261


SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

– Borrado: cuando un archivo ha dejado de utilizarse es conveniente borrarlo, liberando así


espacio que puede aprovecharse para albergar otros ficheros. El borrado del archivo consiste
en marcarlo de forma que el sistema operativo considere su espacio liberado, pero hay que
tener en cuenta que en muchos casos los datos siguen allí hasta que son sobreescritos por
otro fichero, hecho que desde el punto de vista de la seguridad puede no ser conveniente.
– Compresión: algunos ficheros pueden llegar a ser enormes, sin embargo su tamaño puede
ser reducido en mayor o menor porcentaje (dependiendo de su estructura interna o formato)
mediante ciertos métodos de compresión. Esta operación resulta muy útil en situaciones fre-
cuentes: por ejemplo, al enviar el fichero por correo electrónico el tiempo de conexión, y por
tanto el costo, se reduce en la misma proporción que el fichero. Cuando un fichero no se va a
utilizar durante un período prolongado, puede ser conveniente comprimirlo para liberar espacio.
Comprimir un fichero también puede ser útil cuando deseamos transportarlo en un disquete.
– Descompresión: es la operación inversa a la anterior. Un programa de descompresión de-
vuelve los ficheros comprimidos a su formato original.
  
  
     
  
  

              

21. ORDENACIÓN Y BÚSQUEDA


Las operaciones de ordenación sobre ficheros son muy importantes. Se han diseñado múltiples
métodos para realizar esta tarea, que consiste básicamente en una redistribución de los registros que
se ajuste al criterio de ordenación. Nótese que hemos hablado de registros, ya que son los archivos
con esta estructura los que se prestan con mayor frecuencia a operaciones de ordenación.
Los archivos por tanto se ordenarán respecto al valor de un campo, denominado clave de or-
denación. Según el criterio adoptado la ordenación será ascendente o descendente según se incre-
mente o decremente el valor de la clave de ordenación.
Los métodos internos se realizan en la memoria central del ordenador, los externos utilizan la me-
moria secundaria como soporte de apoyo. Como se recordará, el acceso a la memoria central es más
rápido que a cualquier periférico, por lo que una ordenación interna siempre será más conveniente. La
razón por la cual existen los métodos de ordenación externos es que no siempre la memoria central
tiene capacidad suficiente para albergar los ficheros grandes. Existen métodos mixtos que intentan
aprovechar al máximo las prestaciones de la memoria central, recurriendo a la memoria secundaria
en caso necesario.
Para determinar la calidad de un algoritmo de ordenación se estudia el concepto de compleji-
dad del algoritmo (cantidad de trabajo de ese algoritmo). La complejidad se determina midiendo el
número de operaciones básicas que realiza el algoritmo. La operación básica de un algoritmo es la
comparación.
En estos apartados estudiamos los métodos de ordenación, clasificándolos en internos y externos:
– Interna: se procesa en memoria con arrays. Es muy rápida.
– Externa: se realiza en dispositivos de almacenamiento externo con ficheros. Es más lenta
pero admite mayor cantidad de datos.

21.1. MÉTODOS DE ORDENACIÓN INTERNA


21.1.1. Método de la burbuja
La filosofía de este método es realizar pasadas por el array comparando elementos del array por
parejas; si no están colocados correctamente intercambia sus posiciones. Este método se aplica a
todos los elementos hasta conseguir la ordenación completa.

262 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

Cada pasada realizada sobre la secuencia de elementos consigue ordenar un elemento del
array, colocándolo en último lugar. El número necesario de pasadas es N–1 (siendo N el número de
elementos existente).

21.1.2. Método de inserción


Se supone un segmento inicial del array ordenado. Se basa en aumentar la longitud de este seg-
mento hasta alcanzar la longitud total del array. Para ello se recorre la parte no ordenada insertando
los elemento en su lugar correspondiente dentro del segmento ordenado.

21.1.3. Método de selección


El principio de este método es buscar el elemento más pequeño y colocarlo en la primera posi-
ción, después el segundo en orden y llevarlo a la segunda posición, repitiendo el proceso hasta que
el array esté ordenado.

21.1.4. Método de ordenación rápida o QuickShort


Consiste en dividir la lista inicial en otras dos que se ordenan por separado recursivamente. Para
ello, se elige un elemento de la lista denominado pivote, tal que a la derecha del pivote quedan los
elementos mayores, y a la izquierda los menores.

21.2. BÚSQUEDAS
La definición de búsqueda es muy intuitiva: dado un determinado valor, se trata de analizar si
existe un elemento en el array o un campo en el fichero que coincida con dicho valor.
Existen dos tipos de búsquedas: las internas (se procesan en memoria) y las externas (se realizan con
ficheros). Los procesos de búsqueda sobre un fichero normalmente se ejecutan a través de una clave.
Existen tres métodos de búsqueda:
– Secuencial: aplicable a búsquedas internas y externas. Consiste en un barrido secuencial por
todos los elementos de la estructura hasta encontrar el elemento o acabar la lista o fichero.
Existe una variante denominada Búsqueda secuencial con centinela que añade al final
del array el elemento buscado de forma previa. Esto garantiza que la búsqueda siempre ten-
drá éxito. Una vez realizada la búsqueda, si se ha encontrado el elemento en una posición
distinta al final, significa que está en la estructura. La ventaja de esta variante radica en que
ahorra el chequeo sobre el fin de la estructura durante la búsqueda.
– Binaria o dicotónica: este método requiere que la lista de elementos (array o fichero) esté
previamente ordenada por el campo de búsqueda. Se basa en dividir el espacio de búsqueda
en sucesivas mitades hasta encontrar el elemento buscado o hasta que ya no pueda hacer
más mitades.
Primero se calcula el índice de la mitad del array y se analiza si el elemento coincide con él,
en caso contrario se analiza dónde debería estar el elemento buscado, en la sublista derecha
o izquierda. Dentro de esta nueva mitad se repite el proceso.
– Por transformación de claves o Hashing: se requiere que la búsqueda se realice por un
campo clave, el cual debe convertirse en una dirección real del dispositivo de almacena-
miento o en una posición dentro de un array.

21.3. ORDENACIÓN, BÚSQUEDA Y FUSIÓN EXTERNA


21.3.1. Fusión o mezcla de archivos ordenados
Un archivo se puede ordenar por un campo o por un conjunto de ellos. Sean dos archivos A y
B con la misma estructura y clasificados por el mismo campo o campos, se trata de obtener otro
archivo C que tenga la misma estructura de los anteriores y que también queda clasificado por el
mismo criterio.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 263


SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

21.3.2. Fusión de archivos


Consiste en dividir un archivo en varios; para ello existen diferentes criterios de partición:
– Partición por contenido: los registros se reparten entre varios ficheros según el valor de
uno o más campos.
– Partición por número fijo de registros o por secuencias con clasificación interna: se
trata de obtener a partir de un fichero otros varios, tal que todos tengan un número igual de
registros. Si el número total de registros no es divisible entre el número de ficheros, el último
de ellos contendrá el resto de registros.
Si el fichero inicial tiene X registros a repartir entre Y ficheros, cada fichero tendrá X/Y regis-
tros. Se leen secuencias de X/Y registros del fichero F y se vuelcan a un array que se clasifica
internamente, posteriormente se vuelca al fichero correspondiente.
– Partición por secuencias sin clasificación interna: se obtienen varios ficheros a partir de
uno original, todos con el mismo tamaño, pero no tienen por qué estar clasificados.

21.3.3. Clasificación de archivos


Para realizar estos procesos es obligatorio la existencia de un campo clave. Si el fichero fuese
pequeño, se podrían cargar todos los registros en un array y realizar una clasificación interna. Sin
embargo, lo más usual es realizar una clasificación externa. Existen varias técnicas:
– Clasificación por mezcla directa: consiste en realizar sucesivas particiones y mezclas,
operaciones que producen sucesivas secuencias ordenadas de longitud creciente. La prime-
ra partición se hace tomando una longitud de uno, produciendo secuencias ordenadas de
dos elementos. La segunda partición se hace de dos en dos elementos (registros) y produce
secuencias ordenadas de cuatro de ellos. El proceso continúa produciendo secuencias orde-
nadas del doble de longitud de aquellas obtenidas en el paso anterior. El proceso se detiene
cuando la longitud de la secuencia ordenada supera la del fichero.
– Clasificación por mezclas de secuencias equivalentes: variante del método anterior,
pero ahora usamos 4 ficheros auxiliares (frente a los dos del procedimiento anterior) y las
secuencias leídas son de N registros en lugar de uno.
– Clasificación por mezcla equilibrada: este método está basado en el anterior, con la mejora
de tomar las secuencias ordenadas lo más largas posibles para realizar las particiones, reali-
zándose la mezcla sobre dos archivos, que originan la siguiente partición automáticamente.
Además del archivo original se utilizan otros tres auxiliares, actuando en el proceso simultáneo
de mezcla y partición, alternativamente, dos de ellos como de entrada y los demás de salida. Durante
este proceso se pueden tener dos secuencias ascendentes consecutivas, que formarán una única
para el siguiente paso.
Cuando el segundo archivo quede vacío después de una mezcla y partición, tendremos la segu-
ridad de tener el archivo ordenado en el primero de ellos.

22. SISTEMAS GESTORES DE BASES DE DATOS (SGBD)

22.1. INTRODUCCIÓN
A medida que las tecnologías informáticas se introdujeron en empresas y organizaciones, los siste-
mas de información se complicaron, incluyendo cada vez más prestaciones y servicios pero surgiendo
también más problemas. Pronto se demostró que la gestión de grandes cantidades de información por
medio de archivos resultaba insuficiente. Entre otros podemos citar los siguientes inconvenientes:
– Dispersión de los datos por distintos departamentos o divisiones de la empresa, con los
consiguientes problemas de búsqueda y localización.
– La posible duplicación de la información puede generar situaciones de inconsistencia, al
actualizarse esta información en un sitio y no en los demás.

264 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

– Los datos así distribuidos también generan problemas de control, seguridad y acceso.
– La nuevas aplicaciones deberán considerar los diferentes formatos y estructuras de los da-
tos. Los cambios y actualizaciones del hardware también pueden presentar complicaciones
de compatibilidad y transportabilidad.
Los sistemas de gestión de bases de datos se idearon para solucionar estos y otros problemas.
Intentan conseguir la integración de ficheros de datos, de sus estructuras y de las aplicaciones que
las manejan, así como de muchos aspectos adicionales de seguridad y control, salvaguardia, accesos
simultáneos, etc.
Las principales características de una base de datos son:
– Control centralizado de los datos.
– Integridad de los datos.
– Minimización de las redundancias.
– Independencia de los datos y las aplicaciones.
– Acceso concurrente a los datos.
– Coste mínimo de almacenamiento y mantenimiento.
– Versatilidad para la representación de relaciones.
– Establecimiento de medidas de seguridad.
– Facilidad para el cambio (hardware y software).

22.2. DEFINICIONES Y CARACTERÍSTICAS


Un Sistema de Gestión de Base de Datos (SGBD o DBMS: DataBase Ma-
nagement System) es un software que le permite introducir, organizar y recuperar
la información de las bases de datos, en definitiva, administrarlas.
Una Base de Datos (BD o DB: DataBase) es una colección de información
relacionada en tablas o archivos que tienen algo en común, por ejemplo una guía
de teléfonos o la plantilla de una empresa.
Una tabla está formada por una agrupación lógica de registros. Las tablas se
cargan en memoria desde los soportes de almacenamiento para posteriormente ser
procesadas. Las tablas se utilizan además para definir la estructura de las bases
de datos y sus relaciones internas. Las tablas tienen registros por filas y campos
por columnas.
De los modelos de bases de datos existentes, el que más éxito ha alcanzado, y especialmente
en las aplicaciones de los microordenadores, es el modelo relacional.
Un Sistema de Gestión de Bases de Datos Relacionales (SGBDR o RDBMS:
Relational Data Base Management System) es un software de gestión de bases de
datos que almacena los datos en forma de tablas. En un apartado posterior estu-
diaremos otras alternativas.
Las características más comunes que proporcionan los gestores de bases de datos son las si-
guientes:
– Recuperación y visualización de los registros, permitiendo la modificación de los mismos al
momento.
– Facilidad de actualización (añadir, borrar y modificar registros).
– Posibilidad de mantener los datos ordenados por varios campos distintos mediante indexa-
ción, lo que acorta el tiempo de acceso a los registros y permite recuperarlos con distintas
ordenaciones.
– Creación de pantallas de presentación personalizadas.
– Facilidad de obtención de informes y documentos con diversos formatos.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 265


SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

– Importación y exportación de datos con otras aplicaciones.


– Compartición de los datos por distintos usuarios mediante una red.
– Utilización de funciones estándar para las operaciones más habituales.
– Disposición de un lenguaje de programación específico para el diseño de aplicaciones de
usuario.
En el desarrollo de una aplicación de base de datos podemos diferenciar las siguientes etapas:
1. Creación del soporte físico de la información: ficheros de datos, relaciones entre ellos e
índices.
2. Definición de la Entrada/Salida: pantallas de entrada de datos y consultas.
3. Salida impresa: informes, listados, etiquetas, formularios, etc.
4. Interface de usuario: menús, pantallas de ayuda y definición de la lógica del programa.

22.3. EVOLUCIÓN
Los programas como dBase IV, ACCESS, RBASE SYSTEM V, ORACLE o PARADOX constituyen
auténticos estándares en el mercado de SGBD.
dBase IV es el sucesor de dBase III Plus y su diferencia más notable está en el bloqueo auto-
mático de registros y ficheros cuando varios usuarios pretenden acceder de forma simultánea a la
misma información.
Este programa realiza un proceso de transacción con recuperación para evitar posibles pérdidas
de información debidas a un fallo del sistema, así como la actualización automática de pantallas uti-
lizadas al mismo tiempo por distintas personas, cada vez que una de ellas realiza un cambio.
Posteriormente Microsoft lanzó al mercado su gestor de base de datos ACCESS que se ejecuta
bajo Windows y está alcanzando altas cotas de mercado.
En la actualidad se han incorporado a los sistemas personales las potentes bases de datos Ora-
cle e Informix diseñadas inicialmente para sistemas más grandes.

22.4. MODELOS DE BASES DE DATOS


La arquitectura interna de un SGBD requiere ciertas estructuras que representen las relaciones
entre distintas unidades de datos. Estas relaciones y estructuras definen el modelo de la base de
datos. Actualmente son tres las alternativas que han demostrado ser eficaces.

22.4.1. Modelo relacional


Modelo más extendido y con mayor aceptación. Está basado en el Álgebra relacional, que
representa las relaciones entre las unidades de datos (o entidades) mediante tablas de dos dimensio-
nes. La tabla está formada por múltiples filas (o tuplas) que corresponden a los registros y cuyo número
resulta variable. Las columnas de una tabla corresponden a los campos que forman los registros, y su
número queda definido por el programador o administrador del sistema cuando diseñó la tabla.

22.4.2. Modelo jerárquico


Utiliza una estructura de árbol para establecer relaciones de uno a muchos, representado (1:n).
Una base de datos que siga este modelo consiste en uno o varios árboles que mantienen las rela-
ciones y agrupaciones entre los datos. Cada árbol posee un nodo raíz a partir del cual se desarrolla
el resto.
Estas bases de datos tienen algunas limitaciones que no las hacen adecuadas para algunos
casos, habiendo cedido terreno ante aquéllas basadas en el modelo relacional.

266 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

22.4.3. Modelo en red


Las relaciones se representan mediante una red o grafo, que permite enlaces n:n (de muchos a
muchos) en los nodos relacionales. El uso de apuntadores o punteros (información que enlaza entre
elementos) permite relacionar con mucha flexibilidad las unidades de información.
Al igual que el caso anterior, existen pocos productos comerciales que sigan este modelo, pero en
este caso la razón estriba en que resulta muy complicado la programación de los sistemas gestores
de bases de datos, coste que no hace rentable este modelo frente al relacional, aunque en teoría es
más potente.

22.5. SEGURIDAD EN LAS BASES DE DATOS


Las medidas de control y seguridad son muy importantes en el manejo diario de bases de datos,
ya que una pérdida o filtración de información puede tener graves consecuencias económicas, admi-
nistrativas, etc. Existen algunos entornos especialmente sensibles donde la privacidad y confidencia
de los datos almacenados son requisitos imprescindibles. Por tanto para garantizar una operatividad
fiable y segura los riesgos deben ser minimizados o, idealmente, anulados. Distinguimos por tanto dos
aspectos diferentes sobre el control de los datos:
– Seguridad contra usos incorrectos o no autorizados.
– Seguridad contra fallos del sistema o soporte.

22.5.1. Seguridad contra usos incorrectos o no autorizados


Una de las principales ventajas de los SGBD es la posibilidad de acceso simultáneo a los datos
por parte de múltiples usuarios y programas. Esta ventaja se paga con medidas que deben anular las
posibilidades de causar daño en los datos o usos ilegales. Con este objetivo se diseñan las siguientes
medidas de seguridad:
– El sistema operativo o SGBD controla un atributo de los archivos que especifica las posibles
operaciones realizables sobre éstos (lectura, escrituras, borrados, etc.). En ocasiones más
extremas, los archivos pueden ser ciptografiados, es decir, transformados según un método
de cifrado para que la información no sea accesible fuera del sistema. El sistema incluye los
correspondientes algoritmos de desciframiento.
– La creación y asignación de niveles de acceso y palabras de paso (passwords) a los usuarios,
restringe los accesos y garantizan que ciertos privilegios se utilicen por las personas adecua-
das. La correcta gestión de las palabras de paso deben cumplir ciertos requisitos: no deben
resultar obvias (la fecha de un cumpleaños o el nombre de un hijo), renovarse con cierta
frecuencia para que no quepa la posibilidad de que se descubra, etc.

22.5.2. Seguridad contra fallos del sistema


Un fallo en el sistema informático que contiene la base de datos puede terminar con la destruc-
ción de ésta, corrompiendo los ficheros o haciéndolos inservibles. Estos fallos pueden ser de distinta
naturaleza: un defecto en un disco duro o en una unidad de cinta, una caída de tensión o un corte
en la alimentación.
Es preciso proteger no sólo los datos y las operaciones que se realizan con ellos, sino los dispo-
sitivos hardware que se utilizan. Para ello se ponen en práctica las siguientes técnicas:
– Realización de copias de seguridad (backups o salvaguardias), cuya política dependerá de
la naturaleza de los datos, su importancia, su ritmo de actualización, etc. Hay que definir una
frecuencia adecuada, semanal o incluso diariamente, guardando además las copias en lugar
seguro.
– Registro de operaciones realizadas con los datos, altas, bajas, modificaciones, etc., inclu-
yendo la persona que las lleva a cabo. El registro debe ser supervisado por el responsable
del sistema y analizándolo periódicamente.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 267


SISTEMAS DE NUMERACIÓN Y SU REPRESENTACIÓN

En los grandes centros de proceso de datos son fundamentales también los procedimientos de
recuperación capaces de reconstruir la información en su estado anterior a producirse un fallo de
funcionamiento en el sistema o en el software.
De esta forma, cuando se produzca un fallo o avería, una vez subsanada y realizado el procedi-
miento de recuperación, se tendrá la información según estaba cuando se efectuó el último registro
de operaciones. Sólo será preciso repetir las operaciones que se hicieron sobre el archivo o base de
datos desde ese momento hasta el fallo.

268 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


TEMA
7

Conceptos básicos de Sistemas Operativos.


El Supervisor. Multiprogramación y
multiproceso. Proceso en tiempo real.
Por lotes, secuencial. Tiempo compartido

El sistema operativo es una pieza de software fundamental para el funciona-


miento de los ordenadores. Es el programa que aporta la base sobre la cual actúan
otras aplicaciones, facilitando la gestión del hardware, actuando como interfaz en
la comunicación hombre-máquina y realizando muchas otras actividades muy im-
portantes para un buen trabajo y aprovechamiento del ordenador
Los S.O. disponen de técnicas diseñadas para aprovechar eficientemente los
recursos del ordenador. Estas técnicas han sufrido una importante evolución en
las últimas décadas, paralela al desarrollo tecnológico de los ordenadores. En este
tema se describen estas técnicas, se realiza un recorrido por la historia de los S.O.
indicando en qué momentos se introdujo cada una de ellas.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 269


CONCEPTOS BÁSICOS DE SISTEMAS OPERATIVOS

ESQUEMA INICIAL

1. Conceptos preliminares
1.1. Revisión del hardware y software
1.2. Clasificación general del software
1.3. Jerarquía del software
1.3.1. Aplicaciones de usuario
1.3.2. Software del sistema
1.3.3. Nivel hardware

2. Sistemas Operativos
2.1. Introducción
2.2. Definición de sistema operativo

3. Conceptos relacionados
3.1. Procesos y multiprogramación
3.2. Archivos
3.3. Llamadas al sistema
3.4. Interrupciones y sondeo
3.5. Modos de funcionamiento
3.6. Portabilidad
3.7. S.O. residente y paginación

4. Funciones del S.O.


4.1. Gestión del procesador y de los procesos
4.2. Gestión del sistema
4.3. Gestión de entrada/salida: periféricos y drivers
4.4. Servicios varios
4.4.1. Librerías de programación
4.4.2. Detección de errores
4.4.3. Servicio de catálogo
4.4.4. Gestión de espacio
4.4.5. Otros servicios

5. Estructura de los S.O.


5.1. Sistemas de capas
5.2. Máquinas virtuales
5.3. Modelo cliente/servidor
5.4. S.O. de red y distribuidos
5.5. S.O. multiprocesador

270 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


CONCEPTOS BÁSICOS DE SISTEMAS OPERATIVOS

6. Clasificación de los S.O.

7. Seguridad en los S.O.

8. Técnicas de los S.O.


8.1. Procesos Batch
8.2. Canales de Entrada/Salida
8.3. Procesadores satélite: ON y OFFLINE
8.4. Manejo de los dispositivos de E/S
8.4.1. Spooling
8.4.2. Buffering (memoria intermedia)
8.5. Acceso directo a la memoria (DMA)
8.6. Multiprogramación
8.7. Tiempo compartido (Time sharing)
8.8. Tiempo real
8.9. Paginación y memoria virtual
8.10. Multiproceso
8.11. S.O. de red y proceso distribuido
8.12. Entornos o interfaces gráficos

9. Evolución de los S.O.


9.1. 1940-1955: Trabajo a trabajo
9.2. 1956-1958: Sistemas Batch o proceso por lotes
9.3. 1959-1961: Incorporación de las interrupciones de E/S
9.4. 1962-1964: Multiprogramación. Aumento del rendimiento y capacidad
9.5. 1965-1968: Optimización
9.6. 1969-1975: Implantación de los sistema de comunicación
9.7. 1980-Actualidad: Informática personal, redes y procesos distribuidos

1. CONCEPTOS PRELIMINARES

1.1. REVISIÓN DEL HARDWARE Y SOFTWARE


La importancia del software en un sistema informático es manifiesta si consideramos que es ne-
cesario para hacer que el hardware funcione. El software actúa en forma de programas que contienen
órdenes e instrucciones, las cuales controlan los dispositivos del ordenador, nos permiten comunicar-
nos con ellos y definen los procesos que aportarán resultados útiles, de esta forma sacamos partido
a los recursos hardware del sistema informático.
El término software tiene un origen curioso, cuya explicación requiere que estudiemos primero
el término hardware. En el idioma inglés, origen de la inmensa mayoría de los términos informáticos,
hardware significa ferretería. En los años cincuenta, cuando los ordenadores comenzaron a extender-

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 271


CONCEPTOS BÁSICOS DE SISTEMAS OPERATIVOS

se, se adoptó el término hardware para definir los dispositivos físicos que componían estos ordenado-
res. La palabra tenía un sentido figurado e irónico, pero pronto se aceptó de tal forma que ha llegado
hasta nuestros días con plena vigencia.
Hardware significa ferretería, pero además sus primeras cuatro letras HARD
significan también duro, fuerte. Este matiz es de suma importancia para entender
el origen de la palabra software como veremos a continuación.
En contraposición a los procesadores, unidades de discos, chips y demás elementos que con-
forman un ordenador, tenemos el software. No es un elemento tangible, es decir no se puede coger
y manipular como un cable, sino que representa más bien ideas, la lógica que debe seguirse para
automatizar un proceso, descripciones de procedimientos, etc.
Por otra parte soft significa suave, blando, así que debido al contraste entre lo físico por
un lado y lo inmaterial por otro, se construyó la palabra SOFT-WARE en clara contraposición a
HARD-WARE.
Software y hardware no son términos opuestos o antónimos, más bien son complementarios,
y constituyen dos de los tres pilares de un sistema informático (recordemos que el tercer pilar del
sistema es el personal que lo controla).
Aunque el hardware puede existir como elemento independiente, el software necesita fijarse en
algún tipo de soporte físico, bien en la superficie magnética de un disquete o en los circuitos impresos
de una memoria ROM.
Sin el software un ordenador es en esencia un amasijo metálico sin utilidad. El software “revive”
al ordenador, proporcionándole las directrices para almacenar, procesar y recuperar información, en-
contrar errores de ortografía, calcular complejas hojas de cálculo, ordenar los registros de una tabla
y muchas otras actividades de utilidad.

1.2. CLASIFICACIÓN GENERAL DEL SOFTWARE


El término software hace referencia a cualquier programa que se ejecute en un ordenador. El
software se compone de programas que se construyen utilizando los diversos sistemas y lenguajes
de programación existentes.
Los programas tienen funciones muy variadas y abarcan muchas áreas, por eso es conveniente
realizar algún tipo de clasificación. La elección más lógica es aquella que agrupa los programas por
sus objetivos. Inicialmente podemos distinguir tres grandes conjuntos:
– Software de sistema. Son programas imprescindibles para el funcionamiento de un orde-
nador, administran los recursos hardware de éste y facilitan ciertas tareas básicas al usuario
y a otros grupos de programas.
– Software de desarrollo. También denominados lenguajes de programación o siste-
mas de desarrollo. Son programas que sirven para crear otros programas. Utilizan los
servicios prestados por el software del sistema. Han evolucionado a partir de dos tenden-
cias. La primera son las propuestas teóricas que realizan los especialistas informáticos
sobre lenguajes de programación de alto nivel. La segunda depende del desarrollo de
los procesadores, que origina lenguajes de bajo o medio nivel, como los denominados
ensambladores.
– Software de aplicación. Son el resultado de los desarrollos obtenidos con los lenguajes de
programación del grupo anterior, que originan las aplicaciones que manejan los usuarios fi-
nales. Son los más variados, ya que se aplican a multitud de problemas y entornos de trabajo
distintos. En este grupo localizamos los procesadores de textos, editores gráficos, programas
de diseño, bases de datos, y un largo etcétera. Al igual que el grupo anterior, hace uso de
los recursos que ofrece el software del sistema.
De forma esquemática, la clasificación anterior queda como sigue:
(ver página siguiente)

272 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


CONCEPTOS BÁSICOS DE SISTEMAS OPERATIVOS



 




 
 
    

 





 



 


    


  

 
 
    

  

   

  



Relación entre los tres grupos principales de software. Tanto el software de desarrollo como
el de aplicación trabajan utilizando los servicios proporcionados por el software de sistema,
el cual actúa directamente sobre el hardware. Los programadores utilizan el software de desarrollo
para producir nuevo software; los usuarios por su parte utilizan el software de aplicación obteniendo resultados

1.3. JERARQUÍA DEL SOFTWARE

1.3.1. Aplicaciones de usuario


Cuando manejamos un ordenador, por ejemplo escribiendo una carta en un procesador de tex-
tos, entra en juego toda una jerarquía de programas que hacen posible dicha actividad. Definimos una
serie de niveles que van desde el usuario (más alto) hasta el hardware (más bajo).
Los programas que estamos acostumbrados a usar (procesadores de texto, hojas de cálculos,
tratamiento gráficos, etc.) se encuadran en el nivel más alto. Son los denominados programas de
usuario en clara alusión a quién enfocan su utilización.
Existen por debajo de estos programas de usuario otros niveles que pasamos a describir a con-
tinuación.

1.3.2. Software del sistema


Cuando hablamos de software del sistema nos referimos a ciertos programas imprescindibles
para el funcionamiento del ordenador:
– Sistema operativo: El sistema operativo constituye la parte fundamental del software del
sistema. Se carga en memoria RAM desde un disco duro, un disquete u otro soporte de
almacenamiento permanente.
El sistema operativo es portable entre dos ordenadores distintos que se ajusten a una arqui-
tectura estándar, por ejemplo los PC, esto asegura las mismas operaciones básicas si cam-
biamos de un ordenador a otro, además de permitir intercambiar programas entre ambos.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 273


CONCEPTOS BÁSICOS DE SISTEMAS OPERATIVOS

Un sistema operativo programado para un estándar, por ejemplo el PC, no tiene por tanto
una dependencia tan grande del ordenador sobre el que se instala (siempre que el orde-
nador cumpla con el estándar). Por esta misma razón el sistema operativo puede ser pro-
gramado y comercializado por compañías distintas a las fabricantes de los ordenadores,
como de hecho ocurre.
El Sistema Operativo es el programa fundamental de todos los programas
de sistema.
– Interfaz de usuario: La interfaz de usuario es el medio que permite la comunicación entre el
usuario y el ordenador. Esta interfaz ha sufrido una importante evolución desde los primeros
ordenadores PC, en los cuales las órdenes se daban al sistema tecleando secuencias de
comandos acompañadas de parámetros y otros modificadores.
Esta engorrosa forma de comunicación cambió radicalmente con la introducción de las in-
terfaces gráficas, que permitieron la representación de elementos y operaciones mediante
iconos y movimientos del ratón.
– Sistemas de desarrollo (compiladores, editores, etc.): Estos sistemas tienen como obje-
tivo principal la creación de nuevo software. Algunos autores consideran que se deben tratar
como software de usuarios, colocándolos en el nivel superior de la jerarquía. Sin embargo este
software no resulta tan popular como por ejemplo las omnipresentes aplicaciones ofimáticas,
quedando restringido su uso a un segmento más reducido de usuarios: los programadores.
En este sentido el S.O. protege y libera a los programadores de la complejidad del hardware,
creando un nivel de software sobre el hardware que controla los dispositivos del sistema y presenta
al programador una máquina ideal sobre la que trabajar.
NOTA: El concepto de máquina ideal lo ilustramos con un ejemplo: cuando un
programador quiere acceder a la disquetera, la define como un dispositivo genérico y
realiza una serie de operaciones sobre ella. No necesita considerar la marca, modelo,
fabricante o características técnicas de la disquetera para trabajar sobre ella.
La máquina ideal o virtual es más fácil de programar que el hardware subyacente. Una de las
principales funciones del S.O. es ocultar la complejidad intrínseca del hardware y brindar al programa-
dor y al usuario un entorno más conveniente para trabajar.

1.3.3. Nivel hardware


– Programas en ROM: También denominado Firmware en alusión a que estos programas se en-
cuentran en memoria ROM, memoria de sólo lectura que no se puede borrar (de ahí lo de “firme”).
Estos programas son suministrados por el fabricante del ordenador y están diseñados es-
pecíficamente para el modelo y marca del ordenador sobre el que trabajan. Las funciones
principales de estos programas son chequear el correcto funcionamiento de los dispositivos
y permitir la configuración de ciertos parámetros básicos por parte del usuario, por ejemplo
el tipo de disquetera disponible o la fecha y hora del sistema. Esto último se hace desde un
programa que generalmente se denomina SETUP.
– Lenguaje máquina: Instrucciones que interpreta directamente el procesador. Son com-
pletamente dependientes de la arquitectura y diseño de éste. Suelen formar un conjunto
de entre 50 y 300, con funciones tales como el desplazamiento de datos por la memoria,
operaciones aritméticas, de control y comparación, etc. Las instrucciones del lenguaje má-
quina se traducen a la hora de su ejecución en una serie de etapas básicas denominadas
microinstrucciones, cuya agrupación forma un microprograma.
– Microprogramas: Desglosa las instrucciones de lenguaje de máquina para ejecutarlas como
una serie de pequeños pasos. La arquitectura del ordenador define el conjunto de microins-
trucciones disponible, siendo éstas por tanto completamente dependientes de la máquina.
Hay que señalar que en algunos ordenadores, la microprogramación se implementa en hard-
ware, integrándose en éste y no constituyendo en tal caso una capa diferenciada.
– Hardware: Dispositivos físicos sin capacidad de proceso por sí mismos. Dependen de las
microinstrucciones para realizar un trabajo útil.

274 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


CONCEPTOS BÁSICOS DE SISTEMAS OPERATIVOS




  


 




 
 

 



   
        



  

  


   
 

 





Jerarquía del software. En la base está el hardware manejado directamente por microinstrucciones, las cuales a su
vez se originan a partir del lenguaje máquina. Las flechas indican los diferentes niveles de acceso que tienen los usuarios

2. SISTEMAS OPERATIVOS

2.1. INTRODUCCIÓN
Los primeros ordenadores carecían de Sistemas Operativos. La introducción de un programa para
ser ejecutado requería un esfuerzo increíble, que sólo podían realizar unos pocos expertos.
El usuario tenía que hacer de analista, de programador y de operador ya que debía preparar el
problema a resolver para su programación, escribir el programa, introducirlo en la máquina y operar
ésta mientras se ejecutaba el mismo. Como normalmente un programa no funciona correctamente la
primera vez que se prueba, era necesario detener la máquina y analizar el contenido de la memoria en
busca de indicios para descubrir la causa de la parada y poder corregir el error existente. Mientras el
programa estaba almacenado en la memoria de la máquina se podían extraer algunas instrucciones,
cambiarlas y devolverlas a su antigua posición.
Todas estas operaciones y manipulaciones exigían una programación auxiliar para operar con la
máquina basada en un profundo conocimiento de ésta, su estructura y el funcionamiento de cada
uno de sus órganos, según normas fijas dadas por el constructor. El tiempo requerido para introducir
un programa en aquellos grandes ordenadores superaba al de ejecución, de modo que resultaba poco
provechosa la utilización de la informática.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 275


CONCEPTOS BÁSICOS DE SISTEMAS OPERATIVOS

Los sistemas operativos surgen para optimizar el uso de los recursos Hardware e incrementar el
rendimiento del ordenador simplificando las operaciones con el mismo. La evolución de los Sistemas
Operativos sigue muy de cerca a la de los ordenadores. Se han ido desarrollando según el avance de
la tecnología, desde los primeros procesadores a válvulas hasta los actuales, basados en circuitos
integrados a gran escala de integración (VLSI).
El nacimiento de los Sistemas Operativos y su desarrollo han sido decisivos para lograr el nivel
de difusión, cada vez mayor, de los ordenadores. En la actualidad, los sistemas operativos se utilizan
en todos los ordenadores, desde los gigantescos superordenadores hasta los pequeños ordenadores
personales.
NOTA: En general, los sistemas operativos son los que moldean el punto de
vista que el usuario tiene de un ordenador, más aún que el mismo hardware.
Es obvio que cuanto más sofisticados son los sistemas operativos más recursos consumen del
ordenador. De alguna forma la carrera en la construcción de complicados sistemas operativos para
los grandes ordenadores fue frenada por la difusión de los ordenadores personales con sistemas
operativos relativamente simples.
En lugar de proveer solamente los sistemas operativos de propósito general a gran escala que
la industria creía necesarios en la década de los sesenta y principio de los setenta, los distribuidores
ofrecen ahora sistemas operativos más simples, que proveen el ambiente computacional adecuado a
las necesidades específicas de los usuarios individuales.

2.2. DEFINICIÓN DE SISTEMA OPERATIVO


Un sistema operativo es un programa que realiza funciones muy importantes de comunicación
entre el usuario y la máquina, así como de control y gestión de esta última. Estudiaremos el concepto
de sistema operativo analizando dichas funciones:
Un sistema operativo es un programa o conjunto de ellos que tienen los
siguientes objetivos:
1. Controlar el funcionamiento del hardware del ordenador sobre el cual funcionan.
2. Ocultar detalles complicados y facilitar el uso del ordenador al usuario.
3. Administrar eficazmente los recursos disponibles del ordenador para que su
uso resulte adecuado y su rendimiento óptimo.
NOTA: El término sistema operativo se suele abreviar por sus iniciales: S.O.
y a veces, como herencia de una terminología empleada en otros tiempos, se le
llama también Supervisor o Monitor.
La primera función resulta sencilla si la explicamos con un ejemplo; supongamos un ordenador
PC que dispone de una disquetera. La disquetera es un dispositivo hardware formado por una parte
electrónica y otra electromecánica (el motor de rotación, la cabeza lectora, etc.). La parte electrónica
controla la operación de la electromecánica.
Cuando deseamos grabar un fichero en un disquete, el S.O. se comunica con la parte electrónica
indicándole que arranque el motor de la disquetera, que mueva el brazo de la cabeza de lectura/es-
critura, etc. El S.O. está controlando el hardware del ordenador.
La segunda función del S.O. también se aprecia fácilmente en el ejemplo anterior. Cuando el
S.O. se comunica con la disquetera para grabar un fichero, en realidad están ocurriendo multitud de
complicadas operaciones de control y comunicaciones. Veamos algunas de ellas:
Inicialmente el S.O. pregunta a la disquetera si tiene un disquete dentro, ésta pone su motor
en marcha e intenta detectarlo; si no lo tiene, el S.O. lo indica al usuario mediante un mensaje en
pantalla. En caso que se detecte un disquete, el S.O. indica a la disquetera que lea su contenido para
determinar si tiene suficiente espacio para la información que se pretende grabar, si es así comienza
el proceso de grabación y la disquetera mueve la cabeza de lectura/escritura donde haya espacio
libre, etc.

276 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


CONCEPTOS BÁSICOS DE SISTEMAS OPERATIVOS

Si hubiésemos sido exhaustivos, la lista de operaciones a realizar hubiese llenado varias de estas
páginas. Por otra parte, si el usuario tuviera que realizarlas por sí mismo probablemente desistiría de
su intento, sin embargo todo lo que debe hacer es teclear algo tan sencillo como:

COPY Archivo A:

Donde “A:” hace referencia a la disquetera. El S.O. interpreta esta orden y se encarga de todo
lo demás.
NOTA: En los S.O. con interfaz gráfica el procedimiento se simplifica aún más:
basta con una sencilla operación del ratón.
Como vemos, la simplicidad de la orden anterior esconde una complicada gestión de la que
afortunadamente se encarga el S.O. Esto posibilita que el manejo del ordenador se acerque más a
nuestros esquemas lógicos o forma de razonar.
CURIOSIDAD: El objetivo fundamental de las primeras versiones del S.O. más extendido para orde-
nadores PC era la gestión de los ficheros, directorios y sus estructuras en los discos. Por este motivo el
nombre adquirió el nombre DOS (Disk Operating System) que significa Sistema Operativo de Disco.
Por último podemos ver un ordenador como un conjunto de recursos que hay que gestionar,
compartir y utilizar de una forma lógica con objeto de conseguir el mayor rendimiento posible de ellos.
Algunos de estos recursos son:
– El procesador: Ejecuta las instrucciones de los programas, por tanto es esencial una correc-
ta distribución de tiempos entre los distintos programas que pueden estar corriendo simultá-
neamente, así aseguramos que ninguno de ellos quede demasiado tiempo esperando.
– La memoria: Es el lugar donde se almacena la información y programas que se están eje-
cutando cuando el ordenador está en marcha. Una distribución óptima de este espacio es
fundamental, así como proporcionar ciertos mecanismos de seguridad para que un progra-
ma no acceda a un área de memoria que no le corresponde.
– Los periféricos: Regular el uso de los periféricos del ordenador resulta imprescindible en
muchos procesos que hacen uso intensivo de ellos. Además hay que tener en cuenta que las
operaciones con periféricos suelen ser mucho más lentas que las realizadas en el ordenador.
La previsión y minimización de cuellos de botella es una prioridad importante en el funciona-
miento del S.O., evitando que un proceso quede esperando a que termine una operación de
entrada/salida y bloquee el ordenador mientras tanto.

 



 

  



 

Uno de los objetivos del S.O. es gestionar y coordinar los recursos del ordenador

Los S.O. actuales rara vez consisten en un único programa; generalmente están compuestos
por un conjunto de ellos, con funciones bien definidas y que trabajan juntos como un sistema homo-
géneo. Estos programas o módulos dependen de cada S.O. en particular, variando en número y en
función. Los más importantes son los programas de control encargados de coordinar y optimizar los
recursos más importantes del ordenador que acabamos de estudiar.
Los S.O. agrupan estos módulos de gestión de recursos en un conjunto deno-
minado núcleo o kernel.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 277


CONCEPTOS BÁSICOS DE SISTEMAS OPERATIVOS

A medida que se desarrollan los sistemas operativos, nuevos conceptos van adquiriendo importancia:
– Interoperabilidad: Capacidad del sistema para facilitar intercambio de información entre los
componentes heterogéneos en el sistema.
– Transparencia: Propiedad que permite a los usuarios ver al conjunto de dispositivos que
componen el ordenador como una sola máquina.
– Autonomía: Independencia de los S.O. respecto al hardware. Esto se consigue mediante diver-
sas técnicas que consiguen abstraer la mayor parte del S.O de los dispositivos que maneja.

3. CONCEPTOS RELACIONADOS

3.1. PROCESOS Y MULTIPROGRAMACIÓN


El proceso es un concepto fundamental en todos los S.O. Básicamente define el conjunto que
forman un programa en ejecución, los datos que maneja, sus propios parámetros (almacenados en
una estructura denominada pila) y otros datos necesarios para ejecutar dicho programa como su
contador, localización, etc.
La información de control relacionada con los procesos se almacena en una estructura de me-
moria denominada tabla de procesos, cuyas características más importantes son:
– Es administrada por el S.O.
– Posee una fila por cada proceso existente en un momento dado.
– Es dinámica, en el sentido de que evoluciona en el tiempo.
– Su estructura depende del S.O. en cuestión, pudiendo estar muy diversa información depen-
diendo de éste.
Mencionar por último que en algunos importantes S.O., los procesos pueden crear procesos hijos
y estos a su vez nuevos procesos hijos, conformando lo que se denomina un árbol de procesos.
Uno de los módulos más importantes de un S.O. es el de administrar los procesos de forma
óptima, aumentando el rendimiento del ordenador. Para realizar esto el S.O. cuenta con técnicas de
multiprogramación, método destinado a incrementar el empleo de la CPU y disminuir los tiempos de
inactividad el procesador.
El método que se sigue es básicamente el siguiente: cuando un proceso deja libre la CPU para
realizar una, por ejemplo, operación de entrada/salida, el S.O. cambia a otro trabajo y lo ejecuta.
Un sistema operativo multiprogramado es bastante sofisticado. Varios trabajos en ejecución sig-
nifica tenerlos simultáneamente en memoria, lo que a su vez requiere una eficaz gestión de ésta. Por
otra parte se necesita un módulo que seleccione y priorice entre los procesos pendientes; hablamos
entonces del planificador de procesos.
La planificación del procesador define las técnicas utilizadas para decidir cuándo y cuánto tiempo
de ejecución se le asignan a cada proceso pendiente. Obviamente, si el sistema es monousuario y
monotarea no hay mucho que decidir, pero en el resto de los sistemas esto es crucial para el buen
funcionamiento del ordenador.
Uno de los principales problemas de la gestión de procesos es la competencia por los recursos
del ordenador. Para coordinar los procesos y los recursos que éstos necesitan en su ejecución E.W.
Dijkstra, en 1965, ideó un nuevo tipo de variable llamada Semáforo. El semáforo actúa como indi-
cador a los procesos del estado en el que se encuentra un recurso.
NOTA: Como ejemplo de recursos podemos mencionar estructuras de datos,
dispositivos de entrada/salida, tiempo de procesador, acceso directo a memoria
(DMA) y muchos otros.
En su propuesta se estipuló que un semáforo puede tener el valor 0 ó bien algún valor positivo.
Sobre él sólo se pueden realizar dos operaciones:
– La operación DOWN verifica si el valor de un semáforo es mayor que 0, en cuyo caso decre-
menta el valor en una unidad. Si el valor es cero, el proceso que reclama el recurso pasa a
un estado inactivo de espera.

278 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


CONCEPTOS BÁSICOS DE SISTEMAS OPERATIVOS

– La operación UP incrementa el valor del semáforo correspondiente. Si uno o más procesos


estaban en espera de este semáforo, el sistema elige alguno de ellos (por ejemplo, de forma
aleatoria) y se le permite terminar su operación.
La verificación y modificación del semáforo se realiza en conjunto, como una sola e indivisible ac-
ción atómica. Se garantiza que al iniciar una operación con un semáforo, ningún otro proceso puede
tener acceso a semáforo hasta que la operación termine. Esta atomicidad es absolutamente esencial
para resolver los problemas de sincronización y evitar condiciones de competencia.
Otra forma de controlar la comunicación entre procesos es la sincronización. En muchos casos,
los procesos se reúnen para realizar tareas en conjunto, a este tipo de relación se le llama procesos
cooperativos. Para lograr la comunicación, los procesos deben sincronizarse.
La sincronización es la transmisión y recepción de señales que tiene por objeto coordinar el traba-
jo de un grupo de procesos cooperativos. La sincronización entre procesos es necesaria para prevenir
y/o corregir errores debidos al acceso concurrente a recursos.
Por ejemplo, sin una sincronización adecuada la actualización de variables compartidas puede
inducir a errores difíciles de depurar, ya que procesos concurrentes pueden observar valores tempo-
ralmente inconsistentes de una variable compartida mientras ésta se actualiza.
La sincronización en sistemas de un único ordenador no requiere ningún aspecto especial en
el diseño del S.O., ya que un reloj único proporciona de forma regular y precisa el tiempo en cada
momento. Los sistemas distribuidos, sin embargo, tienen un reloj en cada ordenador, siendo funda-
mental una coordinación entre ellos.
Se denomina región crítica a un recurso demandado por uno o varios proce-
sos. Siempre que un recurso esté siendo utilizado por un proceso y exista otro que
lo desea, éste último debe esperar que el primer proceso lo libere.
Si un proceso se encuentra en su sección crítica, otros procesos pueden seguir ejecutándose
fuera de sus secciones críticas. Cuando un proceso abandona su región, otro proceso que esperaba
entrar en su propia sección podrá hacerlo. El problema de la programación concurrente está en que
se cumpla la exclusión mutua.
Son necesarias cuatro condiciones para gestionar satisfactoriamente los procesos concurrentes:
1. Dos procesos no deben encontrarse al mismo tiempo dentro de sus secciones críticas.
2. No se deben hacer hipótesis sobre la velocidad o el número de UCP.
3. Ninguno de los procesos que estén en ejecución fuera de su sección crítica puede bloquear
a otros procesos.
4. Ningún proceso debe esperar eternamente para entrar a su sección crítica.

3.2. ARCHIVOS
Una de las funciones principales del S.O. es suministrar independencia de dispositivo. Este
concepto cobra especial relevancia cuando se aplica a los archivos. La independencia de dispositivo
permite a los programas de usuario acceder, escribir, leer o realizar cualquier otra operación sobre los
archivos de la misma manera independientemente del soporte físico que los contenga.
Es decir, que para el usuario el hecho de que un archivo se encuentre en un disquete o en un
CDROM es totalmente transparente. Los métodos para leer el archivo no dependen de los distintos
medios donde éste pueda encontrarse. Esto supone una gran ventaja desde el punto de vista de la
facilidad de uso.
Por otra parte, la mayoría de los S.O. soportan el concepto de directorio como método principal
de agrupar archivos. Los directorios se estructuran jerárquicamente, estructura que hace necesaria
una ruta de acceso para acceder a cada archivo. La ruta de acceso puede considerarse como la
dirección del archivo en el árbol de unidades y directorios del sistema de archivos.
Los S.O. implementan distintos esquemas de seguridad a la hora de realizar operaciones con
los archivos.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 279


CONCEPTOS BÁSICOS DE SISTEMAS OPERATIVOS

3.3. LLAMADAS AL SISTEMA


La interfaz entre el S.O. y los programas del usuario se define mediante un conjunto de servicios
que proporciona el S.O. a los que se accede mediante las llamadas al sistema.
Las llamadas al sistema crean, eliminan y utilizan objetos del software controlados por el S.O.
Entre los más importantes de estos objetos se encuentran los procesos y los archivos.
Las llamadas al sistema permiten a los programas comunicarse con el S.O. y
solicitar cualquier servicio que éste ofrezca.
El procedimiento de llamada al sistema ocurre como sigue:
– Se definen los parámetros que la llamada va a utilizar para a continuación luego ejecutar la
instrucción de llamada al sistema.
– El S.O. toma el control de la ejecución, examina los parámetros y si son válidos ejecuta el
trabajo solicitado.
– Al terminar, el S.O. coloca un código de estado en un registro indicando si la operación tuvo
éxito o no, y ejecuta una instrucción de retorno para ceder el control al procedimiento.
– El control regresa al programa que examina el código de estado y actúa en consecuencia.

3.4. INTERRUPCIONES Y SONDEO


La técnica de interrupciones permite a una unidad obtener la inmediata atención del procesador.
El mecanismo es relativamente sencillo:
– El procesador se encuentra ejecutando un proceso.
– En un momento determinado otro proceso o un dispositivo requiere la atención del procesa-
dor. Para ello activa una línea de interrupción.
– El procesador analiza la línea de interrupción activada, salva la información del proceso que
estaba ejecutando y da prioridad al proceso de interrupción solicitado.
– Cuando el procesador termina la ejecución de la interrupción, restaura la información del
proceso original y prosigue con su ejecución.
Como alternativa a la técnica de interrupciones, disponemos del Escrutinio, que consiste en un
chequeo sucesivo del procesador sobre otros elementos del ordenador. El chequeo se basa en un
intercambio de señales del tipo pregunta/respuesta.

3.5. MODOS DE FUNCIONAMIENTO


Para asegurar que ningún proceso de usuario pueda realizar directamente las operaciones más
sensibles del procesador (aquellas que comprendan mayor riesgo de error, como el acceso a memo-
ria, entrada/salida, etc.), éste proporciona dos modos de funcionamiento distintos.
– Modo supervisor o real: Sólo es accesible por el S.O. que dispone de una serie de instruc-
ciones privilegiadas de acceso y manipulación. Estas instrucciones tienen mecanismos de
protección por hardware y una mayor prioridad, permitiendo realizar operaciones exclusivas
al S.O. que no están disponibles a los procesos de usuario.
– Modo usuario: Los programas de usuario tienen acceso a un subconjunto de instrucciones
que no permiten ciertas operaciones avanzadas. Para su ejecución deben acudir a las llama-
das del sistema, siendo realmente el S.O. el que las realiza.

3.6. PORTABILIDAD
El S.O. se carga en memoria RAM desde un disco duro, un disquete u otro soporte de almacena-
miento permanente. Dos ordenadores que tengan la misma arquitectura (el mismo procesador, com-
ponentes, etc.) pueden funcionar con el mismo S.O. Decimos entonces que el S.O. es portable.
Dos ordenadores que se ajustan a una arquitectura estándar permiten intercambiar programas y
métodos de operación. Un buen ejemplo son los ordenadores PC junto con el S.O. Windows.

280 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


CONCEPTOS BÁSICOS DE SISTEMAS OPERATIVOS

El S.O. suele acompañarse además de otros programas con funciones muy interesantes para el usua-
rio, como editores de texto, utilidades de comunicación e incluso algún software de desarrollo. Los S.O.
más recientes incluyen un amplio repertorio de programas auxiliares, que si bien no son imprescindibles
desde el punto de vista del propio S.O., facilitan muchas tareas comunes al usuario del ordenador.

3.7. S.O. RESIDENTE Y PAGINACIÓN


Para que un ordenador ejecute cualquier programa, éste debe situarse en la memoria RAM. El
S.O. no es ninguna excepción*, así que cuando encendemos un ordenador el S.O. es cargado en RAM
desde un disquete o un disco duro.
*NOTA: Esto es así en la mayoría de los casos y en todos los ordenadores PC.
Sin embargo algunos modelos, hoy en desuso, incorporaban el S.O. en memoria
ROM, de forma que el ordenador disponía de él en el mismo momento del encendi-
do. Aunque se ahorraba el proceso de carga, esta idea tiene el grave inconveniente
de que el usuario no podía actualizar el S.O. con nuevas y mejoradas versiones.
Hasta hace pocos años la memoria RAM es uno de los recursos más caros del ordenador, por lo
tanto no se disponía de una cantidad demasiado generosa (hoy en día es un elemento relativamente
barato). Al cargar el S.O. en RAM estábamos ocupando un lugar precioso para nuestros programas de
aplicación. Sucede que en un momento dado no todos los módulos del S.O. se encuentren funcio-
nando, por lo que pueden ser descargados, liberando memoria que pueden utilizar otros programas.
Sin embargo, siempre hay parte del S.O. presente en la memoria. Es lo que se denomina S.O.
residente. A medida que los usuarios o los programas pidan servicios al S.O. que no estén en me-
moria en ese momento, éste cargará en RAM aquellos módulos que los gestionen, pudiendo además
descargar otros que han tenido poco uso.
La técnica comentada es aplicable también a cualquier tipo de programa, los sistemas de desa-
rrollo y las aplicaciones de usuario, y recibe el nombre de paginación. La paginación es muy impor-
tante en informática, ya que permite trabajar con programas mayores que la memoria disponible. En
contrapartida hay que decir que existen ciertos tiempos de espera cuando se necesita acceder a un
servicio que no se encuentre en memoria, ya que es necesario cargarlos desde disco.
La parte residente del sistema incluye todas aquellas rutinas que realizan:
– Supervisión de las interrupciones.
– Supervisión del almacenamiento principal, entrada/salida y métodos de acceso.
– Supervisión del reloj.
– Gestión de comandos del usuario.

4. FUNCIONES DEL S.O.


Cualquier S.O. ha de ser capaz de gobernar automáticamente la operación del sistema, con una
mínima intervención externa.

4.1. GESTIÓN DEL PROCESADOR Y DE LOS PROCESOS


Un S.O. ha de tener capacidad para procesar trabajos en forma continua, eliminando o redu-
ciendo al mínimo las inactividades y tiempos de rotación entre trabajos. Para ello, el sistema procesa
corrientes de trabajos agrupados por lotes, que introduce en unas colas de trabajos desde donde son
lanzados según prioridades o requerimientos del operador.
Debe existir por tanto:
– Un lenguaje de descripción de trabajos.
– Gestión de colas de trabajos.
– Planificación con prioridad.
– Enlace entre tareas.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 281


CONCEPTOS BÁSICOS DE SISTEMAS OPERATIVOS

La función primaria de las rutinas de Gestión de Trabajos es preparar los trabajos para ser ejecu-
tados y, cuando se han ejecutado, dirigir la disposición de los conjuntos de datos creados durante la
ejecución. Este módulo gestiona el procesador, repartiendo su tiempo entre los programas activos y
los prepara para ser ejecutados.
Veamos estas funciones con detalle:
– Preparación, carga, lanzamiento y supervisión de programas: Este proceso transfiere
los programas de usuario (por ejemplo un procesador de textos), desde la memoria externa
(por ejemplo un disco duro) hasta la memoria central del ordenador, donde comenzará su
ejecución. Para ello se le asigna un espacio de memoria adecuado donde realizará sus ope-
raciones. De todo ello se encarga un programa especial del S.O. denominado cargador.
– Gestión del procesador: Mediante la técnica de multiproceso pueden coexistir varios pro-
gramas en ejecución de forma simultánea. En mayor o menor medida, todos ellos necesitan
tiempo del procesador para realizar sus tareas. La gestión del procesador consiste en una
determinada política de asignación de tiempos según ciertos parámetros, por ejemplo la
prioridad que posea cada programa o el tiempo que éste haya permanecido en memoria.
– Relanzamiento de programas: En un sistema multiproceso, como mencionábamos an-
teriormente, los programas se van turnando la atención del procesador. Cuando le toca el
turno a uno de estos programas hay que reactivarlo, para lo cual es necesario que ciertas
variables y parámetros del ordenador vuelvan a tener los valores que presentaban cuando
el programa acabó con el tiempo asignado la última vez. Este fenómeno ocurre también
después de una interrupción al procesador por parte de un periférico u otro dispositivo.
– Asignación de periféricos: Cuando uno de los programas de usuario necesita utilizar un
periférico, por ejemplo una impresora o un disco, hace referencia a él de una forma simbóli-
ca (facilitando la labor del programador que diseñó el programa). La asignación de periféricos
engloba el proceso de conversión de esta notación simbólica a asignaciones físicas reales.
Las asignaciones reales resultan mucho más complejas, siendo este un buen ejemplo de
cómo el S.O. simplifica la gestión de los usuarios y programadores.
Las etapas por las que pasa un trabajo en el sistema son:
– Lectura: Se realiza la lectura del trabajo dejándolo almacenado en espera de su inicialización.
– Iniciación: El iniciador selecciona de la cola de entrada el trabajo más prioritario a ser ini-
ciado en función del sistema de clases y prioridades.
– Ejecución: En este momento se cede control al módulo a ejecutar, mientras el iniciador
queda en espera de que termine dicho módulo.
– Desasignación: Una vez terminada la ejecución, el trabajo entra en la rutina de desasigna-
ción de recursos, liberando todos los recursos asignados anteriormente.
– Escritura: Todos los mensajes y ficheros a imprimir se listan en función de la clase y las
colas de impresión.
– Purge: Una vez que han escrito todos los ficheros de salida del último paso pertenecientes
a un trabajo, se libera todo el espacio ocupado en las colas de salida así como todos los
bloques de control y datos relacionados con este trabajo.

4.2. GESTIÓN DEL SISTEMA


El núcleo principal del S.O. lo constituye este grupo de programas. Se encargan de la coordinación y
gestión del funcionamiento del resto de los programas, tanto del propio sistema como de los programas
de usuario. A este núcleo se le denomina supervisor o monitor y sus funciones están muy ligadas
a la administración de la memoria principal, que junto con el procesador, es uno de los recursos más
demandados, caros y habitualmente escasos. Las principales misiones del supervisor son:
– Gestión de la memoria principal: Los métodos de asignación y control de esta memoria
son muy variados y específicos de cada S.O. Además hay que considerar la variación existen-
te entre los sistemas mono y multiproceso (un solo programa en memorias o varios de ellos).
La principal tarea consiste en asignar espacios de memoria a los programas y garantizar que
uno de ellos no acceda a un espacio que no sea el suyo. En caso contrario se podría dar el
caso de que un programa haga fallar a los demás.

282 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


CONCEPTOS BÁSICOS DE SISTEMAS OPERATIVOS

Existen además S.O. que soportan memoria virtual (utilización de la memoria secundaria
como una extensión de la memoria principal, de forma que para un programa el ordenador
tiene mucha más memoria principal de la que realmente posee). Entonces es necesario
controlar las técnicas de paginación o segmentación, por las cuales se intercambia la infor-
mación entre estos dos tipos de memorias.
– Supervisión de interrupciones: Una interrupción puede ocurrir o bien porque el programa
interrumpido necesita algún servicio del programa de control, o bien porque algún suceso
accidental necesite un proceso de supervisión. En este momento el control pasa del progra-
ma interrumpido a las rutinas de supervisión de las interrupciones, que introducen todas las
rutinas adicionales necesarias para completar el proceso. Estas rutinas preservan los datos
del programa interrumpido, aíslan las interrupciones unas de otras, pasan el control a las
rutinas de servicio de la interrupción y devuelven el control al programa interrumpido.
– Errores de programa: A la hora de diseñar un programa complejo existe la posibilidad de
cometer errores de programación. El S.O. debe controlarlos y detectar si se pretende ejecu-
tar alguna operación no permitida o errónea. Entonces un módulo especial toma el control,
suspende la ejecución del programa en curso e informa al usuario del error y las circunstan-
cias en que éste se ha producido.
– Control y asignación de recursos: Es una de las facilidades más importantes a soportar
por un S.O., pues una de sus funciones es maximizar el uso de los recursos, manteniendo
un alto nivel de rendimiento en todos ellos. Por tanto un S.O. no sólo ha de conocer todos
los recursos de que dispone, sino que ha de controlar y asignar recursos según prioridades
y necesidades de acuerdo, además, con los elementos libres (o no asignados) existentes.
– Trabajo en multiprogramación: Este modo de trabajo debe ser considerado como un modo
normal de operación así como los tipos que con él conlleva, como son: tiempo compartido y
tiempo real. De gran importancia también es la multitarea, multiproceso y el uso interactivo
y conversacional.

4.3. GESTIÓN DE ENTRADA/SALIDA: PERIFÉRICOS Y DRIVERS


Los periféricos suponen una parte fundamental del ordenador. El monitor, el teclado y la impre-
sora son los ejemplos más típicos de dispositivos que permiten la comunicación entre ordenadores y
usuarios. El control de estos dispositivos es responsabilidad del S.O. que oculta al usuario las pecu-
liaridades y complicaciones de estas tareas.
Sin embargo resultaría imposible que un S.O. estuviese preparado para gestionar a priori cual-
quiera de los miles de periféricos existentes en el mercado. En efecto, podemos encontrar cientos
de modelos de impresoras, escáneres, módems, etc., cada uno con sus características propias. Esta
situación se resuelve mediante el uso de programas especiales que junto al S.O. controlan cada
dispositivo específico. Estos programas especiales se denominan drivers o controladores, son su-
ministrados por el fabricante del periférico y trabajan en coordinación con el S.O.
Los periféricos originan una gran cantidad de tráfico de información y datos de y desde el or-
denador. Se necesitan programas que controlen este tráfico, el cual puede organizarse de diversas
formas, por ejemplo:
– En serie: Los bits se envían uno tras otro en secuencias de longitudes determinadas, exis-
tiendo mecanismos de detección de errores, marcas de control y sincronismo en la cadena de
datos, etc. Sólo existe un canal, por lo que la transmisión es totalmente secuencial. Esta es la
forma en la que se comunica, por ejemplo, el ratón que el usuario maneja con el ordenador.
– En paralelo: Mediante esta técnica se envía o recibe un grupo de bits simultáneamente. El
canal de transmisión se amplía a varios cables por los que viajan a la vez estos grupos de
bits. Se suelen transmitir bloques de información que quedan almacenados en una memoria
temporal o buffer hasta que el periférico está listo para su procesamiento, tal es el caso de
la mayoría de las impresoras.
– Otros canales: Actualmente existen otros canales de comunicación entre el ordenador y el
periférico que posibilitan un tráfico de información cada vez más rápido. Las tecnologías USB
y FireWire son buen ejemplo de ello.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 283


CONCEPTOS BÁSICOS DE SISTEMAS OPERATIVOS

En cualquier caso se hace necesario ciertos controles sobre la información transmitida: que ésta
llegue al receptor exactamente igual a como la generó el emisor, que tanto emisor como receptor
estén coordinados, que uno de ellos no sature al otro, etc. En general, los periféricos y el ordenador
no “hablan el mismo idioma”, por lo que los drivers además suelen realizar procesos de conversión
de la información transmitida, cambiando y ajustando formatos.
Es muy frecuente que el ordenador procese información mucho más rápido que los periféricos
debido a que éstos realizan operaciones electromecánicas (movimiento del cabezal de una impresora,
de los rodillos de un escáner, etc.). Con el objetivo de que el ordenador no espere al periférico se dise-
ñan las técnicas de buffering que consisten básicamente en unas áreas de memoria que almacenan
la información hasta que el dispositivo más lento pueda procesarla, de esta forma el dispositivo más
rápido no se colapsa y puede continuar realizando otras tareas. La gestión de las colas de información
también corre a cargo de este módulo del S.O.
Existen también muchas operaciones relacionadas con la gestión de la memoria secundaria, ya
que ésta consiste generalmente en un disco duro que puede ser considerado un dispositivo periférico
de entrada/salida.
La función principal del módulo que controla la memoria secundaria es hacer que ésta aparezca a los
ojos del usuario con cierta estructura lógica, que no tiene por qué coincidir con la realidad física. Por ejem-
plo, cuando un usuario almacena un documento generado con un procesador de textos, éste se guarda
en el disco duro de su ordenador como un fichero con ciertas características: tamaño, fecha de creación,
nombre, etc. El usuario observa y maneja estos parámetros a los que saca partido para sus necesidades.
Físicamente, sin embargo, la realidad es otra; el fichero se compone de bloques (o sectores) situados en
la superficie del disco duro, enlazados unos con otro en una secuencia lógica definida por punteros.
Otros procesos propios de este módulo son la apertura y cierre de un fichero desde un programa,
el acceso a éstos según su modalidad (secuenciales, directos, indexados, etc.), la transformación de
direcciones lógicas a físicas, la compartición de ficheros o la optimización del espacio en disco.
Estas operaciones las ejecuta el módulo de Manipulación del sistema de archivos, en el que
tenemos un buen ejemplo de cómo el S.O. oculta al usuario la complejidad de gestionar operaciones
realmente complicadas.

4.4. SERVICIOS VARIOS


4.4.1. Librerías de programación
Desde los primeros tiempos de la informática se observó que los programadores necesitaban
codificar tareas similares en muchos programas distintos; por ejemplo, un módulo para averiguar el
tamaño de un fichero determinado. Los primeros programadores tenían que escribir ese código cada
vez que querían utilizarlo en un nuevo programa.
Los modernos S.O. ofrecen extensas librerías de funciones muy útiles a los programadores.
Estas funciones y procedimientos sólo tienen que ser llamadas desde un programa, encargándose
el sistema operativo de proveer la funcionalidad que se pretende. Esto ahorra mucho trabajo a los
programadores y además elimina la introducción de errores, ya que los módulos que ofrece el S.O.
están muy probados y depurados.

4.4.2. Detección de errores


El S.O. necesita constantemente detectar posibles errores. Los errores pueden producirse en la
CPU y en el hardware de la memoria, en los dispositivos de E/S o bien en el programa de usuario.
Para cada tipo de error, el sistema operativo debe adoptar la iniciativa apropiada que garantice una
computación correcta y consistente.
Las rutinas de gestión y recuperación de errores registran datos sobre los errores, programas
y ordenador, para su análisis posterior. Estas operaciones deben ser realizada por el S.O. de forma
automática, evitando el mayor número de interrupciones posibles en la operación de la máquina y
pérdidas de tiempo en rearranques. El S.O. ha de poder, incluso, continuar aun en condiciones críti-
cas y mientras el propio sistema no resulte gravemente dañado por los fallos.

284 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


CONCEPTOS BÁSICOS DE SISTEMAS OPERATIVOS

En relación con la gestión y control de errores es deseable:


– Distinguir diversos tipos de errores (Hard, Soft, internos y externos, etc.).
– Disponer el estado de emergencia.
– Evitar una degradación del sistema.
– La recuperación funcional del sistema.

4.4.3. Servicio de catálogo


En los sistemas operativos suele existir un fichero algo especial al que llamamos catálogo.
En este fichero hay una serie de registros que asocian un nombre de fichero con el dispositivo
en que residen. De esta forma, a la hora de acceder al fichero catalogado, es suficiente con dar el
nombre y el sistema lo localizará a través del catálogo. Este fichero se puede repartir en varios niveles
para facilitar la búsqueda de una entrada en concreto. Estos subniveles pueden estar todos en el
mismo disco o repartidos en discos diferentes.

4.4.4. Gestión de espacio


Este conjunto de rutinas se encarga de la asignación y liberación del espacio en los soportes de
almacenamiento auxiliar, principalmente en disco.
La asignación de espacio puede ser contigua o no contigua. En la primera, previamente hay
que declarar el tamaño del área necesario para contener el archivo. Si el espacio contiguo no está
disponible no podrá crearse el archivo, La segunda asignación se utiliza cuando no se conoce por
adelantado el tamaño que van a tener los archivos. Este tipo de asignación está siendo cada vez más
utilizado por ser más dinámico y flexible.

4.4.5. Otros servicios


– Supervisión de memoria.
– Inicialización del sistema.
– Gestión de un diario de las operaciones del sistema.
– Gestión de la seguridad y accesos.
– Proporcionar una interfaz adecuada para los siguientes elementos:
* Operadores y usuarios.
* Programadores de aplicaciones y administradores de sistemas.
* Hardware y software.

5. ESTRUCTURA DE LOS S.O.


Según la organización interna de los S.O. podemos clasificarlos en diferentes grupos:
– Monolíticos.
– Sistemas de capas.
– Máquinas virtuales.
– Modelo Cliente/Servidor (C/S).
Los sistemas monolíticos son los más extendidos y se caracterizan por no disponer de una
estructura propiamente dicha o por ser mínima. El S.O. consiste básicamente en una colección de
procedimientos que se pueden llamar entre sí.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 285


CONCEPTOS BÁSICOS DE SISTEMAS OPERATIVOS


   

     
   

 






 

      

Esquema de un S.O. monolítico

El programa de usuario genera una llamada al sistema (por ejemplo, para leer de la disquetera).
El S.O. recibe la llamada y la ejecuta mediante varios procedimientos conectados en su interior. Al
final se devuelve el resultado al programa de usuario.
Cada procedimiento tiene una interfaz bien definida en términos de parámetros y resul-
tados. Estos procedimientos facilitan una serie de servicios del sistema, a los que se accede
mediante llamadas al sistema (también denominado supervisor). Veamos con más detalle cómo se
ejecutan esos servicios:
1. Se ejecuta una instrucción especial de llamada al sistema con sus parámetros bien definidos.
2. La instrucción cambia el procesador del modo usuario al modo supervisor (o protegido).
3. Se transfiere el control al S.O., que examina los parámetros de la llamada y determina qué
función se desea realizar.
4. El S.O. ejecuta la llamada al sistema.
5. La llamada al sistema termina, el procesador cambia a modo normal y el control regresa al
programa del usuario.

5.1. SISTEMAS DE CAPAS


El S.O. se organiza en una jerarquía de capas, cada una construida sobre la inmediata inferior.
Cada capa se comunica mediante llamadas con sus adyacentes, las inferiores aportando servicios a
las superiores que los solicitan.
El primer sistema con este esquema se desarrolló en 1968 en Holanda por Dijkstra, y se deno-
minó THE, abreviatura de Technische Hogeschool Eindhoven. Las capas de este sistema operativo se
muestran a continuación junto a una breve descripción de sus funciones:

5 Operador
4 Programas del Usuario
3 Control de Entrada/Salida
2 Comunicaciones Operador - Proceso
1 Administración de la Memoria y del Disco
0 Asignación del Procesador y Multiprogramación
Estructura del S.O. en capas THE

286 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


CONCEPTOS BÁSICOS DE SISTEMAS OPERATIVOS

Una generalización más avanzada del concepto de capas se


presentó en el S.O. Multics, desarrollado por MIT, Bell Labs y
General Electric en Estados Unidos. Multics es la abreviatura de
Multiplexed Information and Computing Service.
Presenta una estructura en anillos concéntricos. Un proce-
dimiento de un anillo exterior reclama los servicios de un anillo
interior mediante el equivalente a una llamada al sistema.

5.2. MÁQUINAS VIRTUALES


Existe un elemento central llamado monitor de la máquina
virtual que:
– Se ejecuta en el hardware.
Modelo en anillo del S.O. Multics. Las
– Realiza la multiprogramación. flechas hacia el interior representan
– Proporciona varias máquinas virtuales a la capa superior. llamadas de los anillos exteriores hacia
los servicios de los anillos interiores.
Las máquinas virtuales son una estrategia del sistema opera- Las flechas hacia el exterior son las res-
tivo que hace creer a los procesos de usuario que se dispone de puestas de éstos
varias máquinas reales. Para ello proporcionan copias “exactas” del
hardware, con su modo protegido/usuario, sistema de entrada/sali-
da, interrupciones y todo lo demás que posee una máquina real.
Las distintas máquinas virtuales pueden ejecutar incluso otros S.O. distintos que se ejecutarían
de forma directa sobre el hardware, por ejemplo, uno llamado CMS (Conversational Monitor System).
El S.O. más significativo con esta estructura es el VM/370 de IBM.
NOTA: VM son las iniciales de Virtual Machine (máquina virtual).

              

  

 
   

   
     

Estructura de un ordenador 370 de IBM con S.O. VM/370 que permite a su vez la ejecución
de varios S.O. CMS. Estos últimos ofrecen al usuario y sus aplicaciones la ilusión de varias máquinas
reales cuando realmente sólo existe una. Son las máquinas virtuales

Cuando un programa CMS ejecuta una llamada al sistema ocurre:


– La llamada es atrapada por el S.O. en su propia máquina virtual sin pasar directamente al
VM/370.
– CMS proporciona las instrucciones necesarias para efectuar una llamada al VM/370.
– VM/370 recibe la llamada y la ejecuta sobre el hardware verdadero.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 287


CONCEPTOS BÁSICOS DE SISTEMAS OPERATIVOS

5.3. MODELO CLIENTE/SERVIDOR


Una tendencia en los S.O. modernos es la de trasladar la mayor parte del código a capas supe-
riores y mantener un núcleo mínimo (o microkernel). La mayoría de las funciones del S.O. quedan
entonces implantadas como procesos de usuarios según el esquema siguiente:

 
  

  
  
  
         
      
 
 



Estructura de un S.O. cliente/servidor. Sólo se mantienen en el núcleo las partes más importantes,
el resto de los servicios se tratan como procesos de usuario. En la figura un proceso de usuario (cliente) solicita
un servicio al servidor de memoria. Los mensajes que se utilizan se suelen denominar PRIMITIVAS

Los procesos se envían solicitudes y respuestas mediante mensajes que gestiona el núcleo. La
gran ventaja de este diseño es que cada parte es más pequeña y manejable, además de ganar en
independencia en cuanto al resto del sistema. En definitiva, estamos aplicando el diseño modular a
los sistemas operativos.
El modelo de cliente/servidor es una forma de describir la iteración entre procesos a través del
paso de mensajes. En la forma más simple de este modelo, el sistema tiene sólo dos tipos mensajes
o primitivas: Enviar y Recibir. La primera primitiva indica el destino, un mensaje y ciertos paráme-
tros, la segunda indica la procedencia del mensaje y provee un buffer donde se almacena cualquier
información que resulte de la ejecución del servicio solicitado.
Este diseño permite que los servidores no sean dependientes de un fabricante o arquitectura
particular, incluso el usuario puede escoger o programar sus propios servidores. La mayoría de los
sistemas operativos que usan este esquema manejan los recursos del ordenador como si fueran ob-
jetos: los servidores ofrecen una serie de ‘llamadas’ o ‘métodos’ utilizables con un comportamiento
coherente y estructurado.
Otro aspecto a destacar es que si los servidores se ejecutan como procesos en modo usuario,
entonces no tienen acceso directo al hardware. Los posibles errores se aíslan y se acotan con más
facilidad.

5.4. S.O. DE RED Y DISTRIBUIDOS


El diseño e investigación de herramientas para los sistemas operativos centralizados convencio-
nales, los cuales corren en sistemas de uno o varios procesadores, está muy bien entendido. Sin
embargo la proliferación de estaciones de trabajo personales y redes de área local ha llevado al desa-
rrollo de nuevos conceptos: sistemas operativos en red y sistemas operativos distribuidos.
Antes de empezar no hay que confundir un Sistema Operativo de Red con un Sistema Operativo
Distribuido:
– En un Sistema Operativo de Red los ordenadores están interconectados por medios de
comunicación y disponen de recursos de red (tarjetas de red, protocolos, unidades remotas,
etc.). El S.O maneja estos recursos como parte del sistema ampliando sus servicios. Los
usuarios saben dónde están ejecutando su trabajo y guardando su información.
– En cambio en los Sistemas Operativos Distribuidos existe un software que distribuye las
tareas de los usuarios sobre una red de ordenadores y para los usuarios es transparente
dónde realizan sus tareas y guardan su información.

288 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


CONCEPTOS BÁSICOS DE SISTEMAS OPERATIVOS

Existen dos esquemas básicos de estos sistemas:


– Un sistema fuertemente acoplado es aquel que comparte la memoria y un reloj global,
cuyos tiempos de acceso son similares para todos los procesadores.
– En un sistema débilmente acoplado los procesadores no comparten ni memoria ni reloj;
cada uno cuenta con estos recursos localmente.
El diseño cliente/servidor se puede adaptar con naturalidad a los sistemas distribuidos, donde
diferentes partes del S.O. coexisten en distintas máquinas:

 
 

  


    
   

   

Un S.O. distribuido reparte sus componentes entre una serie de ordenadores conectados en red.
El esquema de funcionamiento es similar al anterior, pero ahora los mensajes viajan entre ordenadores distintos

Si un cliente se comunica con un servidor mediante mensajes:


– No necesita saber si el mensaje se atiende localmente o mediante un servidor remoto, situa-
do en otra máquina conectada.
– Envía una solicitud y obtiene una respuesta de forma totalmente transparente a los meca-
nismos de comunicación de la red, como si el servicio lo hubiese prestado un módulo en su
mismo ordenador.
Por el contrario, pueden ocurrir retrasos si la infraestructura de red se encuentra muy sobrecargada.

5.5. S.O. MULTIPROCESADOR


Los Sistemas operativos multiprocesadores nacen con el objetivo de aumentar las prestacio-
nes del ordenador, ya que con varios procesadores se puede llevar adelante una mayor cantidad de
trabajo por unidad de tiempo. Además, el ordenador puede seguir funcionando con algún procesador
averiado, aumentando así la fiabilidad del sistema.
Los sistemas multiprocesadores se clasifican como sigue:
– Multiprocesadores con acoplamiento débil. Sistemas formados por procesadores rela-
tivamente independientes; cada uno tiene su propia memoria y sus canales de E/S, por lo
que están más cerca de los sistemas distribuidos que de los multiprocesadores propiamente
dichos.
– Procesadores especializados. Sistemas formados por un procesador principal, de aplica-
ción general, y una serie de procesadores especializados, que colaboran con el principal rea-
lizando labores específicas, por ejemplo. coprocesadores aritméticos, procesadores gráficos,
de Entrada/Salida, etc.
– Multiprocesadores con acoplamiento fuerte. Sistema con varios procesadores que com-
parten la memoria y que trabajan de forma integrada bajo el mismo sistema operativo.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 289


CONCEPTOS BÁSICOS DE SISTEMAS OPERATIVOS

Estos sistemas han promovido también el desarrollo de aplicaciones paralelas (formadas por
varios procesos que trabajan conjuntamente). Aunque es posible realizar estas ideas usando siste-
mas monoprocesadores mediante técnicas de multitarea, los sistemas multiprocesadores poseen la
capacidad real de ejecutar varias actividades simultáneamente.
Existen diferentes grados de paralelismo en estas aplicaciones:
– Procesos independientes. No hay sincronización. Los procesos no comparten elementos,
como ocurre entre los diferentes usuarios de un sistema de tiempo compartido. Por tanto, la
existencia de varios procesadores aporta solamente mayor rendimiento.
– Interacción baja o débil. Existe muy poca sincronización entre los diferentes procesos.
Prácticamente, es similar al tratamiento de procesos concurrentes en un sistema monopro-
cesador, pero con multiprogramación. Se llama también paralelismo de grano grueso.
– Interacción media (o de grano medio). Las aplicaciones muestran mayor grado de sincro-
nización que la concurrencia, por ejemplo operaciones de E/S o de cálculo en paralelo.
– Interacción alta o fuerte. Los distintos elementos presentan una mayor integración requi-
riendo sincronizaciones muy frecuentes (cada pocas decenas de instrucciones). Se denomi-
na también paralelismo de grano fino.
Los S.O. multiprocesadores tratan a los procesadores según las siguientes modalidades:
– Sistema amo/esclavo. Las funciones centrales del S.O. están
reservadas en exclusividad a un procesador determinado (amo).
El procesador amo asigna procesos a los esclavos. Cuando el
proceso solicita una operación de E/S, el procesador esclavo
envía una petición al amo y espera que éste le atienda.
El amo coordina las peticiones y resuelve los conflictos que
puedan ocurrir entre los esclavos. Por tanto, el S.O. presenta
pocas variaciones respecto a un S.O. con multiprogramación
para sistemas monoprocesadores, por lo que su realización es
sencilla. Sin embargo, presenta dos inconvenientes:
* En sistemas con muchos procesadores y cargas de trabajo al-
tas, el amo llega a ser el cuello de botella del sistema, dejando
a los esclavos a la espera de su decisión o de su acción.
* Si el amo se avería se inutiliza todo el sistema.
– Sistema simétrico. El S.O. completo funciona en cualquier
procesador que lo necesite. En otras palabras, si un procesa- Sistema amo/esclavo, donde
un procesador reparte las ta-
dor no tiene trabajo elegirá el proceso a tratar a continuación. reas pendientes entre el resto
Igualmente, si el proceso solicita una operación de E/S, el pro- de los procesadores
pio procesador ejecuta las instrucciones de S.O. que corres-
pondan.

Sistema simétrico. Cuando un procesador queda libre acude


a la cola y toma la siguiente tarea pendiente

290 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


CONCEPTOS BÁSICOS DE SISTEMAS OPERATIVOS

Además de estas dos soluciones típicas, existen también soluciones intermedias o mixtas, como
aceptar la ejecución del núcleo en un subconjunto de procesadores, establecer una jerarquía de
procesadores a tres niveles, y otras.
La asignación de tareas a los procesadores por parte del S.O. puede ser:
– Estática. El criterio de asignación de los procesos a los procesadores se ejecuta una sola
vez. Por tanto, cada proceso permanece vinculado a un procesador hasta su terminación.
En consecuencia, cada procesador gestiona sus propias colas de procesos preparados, en
espera de E/S, etc.
– Dinámica. Se mantienen listas de procesos unificadas para todos los procesadores. Por
tanto, sólo hay una lista de procesos preparados. Cuando un procesador queda libre, acude
a ella y retira el siguiente proceso pendiente.

6. CLASIFICACIÓN DE LOS S.O.


Con el paso del tiempo los S.O. se han clasificado de diferentes maneras, dependiendo del uso
o de la aplicación que se les daba. A continuación se mostrarán brevemente los diversos tipos exis-
tentes en la actualidad, con algunas de sus características:
– S.O. por lotes: Se reúnen todos los trabajos comunes para realizarlos al mismo tiempo,
evitando la espera de dos o más trabajos como sucede en el procesamiento en serie. Estos
sistemas son de los más tradicionales y antiguos, y fueron introducidos alrededor de 1956
para aumentar la capacidad de procesamiento de los programas.
– S.O. de tiempo real: Son aquellos en los cuales no tiene importancia el usuario, sino los
procesos. Por lo general, están subutilizados sus recursos con la finalidad de prestar aten-
ción a los procesos en el momento que lo requieran. Se utilizan en entornos donde son
procesados un gran número de sucesos o eventos.
– S.O. de multiprogramación (o multitarea): Se distinguen por sus habilidades para poder
soportar la ejecución de dos o más trabajos activos (que se están ejecutado) al mismo tiem-
po. Esto trae como resultado que la Unidad Central de Procesamiento (CPU) siempre tenga
alguna tarea que ejecutar, aprovechando al máximo su utilización.
– S.O. de tiempo compartido: Permiten la simulación de que el sistema y sus recursos son
todos para cada usuarios. El usuario hace una petición a la computadora, ésta la procesa
tan pronto como le es posible, y la respuesta aparecerá en la terminal del usuario.
– S.O. paralelos: En estos tipos de S.O. se pretende que cuando existan dos o más procesos
que compitan por algún recurso se puedan realizar o ejecutar al mismo tiempo.
– S.O. distribuidos: Permiten distribuir trabajos, tareas o procesos, entre un conjunto de pro-
cesadores. Puede ser que este conjunto de procesadores esté en un equipo o en diferentes,
en este caso es trasparente para el usuario.
Los sistemas distribuidos deben de ser muy confiables, ya que si un componente del sistema
se estropea otro componente debe de ser capaz de reemplazarlo.
Características de los S.O. distribuidos:
* Colección de sistemas autónomos capaces de comunicación y cooperación mediante
interconexiones hardware y software.
* El objetivo clave es la transparencia.
* Generalmente proporcionan medios para la compartición global de recursos.
* Servicios añadidos: denominación global, sistemas de archivos distribuidos, facilidades
para distribución de cálculos (a través de comunicación de procesos internodos, llama-
das a procedimientos remotos, etc.).
– S.O. de red: Son aquellos sistemas que mantienen a dos o más computadoras unidas a
través de algún medio de comunicación (físico o no), con el objetivo primordial de poder
compartir los diferentes recursos y la información del sistema.
– Sistemas Multiprocesador: Gestionan un ordenador con varias CPUs, coordinando y repar-
tiendo los procesos entre ellos.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 291


CONCEPTOS BÁSICOS DE SISTEMAS OPERATIVOS

7. SEGURIDAD EN LOS S.O.


Los S.O. requieren tener una buena seguridad informática, tanto del hardware como sobre los
programas y datos. Con el fin de asegurar la integridad y seguridad de la información se debe realizar
un balance de los requerimientos y mecanismos necesarios; muchos de ellos los aportarán los S.O.
Los mecanismos más extendidos que proveen los S.O. para garantizar la seguridad son los si-
guientes:
– Autentificación mediante palabras de paso.
– Compartición de recursos a grupos autorizados.
– Definición de políticas de acceso según un esquema jerárquico o de trabajo en grupos.
– Disponibilidad de sistemas de salvaguarda de la información.

8. TÉCNICAS DE LOS S.O.


Las técnicas que veremos a continuación no son excluyentes entre sí, más bien son complemen-
tarias y de hecho coexisten en los modernos S.O.. Lógicamente el proceso evolutivo de mejoras y
adaptaciones que sufren los S.O. ha hecho que algunas técnicas vayan quedando en desuso. Estu-
diaremos esta evolución a continuación del presente apartado.

8.1. PROCESOS BATCH


Hasta mediados de la década de los sesenta, los procesos que un ordenador ejecutaba necesi-
taban poca intervención de los operadores (personal encargado de la operación del ordenador). Se
le asignaban una serie de trabajos que quedaban almacenados en una cola del sistema a la espera
de que el ordenador terminara el trabajo anterior. Los resultados se recogían una vez finalizado el
proceso completo. A esta modalidad de trabajo se le denomina BATCH.
Sin embargo el sistema descrito pronto mostró ciertos inconvenientes, debidos sobre todo a
que el operador no tenía control sobre un proceso lanzado hasta que éste finalizase o, por alguna
razón, fallase. Era necesario cierto nivel de “diálogo” entre el ordenador y el usuario, creándose así
los procesos llamados conversacionales o interactivos, en los que se incrementa la comunicación
entre el sistema operativo o programas y el operador. Esta comunicación se realizaba generalmente
por medio de mensajes en una consola por parte del ordenador, y por medio de órdenes introducidas
mediante un teclado por parte del operador.

8.2. CANALES DE ENTRADA/SALIDA


Son sistemas de propósito especial, dedicados al manejo de la entrada/salida con independencia
del procesador principal. Tienen acceso directo al almacenamiento principal para almacenar o recu-
perar información.
Estos sistemas evitan al procesador principal la mayor parte de la carga de manejar la entrada/
salida, incrementando el tiempo disponible para otras tareas.
NOTA: las operaciones de entrada/salida (abreviadas como E/S), se refieren a
la transferencia de información del ordenador a los periféricos de almacenamiento
y viceversa.

8.3. PROCESADORES SATÉLITE: ON Y OFFLINE


En los primeros ordenadores, el procesador de los ordenadores es varios órdenes de magnitud
más rápido que las unidades periféricas que manejaban las tarjetas o que las impresoras que impri-
mían los resultados. En la actualidad este fenómeno todavía ocurre, pero diversas técnicas y el avan-
ce en la tecnología de los periféricos lo han atenuado respecto a los primeros días de la informática,
cuando todavía se seguía desperdiciando mucho tiempo de procesador.

292 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


CONCEPTOS BÁSICOS DE SISTEMAS OPERATIVOS

Todo ello desembocaba en grandes períodos de tiempo durante los que el procesador se queda-
ba ocioso esperando la finalización de alguna tarea de entrada/salida. Debido a los elevados costos
de los ordenadores de entonces, era prioritario sacarles el máximo partido, por lo que se diseñaron
métodos para evitar este fenómeno. El más relevante fue conectar al ordenador un dispositivo rápido
intermedio que simulase la operación de entrada/salida, de forma que el procesador quedase libre
rápidamente. Posteriormente el dispositivo intermedio se conectaba al periférico lento, tratándose
realmente la operación de entrada/salida off-line.
Operación en línea (ON-LINE): los periféricos utilizados están conectados al
procesador.
Operación fuera de línea (OFFLINE): los periféricos utilizados están conecta-
dos a unidades de control independientes del sistema central o principal.

A)
  


    


B)
  


  
 

C)

La figura A representa un proceso ON-LINE, donde el ordenador se conecta directamente a un dispositivo lento. El procesador
tendrá entonces que esperar hasta que termine el proceso de impresión.
En la figura B se representa la primera fase de un proceso OFF-LINE, donde los datos a imprimir
se escriben en una unidad de cinta, dispositivo rápido en comparación con la impresora,
por lo que la operación termina antes y libera al procesador.
Por último, en la figura C tenemos la segunda fase, donde el procesador ya no tiene que esperar la impresión, puesto que ésta
se realiza desde la unidad de cinta a la impresora.

En una fase posterior se sustituyeron las unidades de cinta por pequeños ordenadores de apoyo
especializados en operaciones de entrada/salida, lo que aceleró el proceso a costa de un aumento
de costes, lo cual, debido a la continua bajada de precios ya experimentada desde entonces, no
resultaba demasiado importante.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 293


CONCEPTOS BÁSICOS DE SISTEMAS OPERATIVOS

8.4. MANEJO DE LOS DISPOSITIVOS DE E/S


El código de un S.O. que controla las operaciones E/S en los diferentes periféricos es de una
extensión considerable y sumamente complejo. Resuelve la necesidades de sincronizar, atrapar inte-
rrupciones y ofrecer llamadas al sistema para los programadores.
Los dispositivos de entrada/salida se dividen, a su vez, en dos tipos:
– Dispositivos orientados a bloques: tienen la propiedad de que se pueden direccionar;
esto es, el programador puede escribir o leer cualquier bloque del dispositivo realizando pri-
mero una operación de posicionamiento sobre el dispositivo. Los dispositivos más comunes
orientados a bloques son los discos duros, la memoria, discos compactos y, posiblemente,
unidades de cinta.
– Dispositivos orientados a caracteres: son aquellos que trabajan con secuencias de bytes
sin importar su longitud ni ninguna agrupación en especial. No son dispositivos direcciona-
bles. Ejemplos de estos dispositivos son el teclado, la pantalla o display y las impresoras.

8.4.1. Spooling
SPOOL (Simultaneous Peripheral Operation On Line: operación simultánea de periféricos en lí-
nea): almacenamiento de trabajos de E/S en dispositivos transitorios rápidos (discos), para disminuir
el impacto de los periféricos más lentos en el procesador principal.
El problema con los sistemas de cintas es su naturaleza secuencial. Esto impide el acceso si-
multáneo, por ejemplo que una lectora de tarjetas escribiese sobre un extremo mientras la CPU leía
el otro. Los sistemas de disco eliminaron esa dificultad, moviendo la cabeza de un área del disco a
otra con mucha celeridad.
Cuando los ordenadores incorporaron los discos, las tarjetas se leían directamente sobre ellos.
La posición de las imágenes de las tarjetas sobre el disco se registraban en una tabla mantenida por
el S.O.. La ejecución de los trabajos se efectuaba leyendo la información del disco, no de las propias
tarjetas. La salida de resultados se copiaba en el buffer del sistema y posteriormente se escribía en el
disco.
Esta forma de procesamiento se denomina spooling: utiliza el disco como un buffer muy grande
para leer anticipadamente los dispositivos de entrada y para almacenar los ficheros hasta que los
dispositivos de salida sean capaces de aceptarlos.
El spooling evita la demora en la ejecución de programas como conse-
cuencia del uso de periféricos lentos.
El spooling mejora directamente las prestaciones del ordenador. El costo es algo de espacio en
disco y el mantenimiento de algunas tablas, pero permite que la CPU puede simultanear la computa-
ción de un trabajo con la E/S de otros. De esta manera, puede mantener tanto a la CPU como a los
dispositivos de E/S trabajando con un rendimiento mucho mayor.
Una mejora sobre las primeras versiones de spooling consiste en una estructura de datos llama
job spooling, que selecciona el orden de ejecución y posibilita la planificación de trabajos.

8.4.2. Buffering (memoria intermedia)


El buffering es una variante del spooling que utiliza como dispositivo intermedio bancos de me-
moria. La velocidad aumenta espectacularmente, pero debido a que la memoria es un componente
muy caro, el espacio disponible queda a su vez reducido.
La memoria destinada al intercambio de información entre el procesador y los
periféricos se denomina buffer.
Este sistema soluciona en forma parcial el problema de mantener ocupados todo el tiempo la
CPU y los dispositivos de E/S, ya que todo depende del tamaño del buffer y de la velocidad de proce-
samiento tanto de la CPU como de los dispositivos de E/S.

294 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


CONCEPTOS BÁSICOS DE SISTEMAS OPERATIVOS

El manejo de buffer es complicado. Uno de los principales problemas reside en determinar tan
pronto como sea posible que un dispositivo de E/S ha finalizado una operación. Este problema se re-
suelve mediante las interrupciones. Tan pronto como un dispositivo de E/S acaba con una operación
interrumpe a la CPU, que detiene la tarea en curso e inmediatamente transfiere el control a una rutina
especial de tratamiento de interrupciones.
La rutina de servicio de interrupción comprueba si el buffer no está lleno o no está vacío y de
esta manera inicia la siguiente petición de E/S. La CPU puede continuar entonces el proceso inte-
rrumpido.

8.5. ACCESO DIRECTO A LA MEMORIA (DMA)


Esta técnica evita la intervención del procesador en operaciones de movimiento masivo de datos,
realizándose directamente entre la memoria y los periféricos.
Requiere una sola interrupción al procesador por cada bloque de caracteres transferidos durante
la operación de E/S, lo cual mejora significativamente el rendimiento.

8.6. MULTIPROGRAMACIÓN
Un problema de los antiguos S.O. es que debían terminar un proceso antes de comenzar con el
siguiente. Este es el fundamento del procesamiento por lotes.
Cuando existen múltiples usuarios accediendo a la vez al ordenador, es muy probable que se
necesite ejecutar más de un proceso a la vez. Esto se consigue con las técnicas de multiprograma-
ción, que permiten al procesador repartir su tiempo entre varios procesos. El S.O. dirige este proceso
mediante diversas políticas de asignación.

8.7. TIEMPO COMPARTIDO (TIME SHARING)


Esta técnica es una variante de la multiprogramación que permite a varios usuarios estar conec-
tados a un ordenador simultáneamente por medio de terminales. Los terminales solicitan los recursos
del ordenador y el S.O. se encarga de gestionar y atender las peticiones de los distintos usuarios.
Este modo de funcionamiento permite operaciones en modo interactivo o conversacional, donde
la comunicación entre usuario y ordenador se produce al instante (en contraposición a los sistemas
de procesamiento por lotes).

8.8. Tiempo real


Aunque se puede pensar que la técnica de multiprogramación prolonga los tiempos de ejecución
de los procesos (ya que el procesador comparte su tiempo entre varios de ellos), esto rara vez ocurre.
La multiprogramación aprovecha los huecos de espera característicos de los procesos interactivos,
así como los de las operaciones de entrada/salida, etc.
En resumen, aunque existan veinte usuarios accediendo de forma simultánea al ordenador, todos
ellos tienen la impresión de que trabajan en exclusiva y de que el sistema responde rápidamente a
sus peticiones, idea que se conoce como procesamiento en tiempo real.
NOTA: los sistemas de tiempo real requieren tiempos de respuesta muy exi-
gentes, y encuentran aplicación especialmente en usos industriales o militares.

8.9. PAGINACIÓN Y MEMORIA VIRTUAL


Cuando se ejecuta un programa la situación mayoritaria es que no se necesita toda la memoria
ocupada por dicho programa; sólo se utiliza una parte en cada instante. El resto son datos e instruc-

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 295


CONCEPTOS BÁSICOS DE SISTEMAS OPERATIVOS

ciones que en ese momento no se utilizan. Este hecho fue estudiado por la teoría informática, que lo
designó como principio de localidad.
El principio de localidad permite tener en memoria real sólo aquella parte de un programa que
realmente se esté utilizando en un momento dado (código activo). El resto se almacena en un fichero
en disco y se carga en memoria únicamente en el momento que se necesite. Esta técnica liberaba
mucha memoria que quedaba disponible para otros programas. Se denominó memoria virtual.
La memoria virtual implica una segmentación de la memoria en bloques o páginas. Todas las
páginas de un programa se colocan consecutivamente en el fichero en disco. Sin embargo, en la me-
moria real solamente estarán las páginas activas, que además no tienen por qué estar contiguas.
Este es el concepto de memoria virtual. Para el programador es como si tuviera disponible toda
la memoria que su programa necesita que se va a “cargar” en posiciones contiguas de la memoria.
La realidad es que está ocurriendo un trasvase de disco a memoria y viceversa a medida que se ne-
cesitan páginas que no estaban presentes.
Los sistemas de almacenamiento virtual permiten a los programas referenciar direcciones que no
necesitan corresponder con las direcciones reales disponibles en el almacenamiento primario.
Las direcciones virtuales desarrolladas por los programas en ejecución son traducidas diná-
micamente por el hardware a las direcciones reales de instrucciones y datos del almacenamiento
principal.
Conjuntamente con la memoria virtual se utilizan las técnica de paginación, que consiste en
transferir bloques de datos de tamaño fijo entre el almacenamiento primario (memoria) y el secun-
dario (unidades de disco).

8.10. MULTIPROCESO
El notable desarrollo de la microelectrónica y del diseño de circuitos han permitido incluir varios
procesadores en un solo ordenador, multiplicando su rendimiento. El S.O. es responsable de distribuir
y coordinar los procesos en los sistemas multiprocesadores.
Cuando varios procesadores comparten un almacenamiento primario común y otros recursos úni-
cos, se hace necesario controlar el acceso a dichos recursos compartido. Para ello existe un módulo
del S.O. que adquiere gran importancia: el planificador de recursos.

8.11. S.O. DE RED Y PROCESO DISTRIBUIDO


Estos S.O. actúan sobre una red de ordenadores conectados. Aumentan las prestaciones en los
servicios de comunicación y se orientan a una filosofía cliente/servidor, donde un potente ordenador
(servidor) ofrece sus servicios a varios ordenadores más modestos (clientes).
En grandes organizaciones la utilización del ordenador personal de forma individual dificulta la
optimización de los sistemas informáticos. La necesidad de compartir recursos y ficheros requiere
nuevas funcionalidades a los S.O..
Esta nueva forma de explotación de los ordenadores da origen a los S.O. de redes locales que tie-
nen una arquitectura multiusuario y multitarea, y que adoptan técnicas avanzadas hasta ese momento
exclusivas de ordenadores más grandes como los minis y mainframes (seguridad, recuperación ante
fallos, etc.).
En los S.O. distribuidos se descartan los sistemas operativos individuales de cada ordenador en
favor de un solo sistema operativo homogéneo para la totalidad de la red. Las principales diferencias
entre ellos son:
– S.O. de red:
* Los usuarios ven el sistema como un conjunto de ordenadores conectados.
* Cada máquina ejecuta su propio S.O. local.

296 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


CONCEPTOS BÁSICOS DE SISTEMAS OPERATIVOS

* Son similares a los S.O. de sistemas individuales pero añaden módulos que controlan la
interfaz de la red y su software de bajo nivel, así como los procesos de conexión y acceso
a archivos remotos, etc.
– S.O. distribuidos:
* Aparece ante los usuarios como un S.O. de un solo procesador, aun cuando dé soporte
a varios procesadores.
* Los usuarios no son conscientes del lugar donde se ejecutan sus programas o donde se
encuentran sus archivos.
* Deben permitir que un programa se ejecute mediante varios procesadores a la vez,
maximizando el paralelismo.

8.12. ENTORNOS O INTERFACES GRÁFICOS


Los entornos operativos actuales son sistemas gráficos que mejoran la comunicación entre el
S.O. y el usuario. Reducen los tiempos de aprendizaje y facilitan el uso del sistema, haciendo más
asequible el ordenador para las personas y aumentando su rendimiento.

9. EVOLUCIÓN DE LOS S.O.


Durante la breve historia de la informática los adelantos teóricos, y sobre todo los tecnológicos,
han hecho avanzar a ritmo trepidante las prestaciones de los ordenadores. Desde los primeros mo-
mentos la necesidad de actualizar los S.O. se hizo patente; al fin y al cabo su labor es controlar al
hardware, por lo que su desarrollo debe realizarse en paralelo.
Los S.O. han estado relacionados históricamente con la arquitectura y tecnología de los orde-
nadores donde se ejecutan. Recordemos que la evolución de los ordenadores se dividía en gene-
raciones, definidas principalmente por los grandes avances en los componentes utilizados. Estas
generaciones definen también los grandes avances en los S.O.:
– Primera generación: válvulas (década de 1950).
– Segunda generación: transistores (primera mitad de la década de 1960).
– Tercera generación: circuitos integrados (segunda mitad de la década de 1960 a la prime-
ra mitad de la década de 1970).
– Cuarta generación: circuitos integrados de gran y muy gran escala (segunda mitad de la
década de 1970 a nuestros días).
Cada generación sucesiva de hardware ha ido acompañada de reducciones sustanciales en los costos,
tamaño, emisión de calor y consumo de energía, y por incrementos notables en velocidad y capacidad.
La división generacional de los ordenadores a lo largo de su historia es también aplicable a los
S.O.; éstos han sufrido una serie de cambios revolucionarios en su evolución que definen ciertas
etapas bien diferenciadas. A medida que los equipos y sistemas operativos evolucionan, cambian las
formas de explotar o utilizar los ordenadores.
NOTA: las etapas de evolución de los S.O. no tienen por qué coincidir exac-
tamente con las generaciones de ordenadores, aunque estén muy influenciadas
por éstas.
A continuación damos una visión general del desarrollo de los métodos de explotación de los
ordenadores que determinan la evolución de los S.O..

9.1. 1940-1955: TRABAJO A TRABAJO


Desde los años 40, fecha en la que se pusieron en funcionamiento los primeros ordenadores, hasta
mediada la década de los 50, la explotación del ordenador la hacía el propio usuario cargando y lanzan-
do cada programa por separado e interviniendo durante el desarrollo del mismo si era preciso.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 297


CONCEPTOS BÁSICOS DE SISTEMAS OPERATIVOS

En aquella época no existían programas de utilidades ni nada que se pareciera a un S.O.. Un


primitivo lenguaje ensamblador que ocupaba muy pocas posiciones de memoria, traducía a binario
el programa del usuario, que éste escribía en un lenguaje parecido al de la máquina y normalmente
en decimal u octal.
El soporte físico del programa ensamblador consistía en un paquete de tarjetas. A la hora de la
ejecución del programa del usuario, este mismo cargaba las tarjetas junto con su programa. La eje-
cución se realizaba en tres pasos que se encadenaban mediante la intervención del operador:
– Introducción del programa en memoria.
– Activación de la ejecución.
– Salida de resultados.
Hasta que no terminaba un programa y se obtenían sus resultados no se iniciaba la carga del
otro. Esta técnica de explotación, trabajo a trabajo, obtenía del ordenador un rendimiento muy bajo
debido a la lentitud que implicaba la intervención humana.

9.2. 1956-1958: SISTEMAS BATCH O PROCESO POR LOTES


En la segunda mitad de la década de los cincuenta se pensó que, agrupando los trabajos en lotes o
secuencias, se podría aprovechar mucho mejor el tiempo de proceso del ordenador. No olvidemos que
en aquellos días el uso del procesador era muy caro y limitado y que las grandes empresas habían inver-
tido mucho dinero en los ordenadores con objeto de obtener resultados que amortizaran la inversión.
Para eliminar los tiempos muertos entre trabajo y trabajo se diseña un programa que realice y
controle el encadenamiento automático de éstos, automatizando tareas que antes había que realizar
manualmente.
NOTA: esta técnica de agrupación de trabajos se denomina con el término
Batch.
Los trabajo seguían agrupándose en secuencias de tarjetas, pero ahora se insertaban otras que
tenían funciones de control. El control se conseguía con instrucciones de un lenguaje de control de
trabajos o JLC (Job Control Language) incluidos en estas tarjetas especiales.
El programa que interpretaba las tarjetas de control se denominó monitor, y puede considerarse
el primer S.O. de la historia. Estos S.O. tenían un diseño primitivo y sus capacidades eran muy limita-
das (en concordancia con los ordenadores de aquella época).

 


  




Secuencia de tarjetas de programas y de datos leídas por un ordenador de la 2.ª generación.


En la secuencia de tarjetas de datos y programas se intercalaban otras con funciones de control para
que el programa monitor pudiese gestionar eficazmente la secuenciación de trabajos

298 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


CONCEPTOS BÁSICOS DE SISTEMAS OPERATIVOS

Una vez superado el problema de la carga de trabajos mediante su agrupación en lotes, se plan-
teó otro problema también relacionado con la velocidad de operación. En efecto, el procesador era
mucho más rápido que las unidades periféricas que manejaban las tarjetas o que las impresoras que
imprimían los resultados. Aunque atenuado el problema original, todavía se seguía desperdiciando
mucho tiempo de procesador.
Para acelerar la operatividad, se ideó el siguiente método: entre el ordenador principal y len-
tos dispositivos de E/S se intercalaba un ordenador satélite que gestionaba las operaciones de
E/S. Esta técnica liberaba al ordenador principal de la lentitud de los lectores de tarjetas y de la
impresora.
El ordenador satélite utilizaba un dispositivo de almacenamiento intermedio que aceleraba el
trasvase de información al principal. Se crearon los procesos OFFLINE para acelerar la disponibilidad
del procesador principal. Para ello disponía de cintas magnéticas para el Batch de entrada y para los
resultados de salida.
NOTA: las cintas magnéticas se sustituyeron por discos cuando la tecnología lo
permitió, alcanzándose así un mayor rendimiento en las operaciones de E/S.
Por otra parte, las operaciones de E/S se realizaban mediante procesos especiales que todos
los programa debían incluir. Se pensó en crear una librería de operaciones de E/S gestionada por el
propio monitor, de forma que se liberaba al programador de tener que programarlas cada vez que
necesitase usarlas. Esta técnica permitió además estandarizar las operaciones de E/S y eliminar el
riesgo de errores.
La iniciativa anterior tuvo gran éxito, así que pronto se generalizó para otros tipos de proceso,
como las rutinas de enlace de los trabajos, las de búsqueda, las de carga, etc. Precisamente otra
mejora consistió en modificar estas últimas dándoles capacidad para reubicar los programas en las
direcciones de memoria más convenientes en un momento dado, y no en posiciones fijas como se
estaba haciendo hasta entonces.
Cuando el número de librerías de rutinas se incrementó, se creó una tabla de índices que acele-
raba el proceso de búsqueda de las rutina. Se introducían así las primeras técnicas de organización
de archivos y directorios.

9.3. 1959-1961: INCORPORACIÓN DE LAS INTERRUPCIONES DE E/S


Entre los años 1959 y 1961 aparecieron los canales y las interrupciones, que constituyeron uno
de los pasos más adelantados en el desarrollo del Hardware.
El canal es un pequeño ordenador situado dentro del propio ordenador principal con un hardware
especializado para el control de las unidades de E/S. El canal recibe instrucciones idénticas a las
del procesador central y gobierna por sí mismo la transferencia de datos de E/S. Según este diseño
podríamos considerar el canal como una evolución de la técnica del ordenador satélite comentada
anteriormente.
Existen interrupciones de varias clases y con fines diferentes, pero su objeto es siempre el mismo:
– Detener momentáneamente un proceso determinado guardando las condiciones en que se
produjo la interrupción.
– Dar paso a un nuevo proceso controlado por una rutina de interrupción.
– Acabado éste, reiniciar el proceso anterior que estaba en espera en las condiciones originales.
Al principio estas rutinas de interrupción eran preparadas por los programadores, pero la gran
dificultad que ello suponía hizo que se ganaralizasen para todas las máquinas por acuerdo entre los
constructores de ordenadores.
Conseguida la universalidad de estas rutinas, el siguiente paso fue su establecimiento permanen-
te en una zona del ordenador denominada en principio supervisor residente de E/S o procesador
de interrupciones para E/S.
Esta medida descargaba el monitor principal, el cargador y los procesadores de lenguaje; obte-
niéndose a la vez una mayor cantidad de memoria útil para los programas del usuario. Sin embargo

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 299


CONCEPTOS BÁSICOS DE SISTEMAS OPERATIVOS

apareció el problema de la conversión de los programas existentes al nuevo sistema: fue necesario
variar todas las instrucciones relativas a E/S.
NOTA: pese a las dificultades, las nuevas técnicas se impusieron con éxito al
conseguir la centralización de las rutinas de E/S y aliviar considerablemente la pro-
gramación por parte del usuario, haciéndola además mucho más flexible.
En esta época se ponen en funcionamiento los sistemas de spooling y buffering (ver detalles de
estas técnicas en apartados anteriores de este mismo tema).
Nuevas soluciones generaban a su vez nuevos problemas. Había que proteger el supervisor de
forma que no fuese dañado por operaciones accidentales, además de incluir los mecanismos ne-
cesarios para que los componentes del S.O. pudieran comunicarse entre sí usando una región fija
predefinida.
La solución se reveló limitando el número de direcciones que un programa podía referenciar. Si
se acota un rango de memoria para cada programa, se asegura que un error en alguno de ellos no
destruya información en el área asignada a otro. Esta técnica es esencial en los sistemas multiusuario
y se implementa mediante los registros límites, que definen las direcciones superior e inferior del
bloque de memoria asignado a un programa.
Una variante menos utilizada del anterior procedimiento consiste en las claves de protección de
memoria, que impiden que un programa acceda a las direcciones de memoria de un determinado
rango si la clave del programa no concuerda con la del bloque de memoria.

9.4. 1962-1964: MULTIPROGRAMACIÓN. AUMENTO DEL RENDIMIENTO


Y CAPACIDAD
Los aumentos de velocidad y rendimiento que produjeron la introducción del transistor en la cons-
trucción de ordenadores, permitieron otro importante salto en el avance y desarrollo del hardware.
Se introduce un nuevo elemento llamado reloj de interrupciones programable. Este apa-
rato es un registro que se incrementa hasta alcanzar un valor prefijado, momento en que la CPU era
interrumpida y se pasaba control al supervisor. Esto servía, entre otras cosas, para evitar que los
programas cayeran en un bucle infinito que bloqueara el ordenador.
NOTA: más tarde el reloj pudo ser inicializado en el sentido de poder guardar
no solamente el tiempo de ejecución programado, sino también el tiempo real.
Otro impacto de esta época fue la aparición de ficheros de discos y su aplicación como soporte
del supervisor. El disco permitía un acceso mucho mas rápido que el acceso secuencial característico
de las cintas. Ello implicaba llamadas más rápidas a los distintos módulos, con un ahorro sustancial
del tiempo de proceso. Además, dada la gran capacidad de almacenamiento en disco, se facilitaba
la posibilidad de un aumento en el número de estos módulos.
La estructura del S.O. varió: había un supervisor residente y un monitor primario con actividades
diferentes. El monitor primario controlaba la actividad de los subsistemas o módulos existentes, lla-
mándolos y recibiendo el control cuando terminaban su trabajo.
A pesar de todo, estos métodos de explotación no admitían más que la ejecución simultánea de
un solo trabajo. Seguía presentándose el inconveniente de un bajo rendimiento del procesador (de un
funcionamiento extraordinariamente rápido) debido a los numerosos tiempos de espera por la lentitud
de los periféricos de E/S.
Aprovechando las ventajas de los canales de EIS y de las interrupciones, se produce otro importan-
te desarrollo técnico: la implantación en los grandes ordenadores de los S.O. de multiprogramación.
La multiprogramación consistía en la ejecución de más de un programa simultáneamente en un solo
ordenador. La actividad concurrente del canal de E/S, de los programas y del procesador central permitía
la multiprogramación. En efecto, podía haber un programa ejecutándose en el procesador mientras otro
esperaba los tiempos muertos de las operaciones de E/S. Una vez terminada éstas el control se pasa del
programa activo (que pasa a un estado inactivo) al que estaba esperando la operación de E/S.

300 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


CONCEPTOS BÁSICOS DE SISTEMAS OPERATIVOS

Esta técnica resultó especialmente útil en grandes sistemas con multitud de terminales, donde
los tiempos de espera entre pulsación y pulsación de los teclados de dichos terminales era suficiente
para poder atender multitud de usuarios simultáneamente.
NOTA: realmente la multiprogramación no ejecuta programas de forma estric-
tamente simultánea, sino que va cambiando la atención del procesador de uno a
otro sucesivamente. Estas alternancias se producen tan rápidamente que la sensa-
ción para los usuarios es que están trabajando a la misma vez.
La ventaja de la multiprogramación era que reducía considerablemente el tiempo de espera de
un programa al obtener un mejor aprovechamiento del procesador central; eliminaba los tiempos
muertos mientras se procesaban operaciones de entrada y salida.
Los sistemas multiprogramados están organizados mediante colas y listas de tareas y recursos,
incluyendo el procesador central y otros elementos necesarios para el servicio. La descripción de
colas de trabajo y los directorios de los ficheros para el sistema y el usuario son también mantenidos
por el sistema.
Otra función del supervisor es establecer métodos que controlen y coordinen la conmutación de
tareas, que se realiza mediante un módulo especial del supervisor denominado planificador. Este
tipo de supervisor es mucho más sofisticado y complicado que los encontrados hasta ahora en los
S.O. convencionales.
Si las interrupciones de E/S permitieron la multiprogramación, el incluir el reloj dio lugar a utilizar
interrupciones por tiempo, lo cual permitió explotar los ordenadores en una nueva modalidad, llamada
tiempo compartido.
Esta técnica consiste en utilizar el ordenador por muchos usuarios a la vez dando la impresión
de que es utilizado en exclusividad. Se establecen tiempos muy pequeños que, una vez transcurri-
dos, interrumpen el trabajo de la CPU para atender a otro. Estas interrupciones frecuentes de los
trabajos con objeto de servir a otros permiten una adecuada respuesta “on line” a los usuarios que
lo requieran.
NOTA: estos sistemas de tiempo compartido operen en un modo interactivo o
conversacional con los usuarios.
La idea de la explotación de los ordenadores en tiempo compartido surge como consecuencia
del alto coste de los equipos. Sólo las grandes empresas pueden disponer de ellos, siendo un lujo
incalculable para aquellas cuyo capital no era tan voluminoso. Con esta técnica, se pueden compartir
estos ordenadores entre varias empresas o grupos de usuarios, los cuales utilizan todos los recursos
del ordenador como si se tratara de su propiedad, dividiendo los costes entre todos.
En esta época también aparecen los sistemas de tiempo real, cuya característica fundamental
consiste en dar una respuesta tan rápida como lo requiera el proceso.

9.5. 1965-1968: OPTIMIZACIÓN


Este periodo no se caracteriza por producirse cambios sensacionales, sino más bien por un
refinamiento de las técnicas existentes. Por ejemplo, los ordenadores personales actuales están ge-
neralmente provistos con un S.O. comparable a los que se encontraba hace pocos años solamente
en los ordenadores muy grandes.
Los sistemas operativos de esta época eran sistemas que podían trabajar en modos múltiples
(proceso por lotes y multiprogramación) e incluso tienen la posibilidad de soportar tiempo compartido,
tiempo real y multiproceso.
El avance más importante fue la independencia de dispositivo, que consistía en una abs-
tracción por parte del usuario sobre las unidades de E/S que se estaban utilizando. El S.O. crea un
entorno en el que no es necesario conocer las peculiaridades técnicas de cada uno de los dispositivos
para poder manejarlos (tipo de acceso, velocidad de respuesta, etc.). Ahora el usuario disponía de
una referencia genérica que utilizaba fácilmente y el S.O. se encargaba de los detalles más tedio-
sos.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 301


CONCEPTOS BÁSICOS DE SISTEMAS OPERATIVOS

Los adelantos en las tecnologías de construcción de discos permitieron a los usuarios construir estruc-
turas de grandes y complejos ficheros para usar con sus programas, ahorrándose las múltiples manipula-
ciones que había que efectuar cuando los ficheros eran almacenados en soportes independientes.
Aparecen entonces grandes directorios de ficheros privados y públicos, y provistos, generalmente,
de rutinas particulares para conseguir el acceso a esta información. Estos ficheros eran especialmen-
te necesarios y útiles para aquellos sistemas operativos que permitían el uso de tiempo compartido.
El hecho de poder compartir el ordenador por varios usuarios, así como el uso indiscriminado de
los discos para almacenar tanto programas como datos, presenta problemas adicionales de protec-
ción para el supervisor.
Estos ficheros deben ser protegidos contra las inadvertidas grabaciones, modificaciones y acce-
sos, bien por el propio usuario del fichero o bien por otro.
Asimismo, estos sistemas exigen una previsión de reaccionar cuando se presenta la posibilidad
de que dos o más programas de los usuarios, simultáneamente, deseen usar el mismo fichero. Se
crean unas rutinas que establecen la prioridad de acceso.
Como consecuencia también de la multiprogramación, pensando en la reducción del tiempo a
la hora de introducir o sacar los programas de la memoria, se comienza a desarrollar el método de
fragmentación física de la memoria en páginas (paginación).
Esta técnica dividía la memoria en porciones, con trabajos distintos en cada una de ellas. Poste-
riormente se implementaron sistemas de protección por hardware del contenido de cada partición de
memoria, garantizando así que los posibles errores en un programa no afectase a los demás.

9.6. 1969-1975: IMPLANTACIÓN DE LOS SISTEMA DE COMUNICACIÓN


Las nuevas modalidades de explotar los ordenadores (multiprogramación, tiempo compartido y
tiempo real), estaban diseñadas pare el acceso exclusivo de usuarios locales, es decir en las proxi-
midades inmediatas del ordenador central. Ahora se plantea la posibilidad de hacerlas extensibles a
usuarios en puntos remotos. Para ello se implantan las primeras grandes redes de comunicaciones
para el teleproceso.
Como consecuencia, los S.O. evolucionan para afrontar las características propias de los siste-
mas de teleproceso, adoptando las siguientes técnicas:
– Entrada y/o salida a distancia.
– Entrada al azar.
– Proceso inmediato de transacciones.
– Tiempo de respuesta rápido.
– Múltiples usuarios simultáneos.
– Mantenimiento de los datos “on-line”.
Por otro lado, la multiprogramación, y por consiguiente el tiempo compartido, obliga a tener
varios programas activos en la memoria principal. Al ser ésta limitada, hacía que el número de pro-
gramas también fuera limitado. Para solucionar este problema se implanta la memoria virtual como
forma de optimizar la utilización del recurso de memoria real.

9.7. 1980-ACTUALIDAD: INFORMÁTICA PERSONAL, REDES Y PROCESOS


DISTRIBUIDOS
La aparición de los microprocesadores supone un hito fundamental en el desarrollo de la infor-
mática. Como consecuencia directa da lugar al nacimiento de los ordenadores personales, invento
decisivo para la expansión de la informática a gran escala.

302 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


CONCEPTOS BÁSICOS DE SISTEMAS OPERATIVOS

Frente a los grandes y complejos sistemas operativos que hasta ahora se venían construyendo
hay una tendencia en la simplificación de los diseñados para estos equipos, que no requieren tantas
funcionalidades.
Mientras que todos los sistemas operativos, hasta ahora, eran construidos pensando en una
determinada máquina, aparece UNIX como excepción, cuyas características principales son:
– Multiprogramable de tiempo compartido.
– Posibilidad de adaptarse fácilmente a diferentes ordenadores de distintas plataformas.
– Archivos jerárquicos con protección total.
– Independencia de dispositivos.
– No se distingue entre programas de usuario y de sistema, ni en capacidad ni en uso, excepto
por las restricciones impuestas por la protección de archivos.
– Construcción de programas basados en otros ya existentes encaminando las salidas de uno
a la entrada de otro.
La simplicidad de los S.O. para los ordenadores personales es todavía más destacada, ya que
están pensados para un entorno de trabajo mucho más reducido. Su explotación difiere notablemente
de aquella de los grandes sistemas: son esencialmente monousuario y monoprogramación.
En esta época se implantan de forma masiva las grandes redes de ordenadores y los procesos
on- line, permitiendo a los usuarios tener acceso a ordenadores alejados geográficamente a través
de varios tipos de terminales.
Los tipos más comunes de redes son:
– Comunicación remota: dispone de medios para que los usuarios puedan acceder a insta-
laciones remotas lo más económicamente posible.
– Recursos compartidos: además de los recursos periféricos de cada ordenador, la red faci-
lita otros recursos compartidos (impresoras, unidades de almacenamiento, etc.).
– Proceso distribuido: permite distribuir las tareas de un proceso por los diferentes ordena-
dores de la red.
Los S.O. de esta época deben ir incorporando los diferentes protocolos de comunicación que
permitan a los ordenadores comunicarse con los interconectados a la red, de una forma apropiada y
económicamente efectiva.
Otro aspecto que deben contemplar los S.O. es la protección de los datos en las comunicaciones
debido a su vulnerabilidad. Para ello se utilizan algoritmos de codificación para encriptar la informa-
ción como DES y RSA.
La proliferación de los ordenadores personales es masiva y, por lo general, se les dota con todo
tipo de interfaces de comunicación de datos y emulaciones, dándoles la posibilidad de conectarse a
cualquier red y ser utilizados como terminal de cualquier ordenador.
Otras características de esta época son:
– Las interfaces o ambientes de usuario, altamente simbólicos, mnemónicos y orientados
hacia las siglas de las décadas de los sesenta, setenta y ochenta, han sido reemplazados
actualmente por interfaces gráficas altamente intuitivas.
– Los sistemas de bases de datos adquieren una gran importancia, potenciándose el uso de
las bases de datos relacionases a medida que aumenta la velocidad, la capacidad de me-
moria de los ordenadores y las posibilidades que ofrecen las redes.
– Cada vez toman más fuerza los sistemas orientados a objetos, distinguiéndose de los tra-
dicionales en que la programación orientada a objetos no contempla al objeto como un
conjunto de datos pasivos sino como la combinación de su estado y de los métodos que lo
manipulan.
– Hasta la década de los ochenta los esfuerzos y mejoras en el diseño de los S.O. se habían
canalizado al objetivo de aumentar el rendimiento en la explotación de los procesadores.
Sin embargo, a partir de ese momento se produce un cambio en las tendencias, tomando

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 303


CONCEPTOS BÁSICOS DE SISTEMAS OPERATIVOS

relevancia otros aspectos como el aumento de la seguridad y de los servicios y prestaciones


orientados al usuario.
– Multiprocesamiento: varios procesadores se utilizan en un mismo sistema para incrementar
el poder de procesamiento.
– Gran énfasis en la seguridad, en especial por el desarrollo de los sistemas de comunicacio-
nes de datos.
– El S.O. crea un ambiente de trabajo según el concepto de máquina virtual, que lo aísla com-
pletamente al usuario o programador del funcionamiento interno de la máquina.
– Aplicación profusa de las técnicas de DMA (Acceso directo a memoria).

Tendencias
Cierto número de tendencias parecen definirse claramente en el camino hacia los sistemas
informáticos del futuro inmediato. Exponemos primeramente estas tendencias para a continuación
centrarnos en los S.O.:
– El hardware continuará declinando en precio, mientras que las velocidades de procesamien-
to y las capacidades de almacenamiento aumentan, y el tamaño físico de los procesadores
y memorias disminuye.
– El multiproceso y el paralelismo masivo se volverán más comunes, dando lugar a superorde-
nadores varias veces más potentes que los de hace unos años, que permitan la insaciable
demanda de transacciones on-line, acceso y gestión de grandes bases de datos, capacidad
de proceso distribuido, soporte a miles de usuarios y soporte de cientos de periféricos.
– El costo de la comunicación de datos continuará disminuyendo, y las velocidades de trans-
misión de datos aumentarán.
– Perdurará el concepto de almacenamiento virtual o capacidad que tiene el sistema operativo
para simular la presencia de una cantidad de memoria central superior a la memoria física real.
– Muchas de las funciones de los sistemas operativos realizados ahora por software migrarán
hacia el microcódigo.
– En los primeros años proliferarán los estándares que independizarán a los desarrolladores de
la plataforma hardware, los sistemas operativos, las bases de datos y la interface de usuario.
– Quizás, una de las tendencias más importantes de esta década será el acercamiento hacia
los sistemas abiertos en contra de los sistemas propietarios. Con ello se pretende conseguir
la portabilidad de las aplicaciones en plataformas diferentes, la interoperabilidad entre los
equipos y la escalabilidad en equipos de diferente capacidad.
– Downsizing es una terminología muy de moda actualmente para definir la estrategia que
consiste en ir traspasando las aplicaciones críticas, en especial las que forman parte de los
sistemas transaccionales, desde arquitecturas basadas en mainframes hacia arquitecturas
basadas en miniordenadores o, incluso, redes de microordenadores.
– En todo caso, frente a los sistemas formados aún por mainframes y terminales, la tendencia
de los próximos años será hacia la arquitectura de tres niveles, basada en la conectividad de
mainframes, minis y ordenadores personales.
La arquitectura a tres niveles aporta un incentivo económico a la distribución de la carga
del proceso entre diversas máquinas, pero conlleva un entorno de programación más difícil,
aplicando la tecnología de bases de datos distribuidas y proceso cooperativo.
– Las bases de datos distribuidas se basarán en las bases de datos relacionases y su princi-
pal idea es tener una única base de datos lógica implementada en diversas máquinas. En
muchos casos estas máquinas y los entornos de sistemas operativos serán distintos, incluso
diferentes sistemas de gestión de bases de datos podrán participar en la arquitectura de una
base de datos distribuida.
– El lenguaje SOL será el standard para la manipulación, definición y control de los datos para
las diversas bases de datos.

304 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


CONCEPTOS BÁSICOS DE SISTEMAS OPERATIVOS

– Un enfoque tecnológico alternativo a la construcción de aplicaciones distribuidas es el pro-


ceso cooperativo entre diferentes plataformas con sus modelos cliente/servidor y programa a
programa. Los ordenadores estarán conectados cada vez más en redes, y el trabajo realizado
por un usuario podrá ser realizado por un computador del cual éste no tenga conocimiento.
– Riqhsizing es también una palabra muy de moda actualmente que define la estrategia que
intenta combinar las mejores características de las diferentes arquitecturas. Ligado íntima-
mente aparece el concepto de aplicaciones cliente/servidor. Este tipo de aplicaciones intenta
combinar la capacidad de proceso de los mainframes, minordenadores y microordenadores,
permitiendo que unos se conviertan en suministradores de información y los otros se con-
viertan en consumidores.
– Los sistemas expertos serán otra herramienta habitual en esta década.
– Aunque el dominio del mercado será de los Sistemas Relacionales de bases de datos, esto no
evitará el desarrollo y comercialización de nuevos sistemas alternativos, entre los que desta-
can las bases orientadas a objetos. Estas bases no son una evolución de las bases de datos
convencionales, sino que resultan una aproximación nueva al entorno de computación.
– La gestión de la tolerancia a fallos de los equipos será una técnica que irá aumentando tam-
bién en los próximos años, sobre todo en los sistemas que requieran gran disponibilidad.
– Los ordenadores personales se harán omnipresentes y cada vez se acercarán más a las
características de las estaciones de trabajo.
– Los desarrollos en la ingeniería de software darán por resultado sistemas operativos más
preservables, confiables y comprensibles.
– El desarrollo automático de aplicaciones será cada vez más utilizado mediante la tecnología
CASE (ingeniería de Software asistida por ordenador) y aparecerán nuevas herramientas que
facilitarán la programación y la prototipación.
– Las interfaces de usuario seguirán siendo gráficas y amigables. El sistema operativo ya no
dará tanta importancia a gestionar los recursos hardware, sino que dará más importancia a
ofrecer más servicios de soporte a las aplicaciones.
– La perspectiva previa de un sistema operativo como administrador de recursos perdurará,
pero los recursos administrados cambiarán. En especial, los datos serán considerados cada
vez más como un recurso para ser administrado.
– Resumiendo, según parece, casi todos los fabricantes de sistemas soportarán multitarea,
multiproceso simétrico, direccionamiento de 32 bits al menos, memoria plana y virtual,
interface gráfica de usuarios, soportarán redes y procesos distribuidos, serán activados por
eventos, ofrecerán mecanismos de comunicación entre procedimientos y aplicaciones y en-
laces e incorporación de objetos.
Concentrándonos en los S.O. y resumiendo sus principales tendencias, obtenemos:
– Soporte generalizado para multiprocesamiento.
– Migración de algunas funciones de los S.O. hacia microcódigo realizado por software.
– Distribución del control entre procesadores (en entornos multiprocesador o distribuidos).
– Mejora de la eficiencia en el soporte de la ejecución concurrente de programas.
– Soporte del paralelismo masivo con altísimo grado de concurrencia.
– Profundización de los esquemas de máquinas virtuales.
– Continuación del esquema de familias de S.O. para familias de ordenadores, viendo las apli-
caciones máquinas virtuales.
– Compatibilidad con nuevas generaciones de ordenadores.
– Desarrollos en la ingeniería de software para ofrecer S.O. más preservables, confiables y
comprensibles.
– Profundización del desarrollo de S.O. con funciones distribuidas entre varios procesadores a
través de grandes redes de sistemas.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 305


– Permanencia del concepto de almacenamiento virtual.
– Permanencia de la perspectiva del S.O. como administrador de recursos, teniendo presente
que los datos serán considerados cada vez más como un recurso para ser administrado.
TEMA
8

Lenguajes de programación.
Ensambladores. Compiladores. Programa
fuente. Programa objeto. Aplicaciones
informáticas. Diagramas. Organigramas
Los ordenadores son rápidos, potentes y pueden automatizar mul-
titud de tareas. Estas prestaciones no ocurren por sí mismas, de alguna
forma hay que indicar al ordenador cómo realizar sus tareas. Con tal fin
se crearon los lenguajes de programación, como medio para traducir
la solución de un problema desde el punto de vista humano a nivel de
la máquina.
El término sistema se aplica generalmente al conjunto de accio-
nes, personal y procedimientos relacionados con el desempeño de una
tarea. De manera similar, un sistema o aplicación informática es el
conjunto de personas, máquinas y procedimientos que se utilizan para
llevar a cabo una tarea informática o de proceso de datos.
Son sistemas informáticos típicos de las aplicaciones de gestión
los sistemas de gestión comercial, de control de almacenes, de ventas,
nóminas, gestión de personal, etc.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 307


LENGUAJES DE PROGRAMACIÓN

ESQUEMA INICIAL

1. Conceptos básicos
1.1. Algoritmo
1.2. Pseudocódigo
1.3. Programas y programación
1.4. Lenguaje de programación

2. Niveles de programación
2.1. Microprogramación
2.2. Lenguaje máquina
2.3. Programación a bajo nivel
2.4. Programación a nivel medio
2.5. Programación a alto nivel
2.6. Lenguaje de cuarta generación

3. Clasificación de los lenguajes de programación


3.1. Clasificación atendiendo al propósito
3.2. Tipos de programación
3.2.1. Programación imperativa
3.2.2. Programación funcional
3.2.3. Programación lógica
3.2.4. Orientación a objetos

4. Fundamentos de programación
4.1. Técnicas de programación
4.2. Programación modular
4.3. Programación estructurada
4.4. Estructuras básicas de programación
4.4.1. Estructura secuencial
4.4.2. Estructura selectiva
4.4.3. Estructuras repetitivas (iterativas)
4.4.4. Estructuras anidadas
4.5. Subprogramas
4.5.1. Concepto
4.5.2. Funciones
4.5.3. Procedimientos
4.5.4. Diferencias entre funciones y procedimientos
4.6. Ámbitos: variables locales y globales
4.7. Paso de parámetros
4.7.1. Correspondencia entre parámetros formales y reales
4.7.2. Tipos de parámetros

308 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


LENGUAJES DE PROGRAMACIÓN

4.7.3. Métodos de paso de parámetros


4.7.4. Funciones y procedimientos como parámetros
4.8. Procedimientos anidados
4.9. Efectos laterales
4.10. Recursividad

5. Evolución de los lenguajes


5.1. Primera generación
5.2. Segunda generación
5.3. Tercera generación
5.4. Lenguajes de cuarta generación
5.4.1. Introducción
5.4.2. Clasificación de 4GL
5.4.3. Componentes y funcionalidades de un 4GL
5.4.4. Evolución de los 4GL
5.5. Lenguajes especializados

6. Principales lenguajes
6.1. Fortran
6.2. Cobol
6.3. Lisp
6.4. Algol
6.5. PL/1
6.6. Basic
6.7. Simula
6.8. C
6.9. Pascal
6.10. Prolog
6.11. Modula-2
6.12. SQL
6.13. Ada
6.14. Smalltalk
6.15. C++

7. Lenguajes de programación actuales


7.1. Visual basic
7.2. VBScript
7.3. Delphi
7.4. Java
7.5. JavaScript
7.6. Visual C
7.7. Perl

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 309


LENGUAJES DE PROGRAMACIÓN

8. Software de desarrollo
8.1. Clasificación del software de desarrollo
8.1.1. Compiladores
8.1.2. Máquinas virtuales
8.1.3. Intérpretes
8.1.4. Ensambladores
8.1.5. Programas de servicio
8.2. Estructura general de un compilador
8.2.1. Editor
8.2.2. Analizador lexicográfico
8.2.3. Analizador sintáctico
8.2.4. Generador de código intermedio
8.2.5. Optimizador de código
8.2.6. Generador de código final
8.2.7. Linker o montador
8.2.8. Módulo de tratamiento de errores
8.2.9. Tabla de símbolos

9. Orientación a objetos
9.1. Definición e introducción
9.2. Características de los objetos
9.3. Beneficio de la orientación a objetos
9.4. Metodología orientada a objetos

10. Ciclo de vida de un sistema informático


10.1. Identificación de necesidades
10.2. Análisis previo o de requisitos
10.3. Análisis funcional
10.4. Análisis orgánico
10.5. Programación o codificación
10.6. Pruebas del sistema
10.7. Implantación
10.8. Explotación
10.9. Mantenimiento y adaptaciones

11. Tablas de decisión


11.1. Definición
11.2. Tipos de tabla
11.3. Construcción de tablas
11.4. Conversión de tablas a programas

12. Organigramas o diagramas de flujo

310 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


LENGUAJES DE PROGRAMACIÓN

13. Diagramas de Nassi-Schneiderman (diagramas N-S)

14. Estructuras básicas de programación


14.1. Estructura secuencial
14.2. Estructura selectiva o alternativa
14.3. Estructuras repetitivas

15. Pruebas

16. Metodologías
16.1. Definición y objetivos
16.2. Análisis de requisitos
16.3. Metodologías de diseño
16.4. Técnicas de programación
16.5. Herramientas de programación

17. La metodología Métrica


17.1. Introducción
17.2. Objetivos
17.3. Estructura
17.4. Fases
17.5. Técnicas empleadas

1. CONCEPTOS BÁSICOS

1.1. ALGORITMO
Un algoritmo es la descripción de un proceso, la forma de solucionar un problema. Desde un
punto de vista general, una receta de cocina puede ser considerada un algoritmo, ya que describe los
pasos a seguir para cocinar un plato.
Una definición más elaborada es la siguiente:
Un algoritmo es una serie de operaciones detalladas y no ambiguas, que se
ejecutan paso a paso y en un determinado orden, y que conducen a la resolución de
un problema.
Cada acción de las que consta un algoritmo se denomina instrucción y éstas deben ser poste-
riormente traducidas en términos comprensibles por el ordenador.
NOTA: algunos autores no consideran sinónimas los términos sentencia e ins-
trucción, utilizando la primera para lenguajes de alto nivel (próximos al usuario) y la
segunda para lenguajes de bajo nivel y máquina próximos al ordenador.
La definición de un algoritmo debe describir tres partes básicas: entrada, proceso y salida. Un
algoritmo implica generalmente alguna entrada que será utilizada en el proceso para generar un resul-

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 311


LENGUAJES DE PROGRAMACIÓN

tado (salida). En una receta de cocina la entrada es la lista de ingredientes y los utensilios empleados,
el proceso la forma de cocinarlos y la salida será el plato listo para comer.
En informática normalmente no conocemos de antemano el número de operaciones que realiza
un algoritmo. El número de operaciones necesarias para llegar al término del algoritmo dependerá
mucho de los datos de entrada. La rama de la informática que estudia la complejidad de los algorit-
mos es muy importante en el desarrollo del software y se denomina Algorítmica.
Las características fundamentales de un algoritmo son:
– Un algoritmo debe ser preciso e indicar claramente el orden de realización de cada instrucción.
– Un algoritmo debe estar definido: si se sigue un algoritmo dos veces con los mismos datos,
se debe obtener el mismo resultado cada vez.Un algoritmo debe ser finito: si se sigue un
algoritmo, se debe terminar en algún momento.
La resolución de un problema mediante un algoritmo, para posteriormente traducirlo y resolverlo
mediante un programa informático, comprende una serie de etapas:
– Análisis preliminar o evaluación del problema: estudio del problema en general e iden-
tificación de sus partes fundamentales. El objetivo de esta fase es comprender el problema,
obtener la especificación de sus entradas, salidas, procesos, condiciones, restricciones, etc.
– Diseño del algoritmo: resolución algorítmica. Creación de un algoritmo que comprenda las
conclusiones de la primera etapa y las resuelva. Si el problema es complicado es recomen-
dable dividirlo en partes más pequeñas e intentar resolverlas por separado. Este proceso se
puede aplicar progresivamente hasta disponer de módulos manejables. Esta metodología se
denomina diseño descendente, diseño TOP-DOWN o estrategia de “divide y vencerás”,
y sus principales ventajas son:
* Al dividir el problema en módulos o partes se comprende más fácilmente.
* Las modificaciones, mejoras y correcciones se aplican más fácilmente sobre un módulo
en particular que sobre todo el algoritmo.
* Los resultados se probarán mucho mejor comprobando cada módulo. La localización de
errores queda más definida.
– Resolución en computadora: traducción del algoritmo a un lenguaje de programación concreto.
Los algoritmos se representan de diversas formas. Las representaciones más usadas son los
diagramas, organigramas, los diagramas NS y el pseudocódigo. En este capítulo utilizaremos esta
última. Los otros métodos se estudian en el siguiente.
NOTA: un algoritmo también se puede describir en lenguaje natural, pero es
una práctica poco frecuente debido a la ambigüedad que conlleva.

1.2. PSEUDOCÓDIGO
El pseudocódigo es en esencia un lenguaje de especificación de algoritmos; es decir, su objetivo
es acercar la descripción de un algoritmo a un lenguaje de programación. Es un paso intermedio pre-
vio a la codificación muy parecido a cualquier lenguaje de programación; posteriormente la traducción
a dicho lenguaje resulta muy sencilla.
La ventaja de trabajar con pseudocódigo es que no se rige por las normas de un lenguaje en
particular; se centra más en la lógica del problema que en la forma concreta de especificarlo (sintaxis,
tipo de datos, formato de llamadas, etc.).
Una descripción en pseudocódigo tiene dos partes:
– La cabecera: la cabecera contiene el nombre del algoritmo y opcionalmente una breve des-
cripción de su función.
– El cuerpo contiene dos partes:
* Declaraciones de variantes y constantes.
* Bloque de instrucciones.

312 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


LENGUAJES DE PROGRAMACIÓN

    
  
 
          
    
    


Estructura genérica de un algoritmo con sus diferentes secciones

Para aumentar la legibilidad en la zona de instrucciones se utilizan dos técnicas:


– Identación: uso de márgenes a diferentes niveles según la anidación de instrucciones.
– Comentarios: suelen escribirse entre llaves y deben ser suficientemente descriptivos.
El pseudocódigo utiliza una serie de palabras clave o especiales que estructuran y normalizan el
proceso de descripción de algoritmos, a la vez que lo acercan a un lenguaje de programación genéri-
co. Ejemplos de estas palabras son:

Pseudocódigo Descripción Traducción a Pascal

Inicio y Fin Comienzo y término del algoritmo Begin/end

Si <Condición> Entonces Estructura condicional If <Condición> Then


<Instrucciones 1> <Instrucciones 1>
Sino Else
<Instrucciones 2> <Instrucciones 2>

Mientras <Condición> hacer Estructura repetitiva 1 While <Condición> do


<Instrucciones> <Instrucciones>
Fin mientras End

Repetir Estructura repetitiva 2 Repeat


<Instrucciones> <Instrucciones>
Hasta <Condición> Until <Condición>

Desde <Índice=valor 1> hasta Estructura repetitiva 3 For <Índice=v1> to <v2>


<Valor2> <Instrucciones>
<Instrucciones> Next
Fin desde
Tabla que muestra la descripción en pseudocódigo de algunas operaciones básicas, su descripción y su traducción a un lenguaje
de programación concreto (Pascal)

Ejemplo de algoritmo descrito en pseudocódigo: pedir una serie de números y multiplicarlos. Se


termina cuando se teclea un cero.

Algoritmo Producto
Var
P, Num: Entero

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 313


LENGUAJES DE PROGRAMACIÓN

Inicio
P Å 1
Leer Num
Mientras Num >=0 hacer
P Å P*Num
Leer Num
Fin mientras
Escribir p
Fin

1.3. PROGRAMAS Y PROGRAMACIÓN


Un programa es la traducción de un algoritmo a un cierto lenguaje, o dicho de otra manera:
– PROGRAMA: secuencia de acciones entendibles por el ordenador que conducen a realizar
una tarea determinada para obtener unos resultados.
– PROGRAMACIÓN: técnica de codificación de un proceso en un formato (lenguaje) procesa-
ble por un ordenador.
La evolución de la programación es paralela al desarrollo tecnológico del hardware y del software.
Brevemente describimos las etapas más importantes:
– Década de los 50: cableada. La programación se realizaba conectando físicamente interrup-
tores y cables.
– Década de los 60: sin técnicas definidas ni aceptadas; independiente por cada programador.
Nace la codificación directa en lenguaje máquina (cadenas de ceros y unos).
– La evolución de los sistemas operativos permite la utilización de rutinas del sistema (llama-
das al sistema) y aparecen los primeros ensambladores.
– Aparecen los lenguajes de alto nivel. Capacidad de abstracción de la máquina. Concepto de
portabilidad del código. Aparición de técnicas de programación estructurada y uso de libre-
rías estándar. Proliferación de lenguajes de programación.
– Programación orientada a objetos y a eventos. Aplicación de metodologías avanzadas, herra-
mientas CASE, componentes, etc.
Como describía la definición, se puede considerar la programación como el conjunto de activida-
des y operaciones realizadas por el personal informático con el objetivo de que un ordenador pueda
realizar las funciones previstas en el algoritmo. La programación se manifiesta en los programas.
Tras diseñar el algoritmo se pasa a la escritura en un lenguaje de programación. El proceso
de escribir las instrucciones reales de un lenguaje de programación se denomina codificación. Es
importante no realizar la codificación hasta que el algoritmo no esté prácticamente definido. La codi-
ficación es una parte de la programación.
Una vez codificado el programa se ejecuta y se comprueban sus errores. La operación de detec-
tar y corregir errores se denomina depuración. Tras la depuración final del programa y la ejecución
sin errores es preciso documentar el programa. Una documentación interna con comentarios con-
venientes a lo largo del programa ayudará en futuras modificaciones. Además es muy conveniente
otra documentación externa basada en la descripción completa de algoritmo, organigrama, tablas de
decisión, etc.
La vida del programa se continúa con la fase de mantenimiento que consiste en las operaciones
necesarias para mantener el programa al día, es decir, que siga cumpliendo sus objetivos pese a las
variantes o modificaciones que pueda sufrir con el paso del tiempo.
Los programas constan de una serie de instrucciones que siguen determinadas reglas de sin-
taxis definidas por el lenguaje de programación. Las instrucciones son las partes elementales de
un programa que definen las acciones concretas que debe realizar la máquina.

314 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


LENGUAJES DE PROGRAMACIÓN

Un programa típico se divide en tres partes:


1. Entrada de datos: el programador debe establecer las entradas al programa o conocer de dónde
provienen, así como el momento en que se requieren. Si el procesamiento de datos es interacti-
vo, las entradas pueden proceder del usuario mientras el programa se está ejecutando; en otros
casos pueden estar contenidas en ficheros o bases de datos almacenados en disco o en memoria
principal; incluso puede haber entradas procedentes de ficheros de papel o microfilm propios del
usuario o externos. En esencia los datos procederán de un dispositivo periférico de entrada.
Al proceso de introducir la información de entrada (datos) en la memoria de la computadora se
denomina ENTRADA DE DATOS. El programador debe realizar una lista de todas las entradas
requeridas por el programa, la fuente de cada entrada y el formato en el que existen actual-
mente cada una de ellas. El programador debe determinar la frecuencia con que son requeri-
das las diferentes entradas por el programa: diariamente, semanalmente, mensualmente o en
intervalos regulares. Además el programador debe determinar el lugar donde se preparan, si
las entradas serán en línea (ON-LINE), fuera de línea (OFF-LINE) y si serán procesadas por lotes
(modo BATCH).
– Acciones de un algoritmo: los ordenadores reciben la secuencia de ejecución de las
instrucciones a través del programa. Esta secuencia la seguirán las máquinas exacta-
mente, y ejecutarán las sucesivas instrucciones, por ello el programador debe prever
todas las situaciones posibles. Esta es la sección que resuelve el problema planteado,
usando los datos de entrada y generando los de salida. Consta a su vez de dos partes:
* Instrucciones del programa: una descripción de acciones que deben ser ejecuta-
das (mediante sentencias o instrucciones).
* Declaración de variables: una descripción de los datos que son manipulados por
esas acciones (mediante declaraciones y definiciones).
– Salida de resultados: proceso de mostrar en un dispositivo de salida los resultados de
las acciones anteriormente realizadas. El programador debe listar todas las salidas previs-
tas del programa, así como el formato requerido por el usuario. Algunas de las caracterís-
ticas son:
* Salida en pantalla o en papel impreso.
* Grabación de resultados en cinta o disco.
* Diseño o presentación de resultados: listas, tablas, informes, gráficos, etc.
* Frecuencia de salida de resultados.
La contestación a las preguntas anteriores o similares permitirá codificar correctamente las ins-
trucciones de salida y la elección adecuada del dispositivo periférico de salida: pantalla, impresora,
unidad de cinta magnética, unidad de diskette, unidad de disco, trazador gráfico (plotter), etc.

 
     
   

Esquema de la ejecución de un programa

1.4. LENGUAJE DE PROGRAMACIÓN


Un lenguaje de programación es una herramienta traductora de un algoritmo a un lenguaje com-
prensible por el ordenador. Más formalmente podríamos decir:
Un lenguaje de programación es una notación para escribir instrucciones con las
que será posible comunicarse con el hardware, dando las órdenes necesarias para la
realización de un determinado proceso.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 315


LENGUAJES DE PROGRAMACIÓN

Ya sabíamos que un programa es una implementación concreta de un algoritmo. Ejecutando


uno u otro programa el ordenador puede realizar muy diversas tareas, de modo que el ordenador es
una máquina de propósito general. Los lenguajes de programación aportan las normas para escribir
programas de ordenador.
NOTA: se denomina lenguaje fuente a las instrucciones que escribe el pro-
gramador, las cuales son traducidas al lenguaje máquina comprensible por el
ordenador.
Elementos de un lenguaje de programación:
– Elementos léxicos: símbolos y términos admitidos por el lenguaje. El principal grupo lo
constituyen las palabras reservadas: conjunto de términos especiales que definen las ins-
trucciones del programa. Sólo se pueden usar para el fin para el que están reservadas. Otro
conjunto léxico son los caracteres especiales, que tienen funciones diversas (por ejemplo,
separar líneas de instrucciones). Los operadores también se engloban en los elementos
léxicos del lenguaje (por ejemplo, los símbolos matemáticos).
Las palabras reservadas incluyen las instrucciones del lenguaje de programación. Éstas pue-
den ser de tres tipos: secuenciales, repetitivas y selectivas.
– Sintaxis: reglas para combinar los elementos léxicos y construir instrucciones o sentencias
correctas del lenguaje.
– Semántica: significado computacional atribuido a las instrucciones o sentencias del lenguaje.
Actualmente un lenguaje de programación se juzga por algo más que la sintaxis y la amplitud de
las construcciones procedimentales. Los tipos de datos específicos soportados por un lenguaje son
un aspecto importante de la calidad del lenguaje.
Los tipos de datos simples abarcan un amplio rango que incluye los tipos numéricos, enumera-
dos, lógicos y de cadena. Los tipos de datos más complejos engloban estructuras de datos que van
desde los arrays simples (vectores) hasta las estructuras de listas y los complejos y heterogéneos
arrays y registros (ver el tema correspondiente en este mismo libro).
Las operaciones que se pueden realizar sobre un tipo de datos particular se controlan por la
comprobación de tipos incorporada en el intérprete o compilador del lenguaje de programación. Se
pueden definir cinco niveles de comprobación de tipos que se encuentran normalmente en los len-
guajes de programación:
– Nivel 0, sin tipos: no incluyen medios explícitos para la tipificación de datos y, por lo tanto,
no conllevan ninguna comprobación de tipos. Lenguajes como BASIC, APL, LISP e incluso
COBOL entran dentro de esta categoría.
– Nivel 1, coerción automática de tipos: permite al programador mezclar diferentes tipos de
datos, llevando a cabo una conversión de los operandos de tipos incompatibles, permitiendo
así que se den las operaciones requeridas. Por ejemplo, PL/ 1 asigna un valor 0 al valor lógi-
co falso y un valor 1 al verdadero. Así, las operaciones aritméticas se pueden aplicar a tipos
de datos lógicos en PL/1.
– Nivel 2, modo mixto: similar en muchos aspectos a la coerción automática de tipos. Para
que se pueda dar una determinada operación, diferentes tipos de datos dentro de una mis-
ma categoría de tipos (p. ej.: dos tipos numéricos distintos) se convierten a un único tipo
destino. La aritmética de modo mixto de FORTRAN permite que se usen números enteros y
reales en una misma sentencia del lenguaje de programación.
– Nivel 3, comprobación de tipos pseudorrígida: tiene todas las características de la fuerte
comprobación de tipos, pero se implementa de forma que existan una o más vías escapes.
Por ejemplo, aunque PASCAL comprueba la compatibilidad de interfaces dentro de un mismo
programa compilado, no lo hace para procedimientos (módulos) compilados por separado.
– Nivel 4, fuerte comprobación de tipos: se da en lenguajes de programación que sólo
permiten llevar a cabo operaciones entre objetos de datos que sean del mismo tipo de datos
previamente especificado. La comprobación de tipos se realiza tanto en tiempo de compila-
ción como en tiempo de carga y en tiempo de ejecución. Los compiladores de Ada llevan a
cabo una fuerte comprobación de tipos.

316 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


LENGUAJES DE PROGRAMACIÓN

Entre los criterios que se aplican durante la evaluación de los lenguajes disponibles están:
– Área de aplicación general.
– Complejidad algorítmica y computacional.
– Entorno en el que se ejecutará el software.
– Consideraciones de rendimiento.
– Complejidad de las estructuras de datos.
– Conocimiento de los programadores y analistas.
A menudo, C es el lenguaje elegido para el desarrollo de software de sistemas, mientras que len-
guajes como Ada, C y Modula-2 (junto con FORTRAN y ensamblador) se encuentran en aplicaciones
de tiempo real. COBOL ha sido tradicionalmente el lenguaje para aplicaciones de negocios, aunque
el uso creciente de lenguajes de cuarta generación lo han desplazado de su posición privilegiada, por
ejemplo los entornos ORACLE o Microsoft SQL Server.
En el área científica/ingeniería FORTRAN permanece como lenguaje predominante (aunque ALGOL,
PL/1, PASCAL y C tienen un amplio uso). El lenguaje predominante para usuarios de ordenadores per-
sonales es el BASIC (en sus versiones modernas como Visual Basic). Las aplicaciones de inteligencia
artificial usan lenguajes como Lisp, PROLOG u OPS5, aunque igualmente se usan lenguajes más con-
vencionales.
En el desarrollo de una aplicación informática ocurren varias etapas. Durante la primera de ellas
(planificación del proyecto) raramente se toman en consideración las características técnicas de un
lenguaje de programación. La calidad de un diseño de software viene dada por su independencia de
los lenguajes de programación. Sólo una vez establecidos los requisitos de la nueva aplicación, en
etapas sucesivas, las características técnicas de los lenguajes de programación cobran importancia.
Si se requieren complejas estructuras de datos, habrá que evaluar cuidadosamente los lenguajes
que soporten sofisticadas estructuras de datos (por ejemplo, Pascal). Si lo importante es un alto ren-
dimiento y posibilidades de tiempo real, se debe especificar un lenguaje diseñado para aplicaciones
de este tipo (por ejemplo, Ada) o para eficiencia en memoria-velocidad (por ejemplo, C). Si se espe-
cifican muchos informes de salida y una fuerte manipulación de archivos, se encontrarán lenguajes
adecuados como COBOL o RPG.
Idealmente, los requisitos del software habrían de precipitar la elección de un lenguaje que mejor
se ajuste al procesamiento que se ha de llevar a cabo. En la práctica, sin embargo, a menudo se
selecciona un lenguaje porque es el único disponible o el que se conoce con detenimiento.
Al igual que ocurre con la prueba, todavía no se comprende totalmente el efecto de las caracte-
rísticas de los lenguajes de programación sobre el mantenimiento del software. Sin embargo, no hay
duda de que las características técnicas pueden mejorar la legibilidad del código y reducir la comple-
jidad, lo que es importante para un mantenimiento efectivo.

2. NIVELES DE PROGRAMACIÓN
Existen distintos niveles de programación atendiendo al grado de abstracción sobre el hardware.

2.1. MICROPROGRAMACIÓN
La microprogramación constituye el nivel más básico de programación posible. Actúa a nivel de
unidades hardware elementales, las cuales se conjugan para formar módulos mayores.
Los microprogramas están formados por microinstrucciones individuales que en relación con las
instrucciones de los lenguajes de máquina son de:
– Naturaleza mucho más elemental.
– Función más dispersa.
La microprogramación introduce una capa de programación por debajo del lenguaje de máquina
que define las instrucciones de este lenguaje.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 317


LENGUAJES DE PROGRAMACIÓN

2.2. LENGUAJE MÁQUINA


El lenguaje máquina (o código máquina) consta de instrucciones binarias directamente enten-
dibles por el hardware; no necesita ser traducido. Estas instrucciones binarias se escriben como
secuencias de unos y ceros y acceden directamente al hardware.
El lenguaje máquina fue el primero en utilizarse; es el único que el ordenador acepta directamen-
te, ya que utiliza el alfabeto binario (0 y 1). Por esta misma razón el lenguaje máquina es el menos
“amigable” para el programador ante la dificultad de trabajar con unos y ceros y el cúmulo de errores
que se pueden cometer con mucha facilidad.
El código máquina es dependiente de la máquina o de la arquitectura, lo cual significa que se
programa para un tipo específico de ordenador (definido por su arquitectura), que generalmente se
basa en su procesador. El código máquina es prácticamente inexistente desde hace décadas, debido
sobre todo a la aparición de los ensambladores.
Cada instrucción de lenguaje de máquina es implementada por un microprograma completo de
diferentes tamaños según la complejidad de la instrucción.

2.3. PROGRAMACIÓN A BAJO NIVEL


La programación a bajo nivel o ensamblador se encuentra a un nivel de abstracción por encima
de la programación directa en código máquina. Los lenguajes ensambladores son un intento de sus-
tituir al lenguaje máquina por otro más fácil de aprender y utilizar.
En ensamblador cada instrucción equivale a una instrucción en lenguaje máquina. La diferencia
y principal mejora consiste en que utiliza palabras mnemotécnicas (grupos de letras que equivalen a
una operación en la máquina) y no cadenas de bits.
Por lo demás presenta todos los inconvenientes del lenguaje máquina; por ejemplo, cada arqui-
tectura de ordenador posee su lenguaje ensamblador propio, por lo que el programador está obligado
a conocer profundamente la arquitectura de la máquina. Los programas ensamblador sólo se pueden
ejecutar en un tipo de ordenador determinado.
Estos lenguajes son los que más se aproximan al lenguaje máquina, por lo que se pueden co-
meter errores fácilmente. Por el contrario van a ser más rápidos que los lenguajes de niveles más
altos y tienen acceso a operaciones más directas sobre el hardware. Por esto último se necesita un
traductor especial que tome como datos las sentencias mnemotécnicas y dé como resultado un pro-
grama objeto a lenguaje máquina. Este traductor, curiosamente, se denomina igual que el programa
que traduce: ensamblador.
En ensamblador es posible agrupar una serie de instrucciones básicas en un conjunto de mayor
entidad denominado macroinstrucción (o macro). El objetivo de una macroinstrucción es acelerar y
simplificar la codificación de un programa ensamblador.
Una macroinstrucción indica la ejecución de varias instrucciones en lenguaje ensamblador. El
procesador de macroinstrucciones lee las macros durante la traducción y efectúa el proceso de ex-
pansión: genera una serie de instrucciones en lenguaje ensamblador correspondientes a la macro.

2.4. PROGRAMACIÓN A NIVEL MEDIO


Constituyen un puente entre la programación a bajo y alto nivel, incorporando ventajas e inconve-
nientes de ambas aproximaciones. El ejemplo más característico de lenguaje de nivel medio es el C.

2.5. PROGRAMACIÓN A ALTO NIVEL


Son los denominados lenguajes evolucionados. Persiguen en primer lugar lograr independencia
de la máquina, de forma que un mismo programa se pueda utilizar en diferentes ordenadores. Para
ello debe disponerse de un programa traductor (un intérprete o un compilador) para obtener el progra-
ma ejecutable en lenguaje binario de la máquina. Así no se requiere conocer el hardware específico
del equipo, condición necesaria para trabajar con los lenguajes de bajo nivel.

318 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


LENGUAJES DE PROGRAMACIÓN

En segundo lugar se puede escribir y leer de una forma más sencilla, eliminando en gran medida
las posibilidades de cometer errores. Se usan palabras en inglés y no cadenas de bits, por lo que
tanto la escritura como posterior lectura o revisión del programa resultan mucho más claras.
Además se pueden insertar comentarios que no tienen efecto sobre el programa, pero que ayudan a
documentarlo. Ejemplos de lenguajes de programación típicos son FORTRAN, COBOL, BASIC, PASCAL, etc.
NOTA: los lenguajes de alto nivel, en diferentes medidas, están cercanos al
lenguaje humano.
El principal inconveniente de la programación de alto nivel es que el proceso de traducción es
muy largo y requiere más recursos. Además el código máquina generado por los compiladores no
siempre aprovecha de forma óptima las posibilidades del hardware.

Lenguaje de bajo nivel Lenguaje de alto nivel


Entendible por la máquina Entendible por los humanos. Necesidad de traducción
Dependencia de la máquina Independencia de la máquina. Portabilidad
Instrucciones muy elementales Instrucciones semánticamente complejas
La eficiencia en memoria y tiempo de eje- Priman la productividad y la legibilidad
cución son fines primordiales
No existe detección de errores Varias formas de detección de errores
Nula o escasa capacidad simbólica Gran capacidad simbólica
Abstracción muy deficiente Gran capacidades de abstracción
Tabla comparativa de las principales características de la programación a bajo y alto nivel.
El nivel medio, como su propio nombre indica, constituye un estadio intermedio entre ambos

2.6. LENGUAJE DE CUARTA GENERACIÓN


Los estudiaremos en un apartado posterior en este mismo capítulo.

3. CLASIFICACIÓN DE LOS LENGUAJES DE PROGRAMACIÓN


Además de la clasificación de los niveles de programación que acabamos de estudiar, los lengua-
jes y la programación en sí pueden agruparse atendiendo a otros criterios:

3.1. CLASIFICACIÓN ATENDIENDO AL PROPÓSITO


– General: los lenguajes de propósito general tienen un amplio rango de aplicaciones,
siendo adecuados para codificar algoritmos generales. Hay sin embargo que admitir
orientaciones en ellos hacia un área determinada. Por ejemplo, para el cálculo cientí-
fico y numérico se utiliza FORTRAN; para procesamiento de datos y gestión, COBOL u
ORACLE; para cálculo simbólico y manipulación de símbolos, LISP; para aplicaciones
de tiempo real y concurrencia, ADA; para informática distribuida, JAVA; para desarrollo
rápido de aplicaciones, DELPHI, VISUAL BASIC, etc.
– Específico: son lenguajes diseñados para un área de aplicación muy concreta; por ejemplo:
* Lenguajes de simulación (GPSS, SimScript).
* Lenguajes de control de trabajos en sistemas operativos.
* Lenguajes de bases de datos (SQL).

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 319


LENGUAJES DE PROGRAMACIÓN

* Lenguajes de diseño de hardware (VHDL).


* Lenguajes de descripción (SGML, XML, HTML).
* Lenguajes para programación de aplicaciones en un sistema concreto: hoja de cálculo, sistema
de información geográfica, sistema de CAD, multimedia, sistema de cálculo simbólico, etc.

3.2. TIPOS DE PROGRAMACIÓN


Todo lenguaje de programación responde a un diseño teórico de programación. Existen tres ten-
dencias principales (imperativa, funcional y lógica) y otra adicional que puede superponerse a ellas
(orientación a objetos).

3.2.1. Programación imperativa


Especificación directa y secuencial en el tiempo de las operaciones a realizar. Tiene su fundamen-
to teórico en los trabajos de Von Neumann. Su rasgo fundamental son las asignaciones (instruccio-
nes específicas para cambiar un valor almacenado en la memoria de la máquina) e instrucciones de
control del flujo de ejecución. Es la aproximación más extendida y utilizada por ser la más intuitiva.

3.2.2. Programación funcional


La programación funcional pone el énfasis en la evaluación de expresiones en lugar de la ejecución
secuencial de órdenes. El evaluador de expresiones es el componente fundamental de un lenguaje de pro-
gramación funcional. De hecho la programación funcional pura prescinde totalmente de las asignaciones.
La ejecución de un programa funcional consiste en la aplicación de una función a unos datos.
Poseen un alto nivel de abstracción, y las técnicas recursivas son parte fundamental y natural en su
programación. El ejemplo más significativo es el LISP.

3.2.3. Programación lógica


La idea fundamental se basa en desarrollar los algoritmos como una combinación de una parte
lógica y otra de control:
– La parte lógica es proporcionada por el programador en forma de hechos y reglas o relacio-
nes lógicas para representar información. En el programa se realizan consultas acerca de
esos hechos y relaciones lógicas.
– La parte de control es proporcionada por el lenguaje y se refiere al método para calcular
respuestas a las consultas.
El ejemplo típico es el lenguaje Prolog, que encuentra sus aplicaciones en sistemas basados en
el conocimiento.

3.2.4. Orientación a objetos


La estudiaremos posteriormente en este mismo capítulo.

4. FUNDAMENTOS DE PROGRAMACIÓN
La programación estructurada
La validez real de un programa sólo se podrá dar haciendo una prueba exhaustiva con todo el
rango posible de valores de entrada, cosa realmente imposible en la mayoría de los casos. Por otra
parte, la comunicación usuario/máquina no sólo se manifiesta en la fase de depuración del programa,
sino también en la fase de mantenimiento. Un programa normalmente debe ser modificado cada
cierto tiempo y en muchas ocasiones las modificaciones han de ser realizadas por terceras personas
que no intervinieron en su diseño.

320 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


LENGUAJES DE PROGRAMACIÓN

Un mal desarrollo de un programa lleva a la falta de fiabilidad y pérdida de eficiencia considerables,


así como a una disminución de la flexibilidad y, por consiguiente, la documentación de los programas.
Para aumentar la eficiencia de la programación y el mantenimiento, se necesita dotar a los
programas de una estructura. Las razones para ello no sólo es el aumento de fiabilidad y eficiencia,
sino también asegurar que los programas sean adaptables, manejables, fácilmente comprensibles y
transportables. A estas condiciones se les suele añadir la claridad y simplicidad.
A medida que la tecnología electrónica ha ido avanzando, las máquinas se han ido haciendo más
rápidas, y el postulado que pervivía en la década de los años sesenta e inclusive los setenta en el que
el programador debía arañar tiempo de ejecución recurriendo a trucos de programación, ha ido dejan-
do de tener peso y hoy día se buscan programas claros en su estructura, adaptables, transportables
–posibilidad de pasarlos de una máquina a otra– y simples. La hora de programador se ha elevado
en el coste considerablemente y si a eso se le une que las posibles modificaciones en un programa
pueden producir la pérdida de claridad del mismo, es preciso realizar el programa con técnicas de pro-
gramación estructurada que permitan aumentar la eficiencia de la programación y su mantenimiento.

Conceptos básicos
Los primitivos propósitos de la programación estructurada dirigían sus esfuerzos a buscar modos
de minimizar la probabilidad de error en el proceso de programación. El factor humano es una de las
fuentes más importantes en la comisión de errores. Uno de los objetivos de la programación estruc-
turada es la minimización del error humano.
Aunque al profesor Edgar W. Dijkstra, de la Universidad de Eindhoven, se le considera el padre de
la programación estructurada, muchos otros investigadores han trabajado en su desarrollo, y de ellos
podemos citar a Hoare, Wirth, Knuth, Dahl, Bohm, Jacopini, Warnier, etc.
Es difícil dar una definición de programación estructurada por no existir generalmente una defini-
ción que sea aceptada a todos los niveles. Podríamos por ello enunciar la programación estructurada
(PE) como una técnica de construcción de programas que utilizan al máximo los recursos del lengua-
je, limita el conjunto de estructuras aplicables a leer y presenta una serie de reglas que coordinan
adecuadamente el desarrollo de las diferentes fases de la programación.
Aunque la definición anterior es una de las que más hemos visto escritas, son diferentes las
definiciones que se podrían hacer; sin embargo, con lo que sí hay un acuerdo casi total es en que la
programación estructurada utiliza en su diseño los siguientes conceptos o principios fundamentales
recogidos esencialmente en la definición anterior:
– Estructuras básicas.
– Recursos abstractos.
– Diseño descendente “arriba-abajo” (top-down).

Recursos abstractos
La estructuración debe cumplir el uso de recursos abstractos. El proceso de realización de dife-
rentes pasos hasta encontrar la solución de un problema es un proceso abstracto.
Diseñar o concebir un problema en términos abstractos consiste en no tener en cuenta la máqui-
na que lo va a resolver, así como el lenguaje de programación que se va a utilizar. Esto lleva consigo
la obtención de un conjunto de acciones que se han de realizar para obtener una solución.
Al considerar un algoritmo y los cálculos que incluyen, se hace abstracción de los valores especí-
ficos. Igualmente el concepto de variable implica una abstracción cuando se da un nombre a una ope-
ración determinada, y se utiliza considerando lo que hace, pero sin preocuparnos de cómo lo hace.
Tras encontrar la solución adecuada mediante el ordinograma o el algoritmo, se analiza esta
solución con la computadora y el lenguaje de programación que se van a utilizar, a fin de comprobar
si las diferentes acciones son susceptibles de ser efectuadas por la máquina tal y como han sido con-
cebidas; si eso no fuera posible, será preciso descomponer las acciones en otras subacciones más
elementales, continuándose el proceso hasta que cada subacción pueda ser codificada en el lenguaje
elegido y por consiguiente ejecutado en la computadora del usuario. En un nivel fundamental, todos
los lenguajes de programación modernos permiten al programador representar secuencias, condicio-
nes y repeticiones –las construcciones lógicas de la programación estructurada–.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 321


LENGUAJES DE PROGRAMACIÓN

Además de las construcciones procedimentales básicas de la programación estructurada, puede


haber otras estructuras de control. La recursividad crea una segunda activación de un subprograma
durante la primera activación. O sea, el subprograma se llama o se activa a sí mismo como parte del
procedimiento definido.
La concurrencia da soporte a la creación de múltiples tareas, a la sincronización de tareas y a
la comunicación de tareas en general. Esta característica del lenguaje es de mucho valor cuando se
llevan a cabo aplicaciones de tipo real.
El manejo de excepciones es una característica del lenguaje que atrapa los errores del sistema o
los definidos por el usuario, pasando el control a un manipulador de excepciones para que los procese.
El soporte para métodos orientados a objetos debe estar incorporado directamente en el lenguaje
de programación que se vaya a utilizar para implementar un diseño orientado a los objetos. Un lenguaje
de programación orientado a los objetos debe proporcionar un soporte directo para la definición de
clases, la herencia, la encapsulación y el paso de mensajes. Además de estas construcciones básicas
orientadas a los objetos, muchos de estos lenguajes implementan características adicionales, como he-
rencia múltiple y polimorfismo (diferentes objetos que pueden recibir mensajes con el mismo nombre).
La definición de clases es fundamental en un enfoque orientado a los objetos. Un lenguaje de
programación orientado a los objetos define un nombre de clase y especifica los componentes priva-
dos y públicos de la clase. La definición de una clase encapsula las abstracciones de los datos y las
componentes del programa (métodos) que operan sobre dichos datos.

4.1. TÉCNICAS DE PROGRAMACIÓN


Existen dos técnicas de programación complementarias cuyo objetivo es fundamentalmente ha-
cer más legible y lógica la estructura de un programa. Estas técnicas son:
Programación modular: consiste en dividir el programa en partes llamadas módulos, e imple-
mentar cada uno de ellos por separado.
Programación estructurada: se basa en el uso exclusivo de tres tipos de estructuras lógicas
para construir los programas: secuenciales, selectivas o condicionales, y repetitivas.

4.2. PROGRAMACIÓN MODULAR


Un lenguaje de programación debe facilitar la modularización, proceso que permite la división
lógica de un programa en unidades lo más autónomas posibles. Esto es vital para programas grandes,
al posibilitar la compilación separada y la reutilización, facilitar la detección de errores y el manteni-
miento y en general aumentar la productividad.
La programación modular divide un programa en partes más pequeñas llama-
das módulos, que se analizan y codifican de forma independiente y que realizan
una determinada tarea.


   

 

Un módulo se diseña según el principio de la “caja negra” por el cual muestra al exterior una interfaz de entrada/salida, pero no
los detalles de su construcción interna. Esta técnica aporta ventajas muy importantes, por ejemplo, se puede sustituir un módulo
por una versión más avanzada tan sólo respetando la interfaz con el exterior. El resto del programa no sufre ninguna alteración.
Esta posibilidad es decisiva cuando se desarrollan programas complejos

322 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


LENGUAJES DE PROGRAMACIÓN

El principio fundamental de esta idea es el de caja negra u ocultación de la información, según


el cual no hay necesidad de conocer cómo está construido el módulo, sino tan sólo su interfaz de
entrada y salida. Los módulos en software son las funciones y procedimientos. Los lenguajes de pro-
gramación orientados a objetos contemplan unidades superiores de abstracción y encapsulamiento:
los objetos y las clases.
Un módulo sólo tiene acceso a los módulos a los que llama y a los módulos que lo llaman a él.
Los resultados producidos por un módulo pueden ser utilizados por otros.
No existe un criterio fijo para determinar el tamaño de un módulo; la idea fundamental es que
realicen una única operación concreta. Tampoco existe un criterio sobre el grado de complejidad de
esta operación. Estos factores son muy dependientes de los problemas a tratar y de la profesionalidad
y experiencia del programador.
Los módulos reciben diferentes nombres según el lenguaje de programación y según su tipo. Se
llaman procedimientos y funciones (Pascal, C), subrutinas (Basic, Fortran), secciones (Cobol), etc. La
idea que subyace en todos estos términos es básicamente la misma.

4.3. PROGRAMACIÓN ESTRUCTURADA


La característica fundamental de la programación estructurada es que se basa en el uso de úni-
camente tres estructuras de control. Para ello se apoya en las siguientes filosofías:
– Diseño descendente (top down): técnica que se basa en la descomposición de un proble-
ma complejo en niveles o etapas progresivamente más sencillos. La salida de una etapa sirve
como entrada de la siguiente. Este principio está muy relacionado con la modularización.
– Estructuras básicas de programación: estas estructuras son los componentes básicos con
los que se construye cualquier programa. Todo programa es realmente una combinación más
o menos compleja de tres tipos de secuencias (secuenciales, condicionales y repetitivas).
– Todo programa tiene una única entrada y una única salida. Desde la entrada deben existir
caminos que permitan pasar por todas las partes del programa y conducir a la salida.
– No se permiten los bucles infinitos.

4.4. ESTRUCTURAS BÁSICAS DE PROGRAMACIÓN


Los programas se componen de una secuencia de instrucciones resultado de la codificación de
un algoritmo. Estas instrucciones se agrupan a su vez en estructuras de diversos tipos, que forman
bloque básicos para la construcción de programas.
La combinación de estas estructuras en diversos grados de complejidad permite traducir cual-
quier algoritmo a un lenguaje de programación comprensible por el ordenador.

4.4.1. Estructura secuencial


Es la estructura más sencilla. Consiste en un conjunto de instrucciones organizadas en una
secuencia lineal (una detrás de la otra). Una instrucción no comienza hasta que no ha finalizado la
inmediatamente anterior.

Instrucción 1
Instrucción 2
Instrucción 3
...

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 323


LENGUAJES DE PROGRAMACIÓN

4.4.2. Estructura selectiva


Esta estructura se basa en la evaluación de una condición. En función del resultado de esta com-
paración se ejecuta un conjunto de instrucciones u otro. Existen tres tipos de estructuras selectivas:
simple, doble o múltiple.
– Simple: se evalúa la condición y si es verdadera se ejecuta un conjunto de instrucciones. En
caso contrario no se hace nada.

Sí <Condición> entonces
<Instrucciones>
Fin sí

– Doble: existen dos conjuntos de instrucciones. Uno se ejecuta si la condición es cierta y el


otro si es falsa.

Si <Condicion> entonces
<Instrucciones 1>
Sino
<Instrucciones 2>
Fin si

– Alternativa múltiple: la condición o expresión puede tomar un número N de valores, según


el cual se ejecutará un conjunto de instrucciones u otro (esta estructura equivale a un con-
junto de condiciones anidadas).

Según <Condición>
<Valor 1>: <Instrucciones 1>
<Valor 2>: <Instrucciones 2>
...
<Valor N>: <Instrucciones N>
Fin según
Existe una variante:
Según <Condición>
<Valor 1>: <Instrucciones 1>
<Valor 2>: <Instrucciones 2>
...
<Otro valor>: <Instrucciones N>
Fin según

La expresión <Otro valor> evita tener que contemplar todo el rango de posibles valores de la
condición. Esto es especialmente útil cuando dicho rango es muy amplio.

EJEMPLO: realizar un algoritmo que, en función de la entrada del usuario, dibuje una recta,
un punto o un rectángulo.
Algoritmo DIBUJO
Var Opción: Carácter
Escribir (“Introduce una opción”)
Escribir (“1: Punto, 2: Recta, 3: Rectángulo”)

324 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


LENGUAJES DE PROGRAMACIÓN

Leer Opción
Según sea Opción
“1”: <Dibujar punto>
“2”: <Dibujar recta>
“3”: <Dibujar rectángulo>
<Otro>: Escribir “Opción errónea”
Fin según
Fin algoritmo

4.4.3. Estructuras repetitivas (iterativas)

Estructura que contiene un bucle (conjunto de instrucciones que se repiten un número finito de
veces). Cada repetición del bucle se llama iteración. Todo bucle tiene asociada una condición, que
determina, según el tipo, cuantas veces se repite el bucle o la condición de salida de éste.
Existen tres tipos fundamentales de bucles:
– Repetir un número de veces: se conoce previamente el número exacto de veces que
hay que ejecutar el bucle. La estructura tiene una variable asociada denominada índice,
a la que se asigna un valor inicial y final. El índice se incrementa o decrementa auto-
máticamente en cada iteración de bucle en un valor constante. Esta es una operación
implícita (la realiza el sistema, el programador no tiene que intervenir). Cuando el índice
alcanza su valor final, finaliza el bucle.

Desde <Índice>=<valor inicial> hasta <valor final>


<Instrucciones>
Fin desde

– Mientras-hacer: la condición del bucle se evalúa al principio, antes de entrar en él. Si


la condición es verdadera, se ejecutan las instrucciones del bucle. Después de la última
instrucción se vuelve al principio y se evalúa la condición de nuevo. Cuando ésta sea falsa
termina el bucle y se ejecuta la siguiente instrucción (ya fuera de éste).
IMPORTANTE: si la condición es falsa la primera vez, el bucle no llega a ejecutarse.

Mientras <Condición> hacer


<Instrucciones>
Fin mientras

– Repetir-hasta: el bucle se repite hasta que la condición sea verdadera. La condición se


evalúa siempre al final del bucle, por lo que éste se ejecuta al menos una vez.

Repetir
<Instrucciones>
Hasta <Condición>

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 325


LENGUAJES DE PROGRAMACIÓN

EJEMPLO: realizar un algoritmo que lea tres números y calcule su suma.


A) Con una estructura mientras-hacer
Algoritmo SUMA
Var Suma, Número, Contador: Numérico
Suma ß 0
Contador ß 0
Mientras Contador <> 3
Suma ß Suma + número
Leer Número
Contador ß Contador + 1
Fin mientras
Fin algoritmo

B) Con una estructura repetir-hasta


Algoritmo SUMA
Var Suma, Número, Contador: Numérico
Suma ß 0
Contador ß 0
Repetir
Leer Número
Suma ß Suma + número
Contador ß Contador + 1
Hasta Contador = 3
Fin algoritmo

NOTA: todas las estructuras iterativas tienen la posibilidad de salir del bucle
desde un punto intermedio del mismo, de una forma “anómala”, en el sentido de
que rompe el diseño original de la estructura. Aunque esta práctica es posible, no
se recomienda su uso, ya que anula las ventajas de la programación estructurada.

4.4.4. Estructuras anidadas


Tanto las estructuras selectivas como los bucles se pueden anidar unos dentro de otros.
– Anidación de condicionales: cuando se cumple una condición ya no se evalúa el resto.
Tiene la siguiente forma:

{
Si <Condicion 1>
Entonces <Instrucciones 1>

{{
Sino si <Condicion 2>
Entonces <Instrucciones 2>
Sino si <Condicion 3>
Entonces <Instrucciones 3>
Fin si
Fin si
Fin si

326 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


LENGUAJES DE PROGRAMACIÓN

– Bucles anidados: los bucles pueden anidarse pero nunca deben cruzarse. Es decir, siempre
hay que finalizar un bucle interno antes de la siguiente iteración del externo. Otra forma de
expresar esta idea es imaginar que el bucle interno funciona como una instrucción del bucle
externo, y como tal ejecutará en cada iteración de este último.
Si el bucle interno se ejecuta M veces y el externo N veces, el número total de iteraciones
será MxN. Los bucles anidados tienen la siguiente estructura:

{ Desde <I>=<valor inicial> hasta <valor final>

{Desde <J>=<valor inicial> hasta <valor final>


<Instrucciones>
Fin desde J
Fin desde I

4.5. SUBPROGRAMAS
4.5.1. Concepto
La programación modular es una de las técnicas fundamentales de la programación. Como vimos
en su momento, se apoya en el diseño descendente y en la filosofía de “divide y vencerás”: trata
de dividir un problema complejo en otros más simples. Cada división se implementa en un módulo
independiente. Estos módulos, dependiendo del tipo y del lenguaje de programación, se denominan
subalgoritmos, subprogramas, subrutina, función, procedimiento, etc.
NOTA: en los lenguajes de programación orientados a objetos, el concepto de
subprograma es sustituido por el de objeto.
Imaginemos un programa que necesita en diferentes estadios de su ejecución realizar una ope-
ración específica (por ejemplo, contar la longitud de una cadena de caracteres). Se puede codificar
el algoritmo de cuenta cada vez que se necesite, pero esto implica mucha repetición de código que
en definitiva tiene la misma función.
Otra aproximación más adecuada sería codificar una sola vez el algoritmo de cuenta y llamarlo cada
vez que haga falta. Así ahorramos espacio, tiempo y controlamos mejor los posibles errores al estar el
código implementado una sola vez. Necesitamos un subprograma que realice la función de cuenta.





 



 

Esquema de un programa principal


  realizando llamadas a subprogramas
(líneas continuas). La ejecución de
una aplicación comienza siempre en
el programa principal, el cual llama o


  invoca a los subprogramas que sean
necesarios durante su transcurso. Una
vez termina la ejecución del subpro-
  grama, el control se devuelve a la
siguiente instrucción a la que realizó la
llamada (líneas punteadas)

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 327


LENGUAJES DE PROGRAMACIÓN

En todo algoritmo o programa existirá un módulo o programa principal que es al que transfiere
el control cuando comienza la ejecución del programa; posteriormente se va llamando al resto de los
subprogramas.
Llamar a un subprograma significa transferirle el control: el subprograma se ejecuta desde su
comienzo hasta que termine, momento en el que devuelve el control al punto desde donde se le
llamó. Un subprograma puede a su vez llamar a otros, pero en cualquier caso al final se devuelve el
control al módulo que origina la llamada. El control al programa llamado se devuelve a la instrucción
siguiente a la que se hizo la llamada.
Cuando se produce una llamada a un subprograma se le puede pasar cierta información con la
que deseamos que el subprograma trabaje. Siguiendo con nuestro ejemplo, pasaremos al subprogra-
ma una cadena de caracteres en la primera llamada y otra distinta en la siguiente. Esta técnica se
denomina paso de parámetros y permite una gran flexibilidad, al independizar el subprograma de
los datos con los que operará.
La estructura de un subprograma es análoga a la de un programa: un conjunto de acciones, va-
riables propias del subprograma, etc. Un subprograma puede a su vez llamar a otro subprograma (con
la condición de que éste no llame al primero, ya que se crearía una situación de bloqueo).
Hay dos tipos fundamentales de subprogramas: funciones y procedimientos.

4.5.2. Funciones
Desde un punto de vista matemático, una función es una operación que toma uno o varios ope-
randos, y devuelve un resultado. En programación una función es un subprograma que toma uno o
varios parámetros como entrada y devuelve a la salida un único resultado que irá asociado al nombre
de la función.
Existen varios tipos de funciones:
– Internas: el lenguaje de programación las incluye por defecto.
– Programadas: las define el propio programador según sus necesidades.
– Bibliotecas: conjunto de funciones programadas por otras personas y disponibles para su
uso.

Función Operación que realiza

Abs (x) Valor absoluto

Arctan (x) Arcotangente

Cos (x) Coseno

Sen (x) Seno

Ln (x) Logaritmo neperiano

Log 10 (x) Logaritmo en base 10

Redondeo (x) Redondeo

Trunc (x) Truncamiento

Cuadrado (x) Cuadrado

Raíz (x) Raíz cuadrada

Esta tabla muestra un ejemplo de funciones matemáticas internas

328 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


LENGUAJES DE PROGRAMACIÓN

La estructura de una función es semejante a la de cualquier subprograma. Tendrá una cabecera


(con su nombre, los parámetros y su declaración de tipos) y un cuerpo (con variables locales y el
código que devuelve un resultado). La sintaxis general es la siguiente:

Funcion <Nombre> (Parametro1: Tipo, Parametro2: Tipo): tipo funcion


Var <Variables locales >
Inicio
<Instrucciones>
Retorno <Valor>
Fin funcion

La lista de parámetros es información que se pasa a la función para utilizarlos de igual forma que
las variables locales. Para cada parámetro hay que poner su nombre y tipo. El nombre de la función lo
define el programador (en caso de funciones programadas por él) o el sistema (en caso de funciones
internas). De cualquier forma éste debe ser descriptivo.
Entre las acciones existe una del tipo retorno <valor>. Esta sentencia pondrá fin a la ejecución
de la función y devolverá el valor especificado. Este valor es del mismo tipo que la función, tipo que
se indica en su declaración.
Los parámetros que aparecen en la declaración de la función se denominan parámetros forma-
les. Los parámetros que se pasan en la llamada a la función se denominan parámetros actuales o
reales. A través de los parámetros reales de la llamada se proporciona a la función la información que
necesita. En la llamada se produce una asociación automática entre parámetros reales y parámetros
formales. Esta asociación se realiza según el orden de la aparición y de izquierda y derecha.
NOTA: si un parámetro formal y su correspondiente real no son del mismo tipo,
se produce una situación que se trata de diferente forma según el lenguaje. Por
ejemplo, en Pascal se produce un error, mientras que en C se transforman los tipos
(si es posible realizar la transformación).
Otras características del manejo de funciones son:
– No se permiten funciones que no devuelvan nada.
– El uso de una función implica el conocimiento previo de su existencia, operación que realiza,
tipo y parámetros que acepta.
– La función puede ser llamada desde el programa principal o desde cualquier otro subprograma.
– Para llamar a una función se escribe su nombre y entre paréntesis los parámetros separados
por comas, que podrán ser variables, expresiones, constantes, etc. Estos parámetros deben
ser del mismo tipo que los especificados en la declaración de la función.
– Cuando una función finaliza asocia un valor (su resultado) al propio nombre de la función y
devuelve el control al punto desde donde se la llamó.

EJEMPLO: una función que calcule la mitad del valor que le pasó el parámetro. Suponemos
que es un valor entero.
Funcion Mitad (N: Entero): Real
Var M: Real
Inicio
M Å N/2
Retorno M
Fin Mitad
.../...

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 329


LENGUAJES DE PROGRAMACIÓN

.../...
Veamos ahora un pequeño algoritmo que hace uso la anterior función:
Algoritmo Calcula_mitad
LLAMADA A LA
Var Num: Entero
FUNCIÓN
Inicio
Escribir “Introduce un número para hallar su mitad”
Leer Num
Escribir “La mitad de “Num” es: “, Mitad(Num)
Fin algoritmo

4.5.3. Procedimientos
El principal inconveniente de una función es que devuelve un único valor. Si se necesita devolver
un conjunto de valores se usa un procedimiento.
Un procedimiento es un subprograma o un subalgoritmo que ejecuta una determinada tarea,
pero que carece de un valor asociado a su nombre como en las funciones. La devolución de informa-
ción se realiza a través de parámetros.
NOTA: un procedimiento es un subprograma que puede devolver ninguno, uno
o varios parámetros después de su ejecución.
Pasos en la ejecución de un procedimiento:
– Llamada al procedimiento: esta llamada consiste en el nombre del procedimiento y entre
paréntesis se especifican los parámetros que se le pasan. En algunos lenguajes como el C,
se pone delante la palabra reservada Call (llamar).
– Se cede el control al procedimiento, que sustituye cada parámetro formal de la definición por el
parámetro actual o real de la llamada asociado a él. Al igual que en las funciones, esta asociación
entre parámetros formales y reales se hace de izquierda a derecha por orden de colocación y
para que se pueda producir esta asociación tienen que existir el mismo número de parámetros
formales que reales, y además el tipo tiene que coincidir con el del parámetro formal asociado.
– Si la asociación ha sido correcta comienzan a ejecutarse las instrucciones del procedimiento hasta
llegar a la última instrucción. Al llegar a la instrucción se vuelven a asociar los parámetros formales
que devuelven los resultados a los parámetros formales asociados en la llamada. De esta manera
algunos o todos los parámetros reales contendrán los resultados del procedimiento.
– Finalmente se cede el control a la siguiente instrucción desde la que se realizó la llamada,
teniendo en cuenta que los parámetros reales contienen los resultados del procedimiento.
La estructura general de un procedimiento consta de:
– La cabecera: formada por el nombre del procedimiento (un identificador que debe ser sig-
nificativo) y entre paréntesis los parámetros o la información que se pasa al procedimiento.
Para cada parámetro hay que indicar su tipo y el método de paso (existen dos tipos funda-
mentales, por valor y por referencia, que estudiaremos en breve).
– El cuerpo: incluye las instrucciones. En un procedimiento no existe ninguna instrucción de
retorno de valores como en las funciones. El procedimiento devuelve resultados a través de
sus parámetros (cuando éstos se pasan por referencia).

4.5.4. Diferencias entre funciones y procedimientos


– Una función devuelve un único valor y un procedimiento puede devolver 0, 1 o N valores.
– Ninguno de los resultados devueltos por el procedimiento se asocian a su nombre como
ocurre con una función.
– Mientras que la llamada a una función forma siempre parte de una expresión, la llamada a
un procedimiento es una instrucción que por sí sola no necesita instrucciones.

330 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


LENGUAJES DE PROGRAMACIÓN

4.6. ÁMBITOS: VARIABLES LOCALES Y GLOBALES


Todo lenguaje de programación debe especificar un mecanismo para limitar el alcance o visibi-
lidad de las variables del programa a ciertas partes del mismo. En general lo deseable es que cada
subprograma disponga de su propio conjunto de variables.
NOTA: el ámbito o visibilidad de un identificador (variables, constantes, funciones,
etc.) es la parte del programa que reconoce y por tanto se puede usar un identificador.
Tradicionalmente el medio básico para restringir la visibilidad ha sido la estructura de bloques.
La regla de visibilidad básica es que al declarar un identificador en un bloque se hace visible en ese
bloque y en sus bloques anidados. En algunos lenguajes, como Pascal, la estructura de bloques es la
única forma de controlar la visibilidad de los identificadores.
Según el ámbito hay dos tipos de variables:
– Local: declarada y definida dentro de un subprograma. Su ámbito coincide con dicho subpro-
grama. Esto implica que la variable no tiene ningún significado, no se conoce y no se puede
acceder a ella desde fuera del subprograma.
Las variables locales a un subprograma se definen en la parte de la definición de variables
del mismo. Los parámetros formales de un subprograma se comportan dentro de él como si
fueran también variables locales.
– Globales: definidas a nivel del programa principal. Su ámbito es el programa o algoritmo
principal y todos los subprogramas asociados.
A estas variables se puede acceder desde cualquiera de los subprogramas y el programa princi-
pal, salvo que alguno de esos subprogramas tenga definida una variable local con el mismo nombre,
en cuyo caso la referencia que tiene siempre prioridad es la local.

4.7. PASO DE PARÁMETROS


La mejor forma para llevar a cabo la comunicación entre subprogramas es el paso de parámetros.
Trataremos de evitar siempre que sea posible el uso de variables globales.
Cuando llamamos a una función o procedimiento, le pasamos a través de los parámetros la
información que necesita. En caso de un procedimiento, además utilizamos los parámetros para
devolver resultados.

4.7.1. Correspondencia entre parámetros formales y reales


Los parámetros se definen en la cabecera del subprograma (esta definición se conoce como
parámetros formales). Al hacer la llamada pasamos la información a través de los parámetros
reales. Existen dos métodos para asociar los parámetros reales a los formales:
– Correspondencia posicional: se emparejan los parámetros formales y reales por la posi-
ción que ocupan en la declaración (de izquierda a derecha). Para que se pueda realizar esta
asociación tiene que existir el mismo número de parámetros formales y reales, y sus tipos
deben ser coincidentes.
– Correspondencia por nombre implícito: la llamada al subprograma especifica explícita-
mente a qué parámetro formal corresponde cada uno de los reales. En la llamada se escribe
el nombre del parámetro formal y, separado por dos puntos (:), el nombre del parámetro real
que le corresponde. Esto hace que no importe la posición de los parámetros. En la práctica,
sin embargo, esta técnica es muy poco frecuente.

4.7.2. Tipos de parámetros


Según se usen para pasar información a un subprograma o para obtener resultados de él, existen
tres tipos:
– De entrada: son parámetros que sólo aportan información de entrada al subprogama. En
el caso de una función, todos sus parámetros son de este tipo. Aunque varíen dentro de un
subprograma, fuera de él la modificación no tiene efecto.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 331


LENGUAJES DE PROGRAMACIÓN

– De salida: se usan sólo y exclusivamente para devolver resultados. Su valor al realizar la


llamada al subprograma no es importarte; adquiere su valor cuando termina la ejecución de
éste. Un parámetro de este tipo teóricamente nunca se puede leer, sólo actualizar.
– De entrada y salida: el valor del parámetro tiene importancia tanto a la entrada como a la
salida del subprograma; aporta información en la entrada al subprograma y por otra parte
se utiliza para devolver resultados cuando éste finaliza. En este caso tiene sentido tanto la
lectura como la actualización del parámetro.
ADA es uno de los escasos lenguaje que soportan los tres tipos de paso de parámetro. La mayo-
ría sólo permiten dos tipos de parámetros: de entrada y de entrada-salida.

4.7.3. Métodos de paso de parámetros


Existen dos técnicas de paso de parámetros:
– Por valor: interesa el valor del parámetro a la entrada del subprograma. Este valor del paráme-
tro real (una constante, una expresión o una variable) se copia en la dirección de memoria del
parámetro formal asociado, para posteriormente utilizarlo en el proceso del subprograma. Los
parámetros nunca se utilizan para devolver resultados (por esa razón precisamente pueden ser
una constante o una expresión). Es más, incluso si el parámetro fuera una variable y se modifi-
case dentro del subprograma, fuera de éste dicha modificación no tendría ninguna repercusión.
Las funciones solamente pueden recibir información de entrada, nunca devuelven infor-
mación por sus parámetros, para ello utilizan la instrucción retorno y asocian a su propio
nombre el valor a devolver.
– Por referencia: la característica principal de técnica es que no se guarda el valor del paráme-
tro formal, sino su dirección de memoria. De esta forma cualquier modificación que se efec-
túe sobre el parámetro formal tendrá una repercusión directa en el parámetro real asociado:
a la salida del subprograma el parámetro refleja cualquier modificación que haya sufrido.

4.7.4. Funciones y procedimientos


como parámetros  

La mayor parte de los lenguajes permiten


también que una función o procedimiento pue-   
da ser pasado como parámetro de otro subpro-
grama. En este caso se utilizan como paráme-  
tro real funciones o procedimientos que tengan
la misma definición que el parámetro formal.
  

4.8. PROCEDIMIENTOS ANIDADOS


La anidación de procedimientos consiste 
  
en definir un procedimiento dentro de otro.
Esta técnica no se permite en todos los len- 
guajes. Además plantea dificultades en cuanto
al ámbito de las variables.   
Una variable local se conoce en el proce-
dimiento donde se define y en todos los pro-
cedimientos anidados a él. Si alguno de los
procedimientos anidados define a su vez una
variable local con el mismo nombre, en estos
procedimientos siempre nos referiremos a la
Conjunto de procedimientos anidados (PP = Procedimiento
variable definida por él, considerándose priori- principal) y las variables declaradas en cada uno de ellos,
tario el ámbito más restringido. El siguiente es- representadas entre paréntesis
quema ilustra este hecho: (página siguiente)

332 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


LENGUAJES DE PROGRAMACIÓN

VARIABLES ÁMBITO SUBPROGRAMA

A de PP P4, P5

B de PP P1, P2, P3, P4, P5, P6

A de P1 P1, P3

C de P1 P1, P2, P3

D de P1 P1, P2, P3

A de P2 P2

D de P3 P3

E de P3 P3

D de P4 P4, P5, P6

F de P4 P4, P5

F de P6 P6

A de P6 P6
Tabla donde se indican las variables definidas en
los procedimientos anidados de la figura anterior y sus ámbitos

4.9. EFECTOS LATERALES


Un efecto lateral es cualquier modificación que un subprograma (función o procedimiento) realiza
en elementos situados fuera de él mediante alguna forma ajena al paso de parámetros.
Los efectos laterales suelen ser fuentes de muchos errores y se suelen dar de forma no contro-
lada por el programador. La comunicación entre subprogramas sólo se debe hacer a través del paso
de parámetros para evitar estos efectos laterales.

4.10. RECURSIVIDAD
Se dice que un subprograma es recursivo cuando se llama a sí mismo. La recursividad puede
llegar a ser muy útil en problemas que se pueden definir en términos recursivos, como procesos re-
petitivos sobre sí mismos.
Todo programa recursivo debe tener una condición que ponga fin a la recursividad. Cuando se al-
canza esta condición el programa deja de llamarse a sí mismo y comienza a devolver los resultados.
Si no existiese una condición de término o éste estuviera mal definido o planteado y no se alcanza-
se nunca, se formaría un bucle infinito. Ya que las llamadas a subprogramas almacenan cierta informa-
ción en la pila del sistema, un fallo en la condición de término originaría un error al llenarse la pila.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 333


LENGUAJES DE PROGRAMACIÓN

Muchos programadores optan por bucles iterativos siempre que éstos puedan suplir la recursivi-
dad, debido sobre todo a que no siempre es obvio ni fácil programar las condiciones de término, como
tampoco lo es plantear un algoritmo recursivo. Por el contrario, un planteamiento recursivo suele ser
mucho más escueto, elegante y potente que otras técnicas de programación

EJEMPLO: realizar la función potencia con un algoritmo iterativo y otro recursivo. Esta función
toma dos números como parámetros y multiplica el primero por sí mismo tantas veces como
indique el segundo.
A) Algoritmo iterativo
Funcion POTENCIA (Base: entero, Exp: entero): Real
Var P: real
I: entero
Inicio
P Å 1
Desde I =1 hasta Exp
P m P*Base
Fin desde
Retorno P CONDICIÓN DE
Fin TÉRMINO

B) Algoritmo recursivo

Funcion POTENCIA (Base: entero, Exp: entero): Real


Inicio
Si Exp=0 entonces
Retorno 1
Sino
Retorno (Base * Potencia(Base,Exp-1)
Fin

LLAMADA
RECURSIVA

5. EVOLUCIÓN DE LOS LENGUAJES


Cualquier clasificación de lenguajes de programación será siempre un tema de discusión. En
muchos casos, un lenguaje podrá legítimamente aparecer en más de una categoría.
Este apartado se basa en la evolución histórica de los lenguajes de programación y en una clasi-
ficación por generaciones. Hacemos un estudio más profundo de los lenguajes de última generación
(la cuarta) por ser los que actualmente se encuentran en el mercado. Posteriormente repasamos
varios lenguajes con ciertas características inusuales que los hacen ciertamente originales.

5.1. PRIMERA GENERACIÓN


La primera generación de lenguajes se remonta a los días en que se codificaba a nivel de máqui-
na. Todavía continúan llevándose a cabo bastantes trabajos con lenguajes de primera generación. El
código máquina y su equivalente más humanamente legible, el lenguaje ensamblador, representan

334 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


LENGUAJES DE PROGRAMACIÓN

la primera generación de lenguajes. Estos lenguajes dependientes de la máquina muestran el menor


nivel de abstracción con el que se puede representar un programa.
Existen tantos lenguajes ensambladores como arquitecturas de procesadores con sus correspon-
dientes conjuntos de instrucciones. Desde un punto de vista de la ingeniería del software, esos lenguajes
sólo se deben usar cuando un lenguaje de alto nivel no satisfaga los requisitos o no esté disponible.

5.2. SEGUNDA GENERACIÓN


La segunda generación de lenguajes fue desarrollada a finales de los años 50 y principios de los
60 y ha servido como base para todos los lenguajes de programación modernos (tercera generación).
La segunda generación de lenguajes está caracterizada por su amplio uso, la enorme cantidad de
bibliotecas de software y la gran familiaridad y aceptación. Prácticamente nadie pone en duda que
FORTRAN, COBOL, ALGOL y BASIC son lenguajes de base, debido a su madurez y su aceptación.

5.3. TERCERA GENERACIÓN


Los lenguajes de tercera generación (también denominados lenguajes de programación moderna
o estructurada) están caracterizados por sus potentes posibilidades procedimentales y de estructu-
ración de datos.
Los lenguajes de esta clase se pueden dividir en tres amplias categorías:
– Lenguajes de alto nivel de propósito general.
– Lenguajes de alto nivel orientados a los objetos.
– Lenguajes especializados: diseñados para satisfacer requisitos especiales y, a menudo,
tienen una formulación y una sintaxis únicas.

5.4. LENGUAJES DE CUARTA GENERACIÓN

5.4.1. Introducción
La tendencia general en la evolución de los lenguajes de programación ha sido incrementar los
niveles de abstracción a la hora de crear programas. Los lenguajes de la primera generación trabaja-
ban a nivel de instrucciones máquina, el menor nivel de abstracción posible. Los lenguajes de segun-
da y tercera generación han subido el nivel de representación de los programas de ordenador.
Durante la pasada década, los lenguajes de cuarta generación han elevado aún más el nivel de
abstracción. Estos lenguajes, al igual que los lenguajes de inteligencia artificial, contienen una sintaxis
distinta para la representación del control y para la representación de las estructuras de datos.
Los lenguajes de cuarta generación combinan características procedimentales y no procedimentales:
– El lenguaje permite al usuario especificar condiciones con sus correspondientes acciones.
Este es el componente procedimental que se manifiesta en la definición de tipos de constan-
tes, tipos de datos elementales, visibilidad de las variables (locales o globales), sentencias
de control de flujo, definición de funciones y procedimientos, etc.
– La parte no procedural suele estar basada en el lenguaje SQL (Structured Query Language)
o, como mínimo, en lenguajes de consulta de bases de datos relacionales mediante los
cuales el usuario indica el resultado deseado.
NOTA: los lenguajes de cuarta generación también se denominan 4GL (4th
Generation languages).
Los 4GL son entornos de desarrollo de aplicaciones constituidos por un conjunto de herramientas
integradas entre las que se encuentran editores, compiladores, sistemas para el acceso a bases de
datos, generadores de informes, generadores de pantallas (modo carácter, interfaces gráficas), etc.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 335


LENGUAJES DE PROGRAMACIÓN

Con los 4GL se consigue un aumento de productividad gracias a dos factores importantes (entre
otras muchas innovaciones):
– La utilización de funciones preprogramadas.
– El entorno de desarrollo que facilita la realización de determinadas tareas como diseño de
pantallas o informes.

5.4.2. Clasificación de 4GL


Estos lenguajes se pueden clasificar desde diferentes criterios:
– En función de su relación con un determinado gestor de base de datos:
* Lenguajes ligados a una base de datos: la mayoría de los gestores de bases de
datos cuentan con un lenguaje de cuarta generación. Son lenguajes propietarios, lo
que significa que sirven únicamente para acceder a esa base de datos en particular. El
aprovechamiento de los recursos del gestor es muy alto.
* Lenguajes independientes del gestor de base de datos: tienen la capacidad de
acceder a diferentes bases de datos, generalmente aquellas que soportan un estándar
común. No son lenguajes propietarios y por tanto no ligados a ninguna base de datos
en particular. La necesidad de utilizar el 4GL siguiendo estrictamente el estándar para
asegurar la accesibilidad a diferentes bases de datos impide sacar el máximo provecho
de cada una de ellas.
– En función de la naturaleza de su sintaxis:
* Lenguajes procedurales: el programa se desarrolla como una secuencia de pasos que
la computadora ejecuta para llegar al fin deseado. Los desarrolladores deben codificar
los flujos de control de las actividades a realizar, además de las actividades en sí.
* Lenguajes conducidos por eventos: permiten a los desarrolladores especificar la eje-
cución de rutinas asociadas a acciones dadas del usuario, tales como apretar un tecla
o mover el ratón, sin tener que codificar cada paso dado para ejecutar dicha acción.

5.4.3. Componentes y funcionalidades de un 4GL


Los principales componentes de un lenguaje de cuarta generación son:
– Editor: herramienta para escribir los programas. Puede contar con utilidades como:
* Ayuda de tratamiento de textos.
* Facilidades para incorporar el nombre de variables, objetos o funciones.
* Chequeo preliminar de errores de sintaxis.
* Utilidades de selección, copia o movimiento de bloques.
* Posibilidad de deshacer el último cambio.
– Compilador: traduce las sentencias del lenguaje fuente a código binario o a un código objeto.
Algunos lenguajes incorporan también la posibilidad de utilizar y generar librerías de enlace di-
námico (DDL), lo que permite una mayor flexibilidad y capacidad de reutilización del código.
– Módulo de acceso a base de datos: incorpora la interfaz con el gestor de base de datos.
Facilita toda la comunicación con la base de datos, desde el diseño de las tablas hasta la
construcción de sentencias para recuperar información. La mayoría de los 4GLs soporta el
lenguaje SQL estándar como lenguaje de acceso a base de datos relacionales, lo que garan-
tiza la portabilidad.
– Módulo de ayuda a las pruebas: hay 4GLs que permiten una ejecución controlada del có-
digo para poder aislar un error, con técnicas de ejecución paso a paso, localizando los puntos
de parada y permitiendo la modificación del contenido de las variables durante la ejecución.

336 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


LENGUAJES DE PROGRAMACIÓN

* Generador de informes y pantallas: los 4GLs incorporan módulos para la construcción


rápida de pantallas, ya sea en modo carácter o en modo gráfico. Asimismo, algunos cuentan
con un módulo de generación de informes a través de consultas a la base de datos.
– Diccionario: algunos 4GLs cuentan con un diccionario en el que almacenan la información
referente a los objetos de la aplicación. Esto facilita la gestión de los objetos generados
especialmente para trabajos en grupo.
– Gestor de librerías: el gestor de librerías permite:
* La distribución de los objetos por las librerías siguiendo los criterios que se establez-
can.
* La localización rápida de los objetos con el fin de analizar el impacto de una modifica-
ción o corregir un error.
* La coordinación de los trabajos en equipo.
– Módulo de control de versiones: facilidades para el control de versiones o aporte de inter-
faz con alguna herramienta del mercado para el control de versiones.
– Biblioteca con funciones u objetos reutilizables: la funcionalidad de este tipo de biblio-
tecas permite volver a usar componentes y fragmentos de código ya probados y depurados
en la creación de nuevas aplicaciones, ahorrando tiempo y costes.

5.4.4. Evolución de los 4GL


La evolución de los 4GL parece dirigirse hacia:
– Independencia de plataformas hardware y software.
– Independencia de estructuras de datos y acceso a información distribuida.
– Acceso a objetos distribuidos: permite independizar los recursos de la localización física de
los mismos.
– Interoperabilidad con herramientas ofimáticas.
– Soporte para diferentes interfaces gráficas de usuario.
– Soporte para diferentes entornos de red.
– Aplicación extendida del modelo cliente/servidor, tanto en el funcionamiento del propio 4GL
como en las aplicaciones generadas.
– Soporte para desarrollo de aplicaciones para Internet e Intranet. Es destacable la tendencia
actual a modelos de desarrollo en los cuales la base de datos y la lógica de la aplicación re-
siden bien en un servidor común, bien en distintos servidores, mientras que la presentación
de la misma en el cliente se realiza mediante un navegador a través de una red Intranet.
– Incorporación de la tecnología de orientación a objetos. Si bien son pocas las herramientas
que implementan esta tecnología de forma completa, muchas de ellas aprovechan algunas
funciones propias de la misma.
– Compatibilidad con otros lenguajes. Algunas herramientas ya son capaces de utilizar módu-
los generados por otros lenguajes.
– Aplicación de capacidades multimedia.

5.5. LENGUAJES ESPECIALIZADOS


Los lenguajes especializados están caracterizados por su inusual formulación sintáctica que ha
sido especialmente diseñada para una aplicación particular. Actualmente se usan cientos de lengua-
jes especializados. En general, estos lenguajes tienen una base de usuarios mucho menor que los
lenguajes de propósito general. Entre los lenguajes que han encontrado aplicación en la comunidad
de la ingeniería del software están LISP, PROLOG, APL y FORTH.
Estudiaremos algunos de ellos en el siguiente apartado.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 337


LENGUAJES DE PROGRAMACIÓN

6. PRINCIPALES LENGUAJES
A continuación hacemos un breve repaso por los lenguajes de programación más importantes.
NOTA: el orden en el estudio de los lenguajes obedece aproximadamente a su
aparición cronológica.

6.1. FORTRAN
FORTRAN (FORmula TRANslator) fue desarrollado entre 1954-57 por John Backus (IBM). Cons-
tituye el primer lenguaje de programación de alto nivel. Su novedad fundamental es permitir la escri-
tura de expresiones en forma algebraica y la declaración de identificadores.
FORTRAN ha subsistido hasta la actualidad y sigue siendo el primer lenguaje de programación
en el ambiente científico y de ingeniería. La versión estandarizada original de FORTRAN (denominada
“FORTRAN-66”) resultó ser una potente herramienta para la resolución de problemas computacio-
nales; aunque le faltaba el soporte directo de estructuras de control, tenía una tipificación de datos
pobre, no facilitaba un soporte a la manipulación de cadenas y tenía algunas otras deficiencias.
El último estándar ANSI (denominado “FORTRAN-77”) y el próximo estándar corrigen algunas de las
deficiencias encontradas en versiones anteriores del lenguaje. En muchos casos, FORTRAN ha sido forza-
do a ajustarse a áreas de aplicación para las que no fue nunca diseñado, por lo que muchas de las críticas
que ha recibido el lenguaje han sido injustas. Para las aplicaciones de cálculo numérico, FORTRAN sigue
siendo el lenguaje elegido, al igual que para aplicaciones de software de sistemas, de tiempo real, etc.
Otras características del FORTRAN son:
– Se han escrito versiones para muchas arquitecturas, desde pequeños ordenadores persona-
les hasta grandes supercomputadores.
– Extenso juego de palabras reservadas.
– La estructura de un programa consta de un programa principal y uno, varios o ninguno
subprogramas, que se compilan por separado y más tarde se linkan.
– No permite las llamadas recursivas, puntero ni tipos de datos definidos por el usuario.
– Los métodos de E/S son muy potentes pero engorrosos.
– Su punto débil es el tratamiento de información no numérica.

6.2. COBOL
COBOL (Common Business Oriented Language) fue definido en 1960 por CODASYL (COnfe-
rence on DAta SYstems and Languages), un comité mixto de industria y gobierno norteamericanos
(Departamento de Defensa).
COBOL, al igual que FORTRAN, ha alcanzado la madurez y es el lenguaje aceptado como “están-
dar” para aplicaciones de procesamiento de datos comerciales. Fue estandarizado por ANSI en 1968
y logra una independencia importante de las arquitecturas donde se ejecuta.
Aunque el lenguaje ha sido a veces criticado por su falta de unidad, tiene excelentes posibilida-
des de definición de datos, es muy auto-documentado y proporciona soporte para un gran rango de
técnicas algorítmicas relativas al procesamiento de datos en los negocios.
Otras características del COBOL son:
– Utiliza un inglés sencillo y su prioridad es la facilidad de uso a costa de una menor potencia.
– El juego de palabras reservadas es muy grande, incluyendo algunas “falsas palabras” que se utilizan
para aumentar la legibilidad de los programas, pero que no tienen efecto sobre el compilador.
– Todos los datos de E/S se estructuran en ficheros compuestos de registros.
– Algunos lo consideran demasiado engorroso y reiterativo, aunque su estructura general es
bastante clara.

338 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


LENGUAJES DE PROGRAMACIÓN

– Existen construcciones específicas que no son demasiado cómodas (por ejemplo, la ordena-
ción: SORT).
– El mayor obstáculo del COBOL está en la visión negativa que tiene de él la comunidad uni-
versitaria.
– Su futuro está asegurado por las enormes inversiones realizadas.
– Su mayor desafío es un incremento de herramientas de desarrollo.
Los programas constan de las siguientes divisiones (cada división se estructura a su vez en sec-
ciones, párrafos, sentencias y palabras):
– IDENTIFICATION DIVISION: identifica el programa fuente y el autor, comentarios.
– ENVIRONMENT DIVISION: liga al programa fuente a una configuración especial específica
del hardware, definida de esta forma por el montador.
– DATA DIVISION: consta de las siguientes secciones, donde se realizan las descripciones
respectivas de ficheros, registros y variables:
* File Descriptions
* Record Descriptions
* Data Descriptions
– PROCEDURE DIVISION: contiene los módulos de programa.

6.3. LISP
Fue creado en 1960 por John McCarthy. Acrónimo de List processor. Es un lenguaje especial-
mente adecuado para la manipulación de símbolos y el procesamiento de listas en problemas combi-
natorios. Usado casi exclusivamente por la comunidad de la inteligencia artificial.
LISP facilita las especificaciones de hechos, reglas y sus correspondientes inferencias (implemen-
tadas como funciones LISP), lo que constituye la base de los sistemas apoyados en el conocimiento.
El lenguaje es especialmente adecuado para la prueba de teoremas, las búsquedas en árboles y otras
actividades de resolución de problemas.
Los subprogramas están implementados como funciones y hacen un gran uso de la recursividad.
Debido a que cada función de LISP es una unidad independiente, se puede conseguir una gran reu-
sabilidad mediante la creación de bibliotecas de funciones primitivas. En estos últimos años, LISP ha
sido usado para el desarrollo de una gran cantidad de sistemas expertos.
Características:
– Fue desarrollado en 1959 por un grupo de investigación sobre inteligencia artificial (IA) del MIT.
– Está orientado a escribir programas basados en la manipulación de símbolos, y se parece
muy poco a cualquier otro lenguaje.
– Ha sido el lenguaje por excelencia de la IA, una de cuyas tareas más comunes es la compa-
ración y búsqueda en grandes cadenas de datos.
– No tiene una estructura procedimental.

6.4. ALGOL
Algol (Algorithmic language) fue diseñado por un comité de expertos internacionales liderado por
Alan J. Perlis y Peter Naur en 1960. Fue el primer lenguaje de programación especificado mediante
una notación formal. Introduce los tipos y la estructura de bloques.
El lenguaje de alto nivel de propósito general más antiguo (también un lenguaje de base), ALGOL,
ha servido como modelo para otros lenguajes de esta categoría. Sus descendientes, PL/1, PASCAL,
Modula-2, C y Ada, han sido adoptados como lenguajes con potencial para un gran espectro de apli-
caciones (ciencia e ingeniería, productos comerciales, aplicaciones de sistemas, etc.).

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 339


LENGUAJES DE PROGRAMACIÓN

Ofrece un repertorio extremadamente rico de construcciones procedimentales y de tipificación


de datos. ALGOL ha sido extensamente usado en Europa, pero ha encontrado poca aceptación en
Estados Unidos (exceptuando el entorno académico). La versión más comúnmente usada del lengua-
je, denominada correctamente “ALGOL-60”, ha sido extendida a una implementación más potente,
ALGOL-68. Ambas versiones del lenguaje soportan el concepto de estructuración en bloques, asigna-
ción dinámica de memoria, recursividad y otras características con gran influencia en los lenguajes
modernos que le siguieron.

6.5. PL/1
Este lenguaje se diseñó por IBM a mediados de los 60 para servir igualmente para aplicaciones
tanto de gestión como científicas, incorporando los conceptos introducidos por Algol y añadiendo otros
nuevos. Como consecuencia se obtuvo un lenguaje muy complejo y con sintaxis un tanto extraña.
PL/1 permite la especificación de sofisticadas estructuras de datos, multitarea, una compleja E/S, pro-
cesamiento de listas y muchas otras posibilidades. Se han desarrollado subconjuntos del lenguaje para:
– Enseñar programación (PL/C).
– Aplicaciones de microprocesadores (PL/M).
– Programación de sistemas (PL/S).

6.6. BASIC
BASIC (Beginners All-Purpose Symbolic lnstruction Code) fue creado en 1965 por Thomas E.
Kurtz en el Darthmouth College (USA).
BASIC es un lenguaje que fue originalmente diseñado para enseñar programación en modo de
tiempo compartido. El lenguaje parecía destinado a quedarse obsoleto a principios de los años 70,
pero con el advenimiento de los ordenadores personales ha renacido. Existen cientos de versiones de
BASIC, lo que hace difícil discutir las ventajas y las deficiencias del lenguaje.
Otras particularidades del BASIC son:
– Se diseñó para introducir a los estudiantes de ciencias en la programación. Kurth y Kemeny
desarrollaron el primer compilador BASIC en un ordenador General Electrics 255.
– La facilidad de uso fue su objetivo incluso a costa de perder eficiencia.
– Bien aceptado desde su creación, ha sido uno de los más populares del mundo y muchos mi-
croordenadores de primera generación (1980-90) lo incorporaban de fábrica en ROM o en su
SO. Con el tiempo se ha ampliado y diversificado, convirtiéndose en una potente herramienta.
– No es demasiado portable, ya que se ha especializado en diversas plataformas.
– Las primeras versiones tenían un reducido número de palabras reservadas (sólo algo más de
una decena). Actualmente este juego se ha ampliado mucho más.
– La estructura de los programas consiste en una secuencia de instrucciones. Aunque se
pueden escribir subrutinas, éstas no se diferencian del cuerpo del programa y no se pueden
pasar parámetros.
– El alcance de las variables es global. No existen variables locales.
– Sólo tiene dos tipos de datos: numéricos y cadenas de caracteres.
– Los identificadores sólo pueden tener una letra (o una letra seguida de un dígito).
– La E/S es sencilla con potencia aceptable.
A pesar de su simplicidad se usa para desarrollar una enorme variedad de aplicaciones. Existe un es-
tándar ANSI pero existen muchas versiones propietarias. GW-BASIC es una versión característica del DOS.
Recientemente han aparecido muchas variaciones de BASIC que se utilizan para programar ma-
cros dentro de otras aplicaciones como, por ejemplo, en Microsoft Word, Excel, Access que permiten
personalizar y añadir funcionalidades nuevas a estas aplicaciones.

340 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


LENGUAJES DE PROGRAMACIÓN

6.7. SIMULA
Desarrollado en 1967 en Noruega. Aplica los conceptos fundamentales de la orientación a obje-
tos y programación estructurada y modular.

6.8. C
Fue diseñado en 1971 por Ritchie, de los laboratorios Bell, para ser utilizado en la familia PDP-11
de IBM. El primer programa importante escrito en C fue el sistema operativo UNIX, y durante muchos
años fue asociado a él.
Aunque es un lenguaje de alto nivel está más cercano al ensamblador que otros lenguajes tam-
bién de alto nivel; esto permite a los programadores escribir un código muy eficiente aunque puede
hacer que los programas sean difíciles de seguir.
El lenguaje C fue desarrollado para el ingeniero de software sofisticado y con-
tiene potentes posibilidades que le dan una considerable flexibilidad.
Como otros lenguajes de esta categoría, C soporta estructuras de datos sofisticadas y tiene
características de tipificación, hace un uso intensivo de los punteros y tiene un rico conjunto de ope-
radores para el cálculo y la manipulación de datos.
Actualmente es un lenguaje de programación muy potente y flexible usado en un gran número de
aplicaciones de gestión y de ingeniería. Es muy popular en el entorno del PC porque es relativamente
pequeño y requiere menos memoria que otros lenguajes.
Las características más importantes del C se resumen a continuación:
– Es un lenguaje moderno de propósito general que combina características de los lenguajes
de alto nivel con otras que sólo se encuentran en lenguajes de bajo nivel.
– Es muy útil para escribir software de sistemas.
– Actualmente tiene mucha aceptación, habiéndose implementado desde superordenadores
hasta micros, y se está convirtiendo en un estándar industrial.
– El objetivo principal es generar código eficiente.
– Tiene un conjunto de palabras pequeño, pero una gran flexibilidad en su sintaxis (lo cual
puede llegar a dificultar mucho su legibilidad).
– Admite un pequeño conjunto de datos tipo, pero permite la creación de estructuras definidas
por el usuario.
– Utiliza profusamente los punteros, lo que puede ocasionar fallos muy difíciles de detectar.
Por esta razón su aprendizaje es más costoso que otros lenguajes.
– No dispone de facilidades de E/S. Para ello tiene una serie de librerías que dependen de
cada implementación.

6.9. PASCAL
Pascal es un lenguaje de alto nivel desarrollado por Niklaus Wirth en 1971. Su nombre le viene
dado por el matemático francés Blaise Pascal, que construyó la primera máquina de sumar mecánica.
Es un lenguaje conocido por su afinidad con las técnicas de programación estructuradas. La
naturaleza del lenguaje fuerza a los programadores a diseñar programas metódica y cuidadosamente.
Por esta razón es un lenguaje muy popular en la enseñanza.
Desde su introducción, PASCAL ha encontrado mucho apoyo en grandes audiencias de personal
dedicado al desarrollo de software y es usado ampliamente en aplicaciones de ciencia, ingeniería y
de programación de sistemas (el lenguaje ha sido llamado “el FORTRAN de los 80”). PASCAL es un
descendiente directo de ALGOL y contiene muchas de sus propias características: estructuración en
bloques, fuerte tipificación de datos, soporte directo de la recursividad y otras características suple-
mentarias. Ha sido implementado en computadoras de todo tipo.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 341


LENGUAJES DE PROGRAMACIÓN

Sus características más destacables son:


– Propósitos educativos y de fomento de buenas prácticas de programación.
– Su uso es muy amplio en escuelas y negocios, y desde su publicación ha ido ganando adeptos.
– Tiene una estructura concisa y consistente, además de estar cercanos a la arquitectura
moderna de los ordenadores.
– Tiene un conjunto de palabras reservadas bastante grande, incluyendo algunas que no se
encuentran en ningún otro lenguaje.
– Los programas se estructuran en bloques y procedimientos muy estructurados.
– Uno de sus puntos fuertes es la gran variedad de tipos de datos y la posibilidad de definir
otros nuevos por el usuario.
– Admite punteros, matrices, conjuntos (con operaciones asociadas) y registros.

6.10. PROLOG
Acrónimo de Programming Logic, fue desarrollado en 1972 por Alain Kolmerauer. Prolog es un
lenguaje de programación de alto nivel basado en la lógica formal. Es un lenguaje declarativo que se
apoya en un conjunto de reglas y de hechos. Se utiliza en entornos de inteligencia artificial para el
desarrollo de sistemas expertos.
Al igual que LISP, PROLOG proporciona medios de soporte para la representación del conocimien-
to. Dentro del lenguaje, se usa una estructura de datos uniforme, denominada término, para construir
todos los datos y todos los programas.
Cada programa consiste en un conjunto de cláusulas que representan hechos, reglas e inferencias.
Tanto LISP como PROLOG son especialmente adecuados para los problemas que tratan objetos y sus rela-
ciones. Por esta razón, alguna gente se refiere a LISP y PROLOG como lenguajes orientados a los objetos.

6.11. MODULA-2
Desarrollado en la segunda mitad de los 70 por Niklaus Wirth.
A pesar de su éxito en ciertos ámbitos, Pascal ha tenido poca repercusión en el mundo de los negocios.
Parte de esta resistencia de los programadores a utilizarlo viene de su inflexibilidad y la falta de utilidades de
desarrollo. Para resolver estos problemas Wirth desarrolló un nuevo lenguaje llamado Modula-2, similar a
Pascal pero con características adicionales, como compilación separada de módulos y multitarea.
Modula-2 es un descendiente evolucionado de PASCAL y (como dirían algunos) una posible al-
ternativa para el lenguaje de programación Ada. Modula-2 junta las posibilidades de implementación
directa del diseño, como el ocultamiento de información, la abstracción y la fuerte tipificación de
datos, con las estructuras de control que soportan la recursividad y la concurrencia. Hasta ahora, el
uso de Modula-2 en aplicaciones industriales ha estado muy limitado.

6.12. SQL
Abreviación de Structured Query Language (lenguaje de consulta estructurado). Es un lenguaje
estándar de base de datos. diseñado por IBM en 1974/75. Oracle fue la primera empresa que lo
integró en su base de datos. Ha sido estandarizado por ANSI y la última versión oficial que existe en el
mercado es SAG SQL. Se utiliza como lenguaje de programación propiamente dicho y como lenguaje
de programación embebido, incrustado en otros lenguajes, habitualmente en C.

6.13. ADA
Desarrollado en la segunda mitad de los 70 por el Departamento de Defensa de los Estados
Unidos como un nuevo estándar para sistemas en tiempo real.

342 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


LENGUAJES DE PROGRAMACIÓN

Similar a PASCAL en notación y estructura (aunque más potente y complejo), Ada soporta un rico
conjunto de posibilidades que incluyen la multitarea, el manejo de interrupciones, la sincronización y
comunicación entre tareas, así como un conjunto de características únicas como el paquete.
Ada ha creado mucha controversia y continúa generándola. Sus adictos alaban su rica estructura
de lenguaje y su enfoque de entorno Ada para la ingeniería del software, en lugar de toda una para-
fernalia orientada al lenguaje. Sus detractores se preocupan por la complejidad del lenguaje, la actual
ineficiencia de los compiladores y la larga curva de aprendizaje. Parece, sin embargo, que son más los
beneficios del lenguaje: Ada dominó durante los años 90 ciertos ámbitos de aplicación.

6.14. SMALLTALK
Diseñado en 1980 por Alan C. Kay (Xerox). Es el primer lenguaje orientado a objetos y a la pro-
gramación visual. A pesar de que algunos lo consideran el único verdaderamente orientado a objetos,
no ha tenido mucha repercusión en el mercado.

6.15. C++
Creado en 1983 por Bjarne Stroustrup. C++ proporciona características de orientación a obje-
tos al lenguaje C. Es muy popular en entornos gráficos de programación.

7. LENGUAJES DE PROGRAMACIÓN ACTUALES


El auge del desarrollo de software, la orientación a objetos y la expansión de los campos de apli-
cación han generado muchos nuevos lenguajes y dialectos de lenguajes convencionales.
Los lenguajes puros visuales de programación se definen, no mediante una sintaxis textual, sino
mediante una sintaxis gráfica. La programación consiste en la aplicación e interrelación de constructores
gráficos. Las ventajas son un gran aumento de productividad, escaso tiempo de aprendizaje y la elimina-
ción de los errores, pues la forma visual de trabajar impone por sí la corrección sintáctica y semántica.

7.1. VISUAL BASIC


Microsoft Visual Basic es un lenguaje de programación y entorno completo de desarrollo de
Microsoft basado en Basic. Es uno de los primeros productos que proporciona un entorno gráfico de
programación y permite diseñar rápidamente interfaces de usuario arrastrando y soltando controles,
como botones y cuadros de diálogo, sin más que definir su apariencia y comportamiento.
Proporciona características de la programación orientada a objetos al Basic estándar, pero no se
puede considerar como tal; se suele decir que está orientado a eventos. Los objetos pueden reaccio-
nar a diferentes eventos provocados por los usuarios tales como un clic o doble clic de ratón. Se le
considera un sistema RAD (Rapid Application Development), ya que permite construir prototipos de
aplicaciones de manera rápida.

7.2. VBSCRIPT
Acrónimo de Visual Basic Scripting Edition, es un lenguaje de comandos desarrollado por Micro-
soft para programar en navegadores web. Se basa en VisualBasic pero es mucho más simple.

7.3. DELPHI
Delphi es un sistema de desarrollo rápido de aplicaciones o RAD desarrollado por Borland. Está
basado en PASCAL.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 343


LENGUAJES DE PROGRAMACIÓN

7.4. JAVA
Lenguaje de programación de alto nivel desarrollado por Sun Microsystems. Originariamente se
llamó OAK y fue diseñado para realizar software empotrado en pequeños electrodomésticos y dispo-
sitivos de control. Con el éxito de la web empieza a cobrar importancia hasta la actualidad, en que es
un lenguaje ampliamente utilizado en el mundo de Internet.
Es un lenguaje de propósito general orientado a objetos similar a C++, pero ampliamente sim-
plificado. Los ficheros de código Java con la extensión .java se compilan en un formato llamado byte-
code (ficheros con extensión .class), los cuales son ejecutados por el intérprete de Java.
El intérprete/compilador de código Java puede ejecutarse en la mayoría de los ordenadores,
donde se ejecuta un módulo denominado Java Virtual Machine que consigue que el programa sea
totalmente independiente de la plataforma y del sistema en que se esté ejecutando.
El formato bytecode puede ser convertido directamente a código máquina con los compiladores
just-in-time (JIT), que van convirtiendo conforme van llegando instrucciones.
Los applets son pequeños programas escritos en Java que se pueden descargar desde el ser-
vidor web y se pueden ejecutar en cualquier navegador compatible (como Netscape Navigator o
Microsoft Internet Explorer).
Sus principales características son:
– Independencia de plataforma: Java se ejecuta en la mayor parte de plataformas de hard-
ware y software, entre las que se incluyen Windows 9x, NT, 2000, XP, Macintosh y varias
gamas de Unix, y prácticamente todos los navegadores Internet del mercado.
– Orientación a objetos: Java es un lenguaje verdaderamente orientado a objetos, con todas
las ventajas que ello conlleva.
– Seguridad: Java es uno de los primeros lenguajes de programación que tiene en cuenta la
seguridad como parte de su diseño. El compilador, el intérprete, la API y los navegadores
compatibles con Java contienen todos ellos varios niveles de medidas de seguridad, dise-
ñadas para reducir el riesgo del compromiso de seguridad, pérdida de datos, integridad del
programa y daños a los usuarios del sistema.
– Simplicidad: el lenguaje Java fue diseñado para ser un lenguaje fácil de aprender, construi-
do con la sintaxis y muchas de las características de C++.
– Soporte intrínseco de multitarea.
– Estandarización: al tener los derechos legales de Java única y exclusivamente Sun, no hay
posibilidad de encontrarnos con distintos Java’s.

7.5. JAVASCRIPT
Lenguaje desarrollado por Sun compatible con Java pero totalmente independiente de éste. Se
utiliza para generar páginas web interactivas e interactúa con código HTML.

7.6. VISUAL C
Visual C++ es un entorno de desarrollo de aplicaciones de Microsoft basado en C++. Propor-
ciona soporte de orientación a objetos para aplicaciones Windows de 32 bits y un entorno de desa-
rrollo integrado, compilador C/C++, librería de clases llamada MFC (Microsoft Foundation Classes),
un AppWizard, y ClassWizard que facilitan la creación de aplicaciones y clases.

7.7. PERL
Son las siglas de Practical Extraction and Report Language; es un lenguaje de programación de-
sarrollado por Larry Wall para el tratamiento de texto. Es el lenguaje más popular que se utiliza para la
programación de scripts en CGI. Es un lenguaje interpretado muy fácil de utilizar y depurar.

344 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


LENGUAJES DE PROGRAMACIÓN

NOTA: CGI es la abreviación de Common Gateway Interface, y es una especi-


ficación para transferir información entre la WWW y bases de datos o formularios.
Los programas CGI se pueden escribir en cualquier lenguaje; generalmente se utili-
za Java, JavaScript, VBScript, Perl, etc.

8. SOFTWARE DE DESARROLLO
El software de desarrollo, entre los que se incluyen los lenguajes de programación, tienen como
objetivo la creación de nuevo software; es decir, programas diseñados para crear nuevos programas.



 




 

   
 

 





 



 


    

 
 
  

    

  

   

  



Relación entre los tres grupos principales de software. Tanto el software de desarrollo como el de aplicación trabajan utilizando
los servicios proporcionados por el software de sistema (que estudiaremos en el tema sobre sistemas operativos), el cual actúa
directamente sobre el hardware. Los programadores utilizan el software de desarrollo para producir nuevo software; los usuarios
por su parte utilizan el software de aplicación obteniendo resultados

El software de desarrollo consiste en su mayor parte en unos programas llamados traductores,


que toman como datos de entrada el código fuente y lo traducen a código máquina directamente
utilizable por el ordenador.
NOTA: en ocasiones al código fuente también se le denomina programa fuen-
te y consiste en la traducción de un algoritmo a un lenguaje de programación.

8.1. CLASIFICACIÓN DEL SOFTWARE DE DESARROLLO


Un programa escrito en lenguaje de alto nivel (código fuente) no es ejecutable directamente por el
ordenador; se necesita un proceso de traducción hacia el lenguaje o código particular de la máquina.
La traducción de una instrucción de alto nivel a un lenguaje de menor nivel genera varias instruc-
ciones de este último, de modo que la conversión se dice que es del tipo “una a muchas”. Además
el proceso de traducción siempre introduce cierta pérdida de eficiencia.
Existen tres tipos básicos de programas traductores. Cada uno de ellos emplea una técnica dis-
tinta de traducción del código fuente al máquina:
– Compiladores: traducen lenguajes de programación de alto nivel (COBOL, PASCAL) en len-
guaje máquina. Un compilador primero genera lenguaje ensamblador y después lo traduce a
lenguaje máquina. El programa se traduce primero completamente, es decir, se “compila”,
y, tras comprobar que no existen errores, se ejecuta. El resultado es que los programas com-
pilados se ejecutan más rápidamente que los interpretados.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 345


LENGUAJES DE PROGRAMACIÓN

– Intérpretes: traductores de lenguajes de programación de alto nivel que traducen y ejecu-


tan el programa al mismo tiempo, es decir, traducen una sentencia de programa a lenguaje
máquina y el microprocesador a continuación la ejecuta, y cuando termina pasa a traducir la
siguiente. Un lenguaje de este tipo es el BASIC.
– Ensambladores: traduce lenguajes de bajo nivel a código máquina.
Además existen traductores que complementan estas técnicas dando como resultado sistemas
híbridos. Por otra parte, podemos encontrar utilidades que, aunque no son estrictamente traductores,
suponen una importante ayuda para resolver ciertas tareas rutinarias de los programadores: son los
programas de servicio.

8.1.1. Compiladores
Se desarrollaron para resolver el problema de la dependencia de los programas de bajo nivel
respecto a una arquitectura de ordenador concreta. Permiten el desarrollo de programas indepen-
dientes de la máquina, logrando mayor velocidad de programación, programas transportables entre
sistemas diferentes y menores requerimientos de conocimientos de hardware.
Los compiladores transforman un programa escrito en un lenguaje simbólico de alto o medio nivel
a código máquina directamente ejecutable por el ordenador. Esta traducción sufre una serie de pasos
que acercan progresivamente el código original al código máquina. La traducción se realiza completa,
no finalizando el proceso hasta que la última instrucción del programa fuente ha sido traducida (en
contraposición a lo que ocurre con un intérprete, como veremos a continuación).
Generalmente cada instrucción del código fuente genera más de una instrucción de código má-
quina, y en caso de existir errores en éste, el compilador los señala, incluso indicando cuáles podrían
ser las causas y sus posibles correcciones.
Las características más importantes de un moderno compilador son:
– Posibilidad de separar la interpretación del código fuente de la generación del código. Esto per-
mite la ejecución inmediata de una parte del código sin haber generado el fichero ejecutable.
– Gestión avanzada de errores. Recuperación desde un estado erróneo del código para poder
continuar con el proceso de interpretación y así detectar el mayor número posible de errores
en una única compilación.
– Optimización del código. La traducción del código fuente va acompañada por una optimiza-
ción del código (en tamaño y/o en rendimiento) a la hora de ejecutar la aplicación.
Existe una clasificación de compiladores en lo que se refiere a la calidad del código generado:
– Compiladores rápidos y “sucios”: producen rápidamente un programa objeto que puede
ser ineficiente respecto de almacenamiento y velocidad de ejecución. La ventaja es que son
muy rápidos y útiles para el desarrollo y prueba de sistemas.
– Compiladores optimizadores: producen con mayor lentitud un código de máquina altamente
eficiente en almacenamiento y ejecución: Útiles en etapa de producción final de los sistemas.

8.1.2. Máquinas virtuales


La idea de máquina virtual surge a principios de los 70 para facilitar el desarrollo de compiladores que
generen código para diferentes procesadores. El fundamento de esta idea es realizar el proceso de traduc-
ción en dos etapas, mediante un lenguaje intermedio definido para procesador virtual (máquina virtual).
La compilación consta de dos partes bien diferenciadas e implementables por separado. La pri-
mera parte traduce el programa fuente al lenguaje intermedio, obteniéndose un programa equivalente
de mucho menor nivel de abstracción que el original pero mayor que el código máquina. El lenguaje
intermedio no es ejecutable directamente. La segunda parte traduce del lenguaje intermedio al len-
guaje específico de la máquina.
La ventaja de este enfoque es que únicamente esta última parte es la que debe elaborarse de nuevo
para cada procesador específico, siendo la primera parte común y reutilizable múltiples veces para cons-
truir compiladores de un mismo lenguaje de programación. Uno de los primeros lenguajes en proceder así
fue Pascal cuyos compiladores generan código intermedio para la denominada Máquina virtual P.

346 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


LENGUAJES DE PROGRAMACIÓN

Otra interesante posibilidad que ofrece el concepto de máquina virtual es que la traducción del programa
en lenguaje intermedio al lenguaje máquina no sea mediante compilación sino mediante un intérprete.
El esquema de construcción y ejecución de aplicaciones en la nueva plataforma .NET de Micro-
soft considera un lenguaje intermedio MSIL (Microsoft Intermediate Language) y una máquina virtual
CLR (Common Language Runtime) común a muchos lenguajes de programación.

8.1.3. Intérpretes
Como los compiladores, los intérpretes transforman el código fuente de un lenguaje de alto nivel
en código máquina ejecutable por el ordenador. Sin embargo un intérprete no realiza la traducción
completa del código fuente, más bien traduce cada instrucción de dicho código fuente en una o más
instrucciones de código máquina, ejecutadas inmediatamente después por el procesador. Una vez eje-
cutada la instrucción (o instrucciones) en código máquina, se traduce la siguiente del código fuente.
La principal ventaja de un intérprete frente a un compilador es que prácticamente no existen tiem-
pos de espera desde que comienza el proceso de traducción hasta que se empiezan a obtener los re-
sultados de la ejecución del programa. Sin embargo, la ejecución global del programa resulta más lenta,
pues la traducción del código fuente se realiza progresivamente a medida que avanza el programa.
NOTA: al trabajar con un compilador suele existir un tiempo de espera inicial en
el que se realiza el proceso de traducción completo. Posteriormente, sin embargo,
la ejecución del programa es más rápida ya que éste se encuentra totalmente en
forma de código máquina.
Por otra parte, existen profundas diferencias en la arquitectura interna de ambas modalidades.
Un compilador se construye de una forma distinta a un intérprete, y el proceso que sigue en la tra-
ducción es también diferente. Dado que en la actualidad los compiladores están ganando terreno en
el mercado frente a los intérpretes, estudiaremos la secuencia de pasos seguidas por un moderno
compilador hasta obtener el código fuente. Pero antes veamos en qué consiste un ensamblador.

Compilador Intérprete

Trabajo interactivo: traducen directamente el código


Trabajo por fases
fuente

Los programas se ejecutan más rápido Los programas se ejecutan más despacio (se traducen
(sólo se traducen la primera vez) en cada ejecución)

Errores en tiempo de compilación Errores en tiempo de ejecución

Cada instrucción se traduce tantas veces como se eje-


Cada instrucción sólo se traduce una vez
cute

Código objeto más eficiente Código objeto menos eficiente

Genera programa objeto No genera programa objeto


Tabla comparativa entre compiladores e intérpretes

8.1.4. Ensambladores
Podríamos decir que un ensamblador es un compilador para lenguajes de bajo nivel. Efectiva-
mente, un ensamblador realiza las misma tarea que un compilador, traduciendo completamente el
código fuente a código máquina antes de poder ejecutar nada. Sin embargo el código fuente de un
ensamblador está mucho más cercano al ordenador que los lenguajes de alto nivel traducidos por un
compilador, por lo que tanto su estructura como el proceso que realizan son más sencillos.
Otra consecuencia de utilizar un lenguaje de bajo nivel (curiosamente llamados también ensam-
bladores), es que una instrucción de código fuente origina una sola instrucción en código máquina,
lo que puede dar una idea de lo cercano que se encuentra del ordenador. Algunos autores incluso

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 347


LENGUAJES DE PROGRAMACIÓN

definen los lenguajes ensambladores como una representación simbólica del código máquina. Actual-
mente podemos encontrar varios tipos de ensambladores:
– Ensambladores cruzados.
– Macroensambladores.
– Microensambladores.
– Ensambladores de una o más pasadas.

8.1.5. Programas de servicio


Estos programas realizan tareas útiles o rutinarias que facilitan la labor del programador, por ello
muchas veces se les conoce por utilidades.
Según el rango de actuación de estos programas los podemos clasificar en dos grupos principa-
les; en primer lugar distinguimos los programas de manipulación de datos, que realizan de forma
automáticas tareas tales como:
– Transferencias de informaciones o archivos entre soportes: a medida que un sistema
informático evoluciona, actualizando hardware e implantando nuevo software, los soportes
de información cambian. Las utilidades se encargan de facilitar este proceso, pasando la
información por ejemplo de un soporte magnético (cinta) a otro óptico (CDROM).
– Transformación de informaciones: un sistema de nuevo diseño puede necesitar transfor-
mar la información tratada con un sistema antiguo para adecuarla a nuevas estructuras más
convenientes.
– Reorganización de la información en archivos: a veces es incluso necesario transformar la es-
tructura de los archivos existentes o incluso reorganizar la información existente en otros nuevos.
Los programas de servicio del sistema, por otra parte, se encargan de proporcionar editores
para escribir y preparar los nuevos programas, de crear y mantener las bibliotecas de rutinas, de
actualizar las herramientas de programación, de controlar las versiones de los nuevos productos y de
gestionar y monitorizar eficientemente el trabajo de los equipos de programación.

8.2. ESTRUCTURA GENERAL DE UN COMPILADOR


Un compilador está estructurado en módulos (práctica habitual en los programas complejos) que
actúan prácticamente de forma secuencial. Son los siguientes:

8.2.1. Editor
El editor es una herramienta que facilita al programador la escritura del código fuente. Bási-
camente transforma el ordenador en una máquina de escribir, aunque añade muchas ventajas de
edición, corrección, etc. El editor puede estar integrado en el propio compilador, tal es el caso de
los más modernos, o por el contrario existir como un programa independiente formando parte de las
herramientas utilizadas del sistema, modalidad más común en los antiguos sistemas.

8.2.2. Analizador lexicográfico


También se denomina scanner debido a que su función principal es examinar el código fuente
identificando las unidades básicas del lenguaje de programación. Estas unidades básicas las forman
las instrucciones y operandos que caracterizan dicho lenguaje, y siguiendo la terminología inglesa se
les llama también tokens.
Por ejemplo, supongamos que un programador ha escrito el siguiente código, que hace que el
ordenador pregunte al usuario su nombre y luego lo salude:
– INPUT “Teclea tu nombre: ”; N
– PRINT “Buenos días ”;N

348 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


LENGUAJES DE PROGRAMACIÓN

El analizador lexicográfico identificará los siguientes tokens:


– INPUT
– “Teclea tu nombre: ”
– N
– PRINT
– “Buenos días”
N es una variable que almacena el nombre introducido por el usuario. Hay que destacar que fra-
ses como “Teclea tu nombre” no pertenecen a ningún lenguaje de programación; se identifican como
tokens porque una instrucción INPUT o PRINT deba ir seguida de una cadena de caracteres.
Además de la identificación de tokens, se eliminará toda la información superflua que no aporte
nada al programa, como los espacios en blanco o las líneas de comentario que generalmente se in-
troducen para aclarar el significado del código. Una vez terminado este proceso, se realiza una prime-
ra traducción a un código propio del compilador, dando como resultado una secuencia de tokens.
  

"+ ,

 !  - " $%. "


#0 


   (/*
  

 !   %" "

 

  
%   &' () *

& &

$   "# $ 




"+  


!   "# $

"+   )1

$   "# $ . 

"+ 

     



  

Estructura general de un compilador, relaciones entre sus módulos y proceso de compilación


de un programa. A continuación detallamos la función y de cada uno de los módulos

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 349


LENGUAJES DE PROGRAMACIÓN

8.2.3. Analizador sintáctico


El siguiente módulo es el analizador sintáctico (también llamado parser), que recibe la secuencia
de tokens generada en la fase anterior y la vuelve a examinar. El objeto de este nuevo análisis consiste
en la detección de los errores sintácticos y semánticos, como la duplicidad de variables, secuencia
de tokens que no se ajustan a la gramática del lenguaje, etc. Los posibles errores se comunican al
programador como veremos más adelante.
Hasta esta fase el proceso seguido es independiente del tipo de ordenador con el que se esté
trabajando. De esta forma conseguimos la portabilidad del código (posibilidad de que se use en
distintas plataformas), característica que además abarata la construcción de compiladores.

8.2.4. Generador de código intermedio


Si en la fase anterior no se producen errores, el generador de código intermedio traduce el análisis
resultante a un formato propio del compilador. Ahora el código intermedio depende totalmente del ordena-
dor con el que se trabaja, ya que se basa en las instrucciones y arquitectura particulares del procesador.
NOTA: el código intermedio también se denomina código o programa objeto.

    

     

 
     

 

     

     

       !

Estructura simplificada de un compilador preparado para generar código portable a ordenadores de distinta plataforma.
Existe una parte común que corresponde con el proceso de análisis, así como otros módulos específicos para
cada plataforma en particular que corresponden a la generación del código

8.2.5. Optimizador de código


Como su propio nombre indica, el optimizador de código mejora el código intermedio mediante
complejas operaciones y pruebas. La optimización se realiza teniendo en cuenta el juego de instruc-
ciones y otras características del procesador para el que se está compilando.
La principal diferencia entre el código intermedio y el optimizado está en que el primero se genera para
que, con modificaciones mínimas, pueda ser interpretado por cualquier procesador de una misma arquitec-
tura. El segundo está totalmente adaptado a un procesador en concreto y no es válido para ningún otro.

350 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


LENGUAJES DE PROGRAMACIÓN

8.2.6. Generador de código final


En algunos compiladores la fase anterior se encarga también de generar el código final, aquel
que será directamente ejecutado por el ordenador. En otro, sin embargo, existe todavía otro módulo
independiente que se encarga de realizar esta tarea, es el generador de código final. En teoría el
proceso de traducción concluye aquí, pero para que el programa pueda ejecutarse correctamente
aún faltan ciertas operaciones.
Según el sistema utilizado, la traducción del programa fuente puede originar código máquina
directamente como antes señalábamos, o un código intermedio denominado programa objeto al
cual hay que aplicar posteriormente un proceso de enlace con otros programas objeto. Esta tarea la
realiza un programa complementario al traductor llamado montador (o linker).

8.2.7. Linker o montador


A lo largo de este libro hemos mencionado con frecuencia la importancia que tiene el diseño
modular a la hora de desarrollar software. Veamos un ejemplo de esto que también ilustrará las fun-
ciones del montador.
Supongamos una empresa que desarrolla programas para entidades bancarias. Todos estos pro-
gramas necesitan un cálculo muy común, como es obtener el número de días que hay entre dos
fechas introducidas por el usuario. Esta operación es más compleja de lo que a primera vista parece,
por lo que incluir el código que la resuelve en cada programa incrementa la complejidad de éstos.
Entonces los programadores piensan que sería mejor diseñar un módulo independiente, que rea-
lice el cálculo y que pueda ser llamado desde todos los programas, de esta forma no hay que incluir el
módulo en cada programa. A estos módulos se les denomina subrutinas y se agrupan en librerías.
El montador se encarga de enlazar las llamadas del programa objeto con las rutinas que también
se encuentran en forma objeto, creando el programa final ejecutable.
El montador también realiza otra operación que consiste en ajustar las direcciones de memoria
absolutas del programa objeto convirtiéndolas en relativas a cierta referencia, de forma que la correc-
ta ejecución del programa sea independiente de su situación en memoria central.
Todas las referencias a direcciones de memoria del programa objeto son añadidas al contenido
de un registro de base. Esta técnica hace que los programas sean independientes de la localiza-
ción, aspecto especialmente importante en ambientes multiusuario.

8.2.8. Módulo de tratamiento de errores


Al desarrollar nuevo software, los errores se pueden producir en varias fases del proceso de com-
pilación, e incluso una vez finalizado éste, en el propio programa ejecutable. El módulo de tratamiento
de errores se distribuye por ello entre las distintas etapas susceptibles de error, siendo su misión de-
tectarlos, localizarlos y realizar ciertas acciones si éstos aparecen. Las acciones más comunes ante la
aparición de un error consisten en indicarlo al usuario, junto con las causa y las posibles soluciones.
Esta información se incluye en lo que se denomina listado de compilación, donde se detalla
además información de distinta índole: tiempo utilizado de procesador, líneas compiladas, tamaño
del programa objeto, etc. Si se producen errores, el programador debe volver al editor y corregir los
errores señalados en el listado de compilación, siendo necesario comenzar el proceso de nuevo.
Los tipos de errores que pueden presentarse en el desarrollo de un programa son los siguientes:
– Errores lexicográficos: ocurren cuando el analizador lexicográfico encuentra algún token no
reconocible, por ejemplo PRIN en vez de PRINT. Son frecuentes pero muy fáciles de corregir.
– Errores sintácticos: aparecen cuando una tira de tokens no se ajusta a ninguna regla
sintáctica del lenguaje de programación utilizado, por ejemplo, después de la orden PRINT
debe ir una cadena entre comillas, por tanto si escribimos PRINT INPUT, se reconocen dos
tokens válidos, pero su secuencia es incorrecta. Estos errores son detectados por el parser y
también se indican al usuario y se corrigen fácilmente. Algunos compiladores comunican al
programador los llamados warnings (advertencias), que, aunque son errores, no son graves
y no perjudican el proceso de compilación.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 351


LENGUAJES DE PROGRAMACIÓN

– Errores semánticos: se detectan en la fase de generación del código objeto y en algunos


casos en la de ejecución, y aunque no interrumpen el proceso pueden generar problemas
imprevistos. Pueden ser causados por los warnings.
– Errores lógicos: el código escrito y compilado no presenta ningún problema, pero el pro-
grama no actúa como debiera. Se producen porque el programador no ha codificado correc-
tamente un algoritmo, y se detectan en la fase de pruebas de un programa. Un ejemplo es
una llamada a subrutina que resuelve la raíz cuadrada de un número, cuando en realidad lo
que se desea obtener es la raíz cúbica.
– Errores de ejecución: estos errores ocurren cuando se ejecuta el programa y ocurren según
una casuística muy variada: operaciones matemáticas imposibles (por ejemplo una división
por cero), desbordamiento de un área de memoria reservada, lectura de un fichero sin ha-
berlo abierto previamente, etc.
La gestión de los errores producidos en tiempo de ejecución es una cuestión fundamental para
garantizar la seguridad de los programas. El lenguaje debe facilitar la elaboración de programas ro-
bustos y tolerantes a fallos.
En el nivel más básico el tratamiento ante un error se limita a la visualización de algún tipo de
mensaje y la finalización inmediata de la ejecución del programa. Una gestión más avanzada consiste
en la detección del error e invocación de un procedimiento que lo trate. Dicho procedimiento puede
realizar acciones complejas (mantener la integridad y consistencia, restaurar el sistema, etc.).

8.2.9. Tabla de símbolos


El compilador utiliza internamente una tabla de símbolos para introducir determinada información
referida a variables y estructuras de datos del programa que se está compilando. Estos datos suelen
ser el tipo de cada variable o estructura, sus dimensiones, características, etc., y se utilizan en ope-
raciones internas del compilador.

 



 !


 




   

  

 Proceso de traducción de un programa


fuente. En un primer paso el programador
'
  escribe el código fuente utilizando un
 lenguaje de programación de alto o medio
   
 nivel y un editor.
! A partir de él, el traductor crea un pro-
grama objeto que será procesado por el
('  montador. El montador enlaza el programa

' objeto con otros programas objeto a los

 " que hace referencia.
# $%& El resultado es el código máquina que
entiende el ordenador, el cual procesa sus
   datos de entrada de acuerdo a las instruc-
ciones de éste y finalmente se obtienen
'    los resultados.


  Puede ocurrir que el traductor genere
directamente código máquina. Este caso
'"' se representa mediante la línea punteada
de la figura

352 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


LENGUAJES DE PROGRAMACIÓN

9. ORIENTACIÓN A OBJETOS

9.1. DEFINICIÓN E INTRODUCCIÓN


El término orientado a objetos significa que el software se organiza como una colección de
entidades discretas (objetos) que contienen tanto estructuras de datos como un comportamiento
propio (programado).
Esto se opone a la programación convencional, en la cual las estructuras de datos y el comporta-
miento están relacionadas de forma débil y se modelan como entidades independientes.
El desarrollo orientado a objetos es un proceso independiente de todo lenguaje de programación hasta
las etapas finales. Es, fundamentalmente, una nueva forma de pensar y no una técnica de programación.

9.2. CARACTERÍSTICAS DE LOS OBJETOS


Existe un cierto desacuerdo acerca de las características precisas que requiere un enfoque orien-
tado a objetos, aunque suelen incluirse los siguientes aspectos:
– Identidad: los datos están cuantificados en entidades discretas y distinguibles denominadas
objetos. Los objetos pueden ser concretos, como un archivo en un sistema de archivos, o bien
conceptuales, como la política de planificación en un sistema operativo con multiproceso. Cada
objeto posee su propia identidad inherente. En otras palabras: dos objetos serán distintos aun
cuando los valores de todos sus atributos (tales como el nombre y el tamaño) sean idénticos.
– Clasificación: objetos con la misma estructura de datos (atributos) y comportamiento
(operaciones) se aglutinan para formar una clase. Una clase es una abstracción que descri-
be propiedades importantes para una aplicación y que ignora el resto. La selección de clases
es arbitraria y depende de la aplicación.
Se dice que cada objeto es una instancia de su clase. Toda instancia de la clase posee su
propio valor para cada uno de los atributos pero comparte los nombres de los atributos y las
operaciones con las demás instancias de la clase.
– Polimorfismo: una misma operación puede comportarse de modos distintos en distintas clases.
Es decir, cada objeto “sabe” llevar a cabo sus propias operaciones. Una implementación espe-
cífica de una operación en una cierta clase se denomina método. Es el lenguaje orientado a
objetos el que selecciona automáticamente el método correcto para implementar una operación
basándose en el nombre de la operación y en la clase del objeto que está siendo afectado.
Por ejemplo, un código no orientado a objetos para visualizar figuras geométricas debe
distinguir el tipo de cada una de ellas (un polígono, círculo o texto) y debe invocar al procedi-
miento adecuado para visualizarlo. Un programa orientado a objetos invocaría simplemente
la operación dibujar para cada figura; la decisión del procedimiento que hay que utilizar es
realizada implícitamente por cada objeto basándose en su clase.
– Herencia: se refiere a la compartición de atributos y operaciones entre clases tomando
como base una relación jerárquica. Una clase se puede ir refinando sucesivamente para
producir subclases. Todas las subclases poseen, o heredan, todas y cada una de las propie-
dades de clase padre y añaden, además, sus propiedades exclusivas.
La capacidad de sacar factor común a las propiedades de varias clases en una superclase
común y de heredar las propiedades de la superclase puede reducir muchísimo la repetición
en el diseño y en los programas, siendo una de las ventajas principales de un sistema orien-
tado a objetos.
– Abstracción: en informática significa centrarse en lo que es y hace un objeto antes de
decidir cómo debería ser implementado. El uso de la abstracción mantiene nuestra libertad
de tomar decisiones durante el mayor tiempo posible, evitando comprometernos de forma
prematura con ciertos detalles. La mayoría de los lenguajes modernos proporcionan abs-
tracción de datos, pero la capacidad de utilizar herencia y polimorfismo proporciona una
potencia adicional: un estilo de diseño independiente del lenguaje que pospone los detalles
de programación hasta la fase final.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 353


LENGUAJES DE PROGRAMACIÓN

– Encapsulación: la encapsulación (denominada también ocultamiento de información) consiste en


separar los aspectos externos del objeto, a los cuales pueden acceder otros objetos, de los detalles
internos de implementación del mismo, que quedan ocultos para los demás. La encapsulación
aporta una gran modularidad y evita que un pequeño cambio tenga efectos secundarios masivos:
la implementación de un objeto se puede modificar sin afectar a las aplicaciones que la utilizan.
La encapsulación no es exclusiva de los lenguajes orientados a objetos pero la capacidad
de combinar la estructura de datos y el comportamiento en una única entidad hace que la
encapsulación sea aquí limpia y potente.
– Compartir: la herencia tanto de estructuras de datos como de comportamientos, permite com-
partir una estructura común entre varias subclases similares sin redundancia. Una de las principa-
les ventajas de los lenguajes orientados a objetos es compartir código empleando la herencia.
El desarrollo orientado a objetos no sólo permite compartir información dentro de una aplicación
sino que, además, posibilita volver a utilizar diseño y códigos en futuros proyectos.

9.3. BENEFICIO DE LA ORIENTACIÓN A OBJETOS


La identidad, clasificación, polimorfismo y herencia caracterizan lo principales lenguajes orienta-
dos a objetos. Cada uno de estos conceptos puede ser utilizado aisladamente pero, en su conjunto,
se complementan unos a otros de forma sinérgica. Los beneficios de un enfoque orientado a objetos
son mayores que lo que podría pensarse en un principio.
El hincapié hecho en las propiedades esenciales de los objetos obliga al desarrollador de software
a pensar de forma más clara y profunda acerca de lo que es y de lo que hace el objeto, alcanzando un
resultado consistente en que el sistema suele ser más limpio, más general y más robusto de lo que
sería si el hincapié se hiciera únicamente sobre el uso de datos y de operaciones.

9.4. METODOLOGÍA ORIENTADA A OBJETOS


Esta aproximación se denomina Técnica de Modelado de Objetos (OMT) y consta de las siguien-
tes fases:
– Análisis: el analista construye un modelo del problema que muestra sus propiedades importan-
tes. Esta fase se elabora junto a quien plantea el problema. El modelo de análisis es una abstrac-
ción resumida y precisa de lo que debe hacer el sistema deseado y no de la forma en que se hará.
El modelo de análisis no deberá contener ninguna decisión de implementación. (programación).
– Diseño del sistema: el diseñador de sistemas toma decisiones de alto nivel acerca de la
arquitectura global: organización en subsistemas, características de rendimiento a optimizar,
selección de una estrategia para abordar el problema, efectuando reservas de recursos, etc.
– Diseño de objetos: el diseñador de objetos construye un modelo de diseño basándose en
los pasos anteriores. La parte más importante son las estructuras de datos y los algoritmos
necesarios para implementar cada una de las clases.
– Implementación: las clases de objetos y sus relaciones se traducen finalmente a un lengua-
je de programación concreto, a una base de datos o a una implementación en hardware. La
programación debería ser una parte relativamente pequeña del ciclo de desarrollo y funda-
mentalmente mecánica, porque todas las decisiones importantes deberán hacerse durante
el diseño. El lenguaje de destino influye en cierta medida sobre las decisiones de diseño pero
éste no debería depender de la estructura final de un leguaje de programación.
La metodología OMT emplea tres clases de modelos para describir el sistema: todos los mo-
delos son aplicables en la totalidad de las fases del desarrollo y van adquiriendo detalles de
implementación a medida que progresa el desarrollo. Una descripción completa del sistema
requiere los tres modelos.
– El modelo de objetos describe la estructura estática de los objetos del sistema y sus re-
laciones. El modelo de objetos contiene diagramas de objetos: grafos cuyos nodos son
clases de objetos y cuyos arcos son relaciones entre clases.
– El modelo dinámico describe los aspectos de un sistema que cambian con el tiempo. Se
utiliza para especificar e implementar los aspectos del control del sistema. Los modelos di-

354 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


LENGUAJES DE PROGRAMACIÓN

námicos contienen diagramas de estados: grafos cuyos nodos son estados y cuyos arcos
son transiciones entre estados causados por sucesos (eventos).
– El modelo funcional describe las transformaciones de datos que ocurren dentro del siste-
ma mediante diagramas de flujo de datos. Un diagrama de flujo de datos representa un
cálculo mediante un grafo cuyos nodos son procesos y cuyos arcos son flujos de datos.

10. CICLO DE VIDA DE UN SISTEMA INFORMÁTICO


Se denomina ciclo de vida de un sistema o aplicación informática al período comprendido
desde el planteamiento de un problema o tarea que hay que realizar, incluyendo su resolución y
ejecución por medios informáticos, hasta que deja de tener validez bien por la creación de un nuevo
sistema más actualizado que lo sustituya o por la terminación de la tarea que el propio sistema des-
empeña. Podemos adoptar como definición del ciclo de vida la siguiente:
Ciclo de vida de un sistema informático es el conjunto de fases que ocu-
rren desde que se plantea un determinado problema a informatizar, hasta que este
sistema deja de tener utilidad.
En general, el ciclo de vida de un sistema informático se compone de las siguientes fases según
el método clásico:
– Identificación de necesidades.
– Análisis previo o de requisitos.
– Análisis funcional.
– Análisis orgánico.
– Programación.
– Pruebas del sistema.
– Implantación.
– Explotación.
– Mantenimiento.

10.1. IDENTIFICACIÓN DE NECESIDADES


Actividad que lleva a cabo el usuario como petición al departamento de desarrollo, consignando
las pautas generales y necesidades del proyecto o sistema que se pretende realizar. Estas pautas
contienen una visión del sistema actual, el entorno, antecedentes y restricciones, etc. Esta fase reúne
al usuario junto al jefe de desarrollo y al que pueda actuar como jefe del proyecto.

10.2. ANÁLISIS PREVIO O DE REQUISITOS


El objetivo del análisis previo es obtener una visión aproximada de la aplicación que hay que
desarrollar, la estimación de su coste, los plazos de desarrollo, sus posibles alternativas y los recursos
que se van a utilizar.
En dicho análisis se estudia la viabilidad del proyecto, la situación actual, los requerimientos hard-
ware y software, necesidades físicas, técnicas, económicas y de recursos humanos, así como el coste
total del proyecto, decidiéndose la realización del mismo o su supresión. El ciclo de vida puede terminar-
se en este punto en aquellos casos en que la viabilidad del proyecto no aconseje su ejecución o puede
quedar en espera de nuevas campañas o asignación de recursos para su activación o desarrollo.

10.3. ANÁLISIS FUNCIONAL


Una vez decidida la viabilidad del proyecto, comienza la construcción teórica del sistema configu-
rando y describiendo todas sus funciones. En este análisis se determinan las necesidades del usuario
con el fin de diseñar una solución que las satisfaga.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 355


LENGUAJES DE PROGRAMACIÓN

El análisis funcional se compone del estudio de los métodos y equipos que se deben utilizar, los len-
guajes y herramientas de programación, el diseño de los procesos, el diseño de los datos de entrada y sa-
lida (registros, archivos, documentos), así como los soportes en los que van a sustentarse los mismos.
El diseñador es el principal responsable de que el programa sea fiable, mantenible y amigable. Un
programa modular bien diseñado con interfaces sencillas entre módulos, y con pre y postcondiciones
no ambiguas es, con seguridad, mucho más mantenible y fiable que un producto de un diseño pobre.
El diseñador debe tomarse casi tanto tiempo en pensar el diseño de las interfaces de usuario como
en el propio diseño del programa.

10.4. ANÁLISIS ORGÁNICO


Podemos considerar este análisis como la realización práctica y detallada del anterior, siendo el
encargado de conectar el análisis funcional con la programación y teniendo en cuenta los equipos
físicos y lógicos que van a sustentar el sistema.
En este análisis se realiza el diseño completo de la solución informática, se establecen las cadenas
de tratamiento o uniones entre los distintos módulos y se especifican sus soluciones algorítmicas.
El trabajo de esta fase se suele especificar en el denominado cuaderno de carga: documentación
que prepara el Analista, detallando la estructura de un trabajo, la división del mismo en programas y
el tipo de información de entrada/salida en cada uno de ellos.
Debe incluir un esquema gráfico del mismo (organigrama), especificaciones de ficheros (etique-
tas, tipo de acceso estructura del registro y descripción de campos) y detalle, a nivel de programa, de
su misión a realizar, flujo de datos y proceso.
El cuaderno de carga es la recopilación de la documentación que contiene la información impres-
cindible para la programación. Los documentos más usuales que componen el cuaderno de carga
son los siguientes:
– Hoja de definición del problema: esta suele ser la primera hoja. En ella se debe indicar,
además de la información suficiente para asociarla con un proyecto determinado (número
de hoja, autor, fecha...), las acciones concretas que debe realizar la unidad funcional que
estamos tratando.
– Hoja de descripción de archivos: esta hoja recoge las siguientes características:
* Organización de los archivos.
* Tipo de acceso a los registros.
* Soporte en el que se almacena.
* Frecuencia de utilización.
* Codificación del nombre del archivo.
* Características de la clave.
– Hoja de descripción de registros: por cada archivo se diseña un tipo de registro mediante
la hoja de descripción del registro. El diseño de los registros se hace de forma detallada y
reflejando sus principales características.
– Hoja de descripción de estructuras (tablas): se utiliza para describir las tablas si las hay.
En ella indicaríamos:
* Código de la tabla.
* Número de elementos.
* Tipo de elementos.
* Número de bytes.
– Hoja de organigrama: es una representación gráfica del problema. Lo estudiaremos en
apartados siguientes.
– Hoja de entrada de datos: el analista utiliza un documento llamado hoja de entrada para
diseñar la entrada de datos por pantalla. Este documento simula cada una de las posiciones

356 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


LENGUAJES DE PROGRAMACIÓN

donde puede ir situado el cursor en la pantalla. El diseño y distribución de campos en la panta-


lla se hacen en función de la información que contiene el documento de entrada. La hoja debe
estar cuadriculada con el mismo número de líneas y columnas que contiene la pantalla.
– Hoja de salida por pantalla: la salida de resultados por pantalla debe ser diseñada un una
hoja de salida por pantalla. En el diseño se deben distribuir los campos en la pantalla de
forma clara y fácil de interpretar. Por lo demás es igual que la hoja de entrada.
– Hoja de salida por impresora: para diseñar la salida por impresora hay que tener en cuen-
ta el tipo de impresora utilizada, es decir, si es de 132 columnas o de 80 columnas. En el
diseño se utilizan unas hojas cuadriculadas con 132 u 80 cuadros, según corresponda.
En estas hojas se debe anotar información como: descripción de campos fijos y variables,
longitud máxima, tipos, rangos, etc.
– Hoja de interconexiones: en esta hoja se hace una descripción gráfica de todos los ele-
mentos que intervienen en el programa, como archivos, soportes de almacenamiento, co-
nexiones de subprogramas, etc.
– Hoja del algoritmo (algoritmo en pseudocódigo): en esta hoja se debe dar una explicación
directa y concisa de lo que debe realizar el programa para obtener los resultados prefijados.
Un programa se compone de varios procesos que pueden ser de cálculo, de entrada o de
salida. En cada proceso se pueden producir unas situaciones anormales y dar como resultado
la interrupción del programa. Estas situaciones hay que prevenirlas y tratarlas. Los procesos
especiales que controlan estas interrupciones se llaman tratamiento de interrupciones y, una
vez que se ejecutan, se prosigue con el normal desarrollo de la ejecución del programa.
– Hoja de variables: dentro de cada módulo o programa existen un conjunto de variables que
no son leídas ni escritas en archivos y reciben el nombre de variables internas o externas. Es
aconsejable que los nombres de estas variables recuerden su significado.
Las hojas especiales que se utilizan para definir las características de las variables se llaman ho-
jas de variables internas y hojas de variables externas. Las variables internas se caracterizan porque
solamente pueden utilizarse (tienen vida) en el programa (módulo) que las define y en todos aquellos
módulos a los que llama éste. Estas variables pueden ser modificadas por el módulo que las define
o por cualquiera que éste llame.
Las variaciones externas se utilizan para suministrar valores a los módulos o para sacar valores
de los módulos. En la definición se debe indicar el nombre de la variable dentro del módulo objeto y
el nombre de la variable (de otro módulo) de la cual toma el valor o a la cual entrega el valor.
El analista que investiga las necesidades de los usuarios y, posteriormente, escribe las especifi-
caciones, es la persona que tiene mayor responsabilidad en la producción de un software apropiado.
Según algunas estimaciones, del 60 al 80 por 100 de los errores del software se producen durante
el diseño, antes de comenzar la codificación.
Ni la verificación ni la prueba pueden conseguir que un programa incorrectamente especificado
satisfaga las necesidades del cliente. Escuchar a los clientes es difícil, especialmente cuando no conoce
bien sus propias necesidades, o no puede comprender suficientemente bien las posibilidades de un sis-
tema informático. Por ello, actualmente muchos diseñadores están adoptando metodologías de diseño
basadas en el prototipo. Esto significa la inclusión del usuario en cada fase del desarrollo del software.
Un procedimiento típico es diseñar primero la interfaz de usuario y después el software para el
que se construye. Esta interfaz la prueba el usuario y es revisada posteriormente. El propio programa
se diseña para que sea fácilmente modificable; cuando alguna parte está escrita, vuelve a ser proba-
da por el usuario y revisada de nuevo.

10.5. PROGRAMACIÓN O CODIFICACIÓN


Con la programación de los algoritmos en su correspondiente lenguaje de programación se imple-
menta el análisis orgánico, convirtiendo sus especificaciones en conjuntos de instrucciones capaces
de desarrollar trabajo.
Consta de la definición de la lógica del tratamiento de cada módulo o programa, escritura del
pseudocódigo o dibujo del diagrama correspondiente a cada uno de ellos, la codificación en el lengua-

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 357


LENGUAJES DE PROGRAMACIÓN

je, su traducción al lenguaje máquina y la prueba de los diferentes módulos, unidades de tratamiento
y cadenas que componen la aplicación.
Los aspectos principales de la codificación son la transportabilidad, fiabilidad, eficacia y respeto a
los derechos de autor. El programador debe verificar el código escrito. Muchos errores de software se
evitan escribiendo el código cuidadosamente. Si un programador está trabajando en un área en que
existe o software patentado, él o ella debe investigar si existen patentes concretas para la aplicación que
realiza. El programador debe obtener la autorización antes de utilizar un código protegido o patentado.

10.6. PRUEBAS DEL SISTEMA


Las pruebas del sistema consisten en la verificación del correcto funcionamiento global del siste-
ma, que se desarrolla conjuntamente con la implantación. Los juegos de ensayo a que se somete la
aplicación deben ser diseñados en el análisis funcional por expertos (analistas y usuarios) para tratar
de averiguar y corregir los posibles fallos del sistema.
Los ensayos deben hacerse con un juego de datos de pruebas apropiado para someter el progra-
ma a un número de situaciones razonablemente grande, como a las que puede verse sometido en su
utilización. Los posibles errores que aparecen en esta fase serán arreglados volviendo a algunas de
las fases anteriores, generalmente a la de codificación.

10.7. IMPLANTACIÓN
La implantación del sistema se realiza en paralelo con las pruebas, con el objetivo final de dejar
el sistema listo para su explotación por parte del usuario. Se recibe toda la documentación necesaria
del grupo de análisis y programación para con ella y el resultado de las pruebas, llevar a cabo la acep-
tación del sistema y hacerse cargo de su explotación en el plazo más breve posible.

10.8. EXPLOTACIÓN
Terminadas las pruebas del sistema y su implantación, éste se incorpora al plan de explotación,
que consiste en la ejecución de los procesos para los que fue creado. Otros trabajos correspondientes
a este período son la realización de copias de seguridad, controles, planificación general, preparación
de listados, etc.
Al mismo tiempo se realiza el mantenimiento que consiste en la detección y arreglo de los errores
que puedan aparecer, así como la adaptación del sistema a nuevas situaciones que se presenten con
el paso del tiempo.

10.9. MANTENIMIENTO Y ADAPTACIONES


Tiene como objetivo garantizar el correcto funcionamiento del sistema durante el tiempo que dure
su explotación. Para ello, lo mantendrá actualizado incorporando las posibles modificaciones que surjan
en la evolución natural del propio sistema en lo referente al entorno, la legislación, la organización de la
empresa o las propias necesidades cambiantes de los usuarios. Por otra parte, en un sistema informáti-
co aparecen errores con el tiempo, que se subsanan a medida que son detectados en este período.
A consecuencia de los sucesivos cambios que se introducen en el sistema, éste se degrada, por
lo que es aconsejable la revisión a fondo y su reorganización cada cierto período de tiempo, variable
según el tipo de aplicación.
NOTA: aunque no están directamente involucrados en el proceso de la progra-
mación, el vendedor de software es el principal enlace entre el programador y el
usuario que compra el programa. La principal obligación del vendedor de software
es la de representarlo honestamente. Otra obligación que han detectado algunos
autores es la de no coaccionar al cliente. En algunas ocasiones, un asesor privado
ejerce ambas funciones, la de vendedor y la de diseñador. En este caso también es
aplicable la obligación de ser honesto sobre la propia cualificación.

358 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


LENGUAJES DE PROGRAMACIÓN

11. TABLAS DE DECISIÓN


11.1. DEFINICIÓN
Una tabla de decisión es una herramienta para representar de forma sencilla
el planteamiento lógico de un problema que puede llegar a ser complicado.
La creación de una tabla de decisión se basa en identificar en el enunciado del problema las accio-
nes y las condiciones que se tienen que cumplir para ejecutar dichas acciones. Una vez identificadas
estas acciones y condiciones, se representan en un formato especial, combinando todas las posibles
relaciones de las condiciones y marcando las acciones que se ejecutan para cada combinación.
Una tabla de decisión típica consta de 4 partes:

   






 
 


   



 



Estructura de una tabla de decisión

– Conjunto de condiciones: conjunto de condiciones que intervienen en el problema.


– Entrada de condiciones: conjunto de todas las combinaciones posibles entre los valores de
las condiciones.
– Conjunto de acciones: abarca todas las acciones que se tienen que ejecutar cuando se
cumplen un conjunto dado de condiciones.
– Salida de ejecución: se determina cuando se ejecuta cada acción.
Las tablas de decisión se utilizan para especificar e implementar programas. Existen herramientas de
construcción de programas a partir de las tablas de decisión. Posteriormente expondremos un ejemplo.
Regla de decisión: es una combinación de un estado en la entrada de condiciones y de una o
más acciones asociadas en la parte de la salida de acciones. Siendo N el número de condiciones y
considerándolas como binarias (SI/NO) habrá un número máximo de 2 elevado a N reglas.
Normalmente las reglas de una tabla se consideran como operadores AND, ya que se tienen que
cumplir todos los valores de las condiciones para que se ejecute la opción asociada a esa regla. Si se imple-
mentan con operadores OR, significa que el cumplimiento de una sola regla, ejecuta la acción asociada.
Desde el punto de vista de la programación, cada regla equivale a una estructura “Si... Enton-
ces”. Para una combinación de condiciones dada en cada momento sólo se puede cumplir una regla.
Las tablas de decisión se pueden usar para controlar la lógica de control de un programa.
Ejemplo: Si consigo trabajo me compro una bicicleta. Si me pagan un buen
sueldo me compro una moto. Si trabajo, independientemente del sueldo, y me toca
la lotería, me compro un coche.
Solución: En el anterior enunciado identificamos las siguientes condiciones y
acciones:
C1: Trabajo / Paro
C2: Buen sueldo / Mal sueldo
C3: Lotería / No lotería

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 359


LENGUAJES DE PROGRAMACIÓN

A1: No compro ningún vehículo


A2: Compro una bicicleta Todas las combinaciones
A3: Compro una moto posibles de las condiciones
A4: Compro un coche
Acciones que se ejecutan
La tabla de decisión correspondiente es: para cada combinación
de condiciones

Trabajo S S S S N N N N
Buen sueldo S S N N S S N N
Lotería S N S N S N S N
Sin vehículo — — — —
Bicicleta —
Moto —
Coche — —
Tabla de decisión del ejemplo anterior

11.2. TIPOS DE TABLA


Las tablas se clasifican por diversos criterios:
En función a sus entradas:
– Entrada limitada: las condiciones y acciones están perfectamente definidas en las zonas de
condición y acción. En la zona de entradas de la tabla las únicas opciones son “SI”, “NO” o
indiferente (“-“) que representa que es neutral respecto a dicha condición.
– Entrada extendida: las condiciones y acciones no están completamente definidas en las
zonas de condición y acción. Los valores de las condiciones son diferentes a “SI”, “NO”. La
definición de éstas se completa en la zona de entradas de la tabla. Puede ocurrir que alguna
de las condiciones o acciones sea de entrada limitada, pero tanto en la zona de condición
como en la de acción debe haber forzosamente una condición y una acción (respectivamen-
te) de entrada extendida.
– Entrada mixta: contienen filas de entrada limitada y filas de entrada extendida. O bien to-
das las condiciones son de entrada limitada y las acciones de entrada extendida o todas las
acciones de entrada extendida y las condiciones de entrada limitada.
En cualquier caso, siempre se puede traducir una tabla mixta a una tabla limitada. Cada con-
dición genera tantas condiciones simples como valores pueda tomar, y para cada acción tantas
acciones como estados pueda tomar. La ventaja de las tablas mixtas y extendidas es que son más
ilustrativas, el inconveniente es que son más difíciles de programar.
Según el planteamiento:
– Propias: sólo tienen reglas simples: SI/NO.
– Impropias: tienen reglas compuestas: SI/NO/INDIFERENCIA.
Según el tratamiento:
– Abiertas: desde una tabla se hace referencia a otra.
– Cerradas: lo mismo que la anterior, pero volviendo a la original.
– Bucles: una tabla se llama a sí misma.

360 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


LENGUAJES DE PROGRAMACIÓN

11.3. CONSTRUCCIÓN DE TABLAS


La técnica consiste en identificar primero las condiciones en el enunciado, después las acciones
y por último las reglas entre las acciones y las condiciones. Una vez representada la tabla, se com-
prueban una serie de aspectos:
– Redundancias: una regla no debe aparecer más de una vez.
– Completa: no debe faltar ninguna regla.
– Contradictoria: evitar que una misma acción origine cosas contradictorias.
A continuación se analiza la posibilidad de simplificar la tabla, añadiendo si es posible indiferen-
cias (cada indiferencia sustituye a 2 reglas que posteriormente no habrá que codificar).
NOTA: una tabla se puede simplificar si existen 2 reglas que dan lugar a la
misma acción o conjunto de acciones, y que sólo se diferencian en el estado o valor
de una de sus condiciones. Si se dan estas circunstancias entonces las dos reglas
se pueden sustituir por una sola que tenga el valor de indiferencia.

11.4. CONVERSIÓN DE TABLAS A PROGRAMAS

Una vez simplificada la tabla, existen dos formas de realizar la conversión:


– Programación directa: cada regla equivale a una sentencia condicional. Es muy ineficiente.
– Pasar la tabla de decisión a diagrama de flujo mediante el siguiente método:
* Al final de cada columna se escribe el número de reglas simples a las que equivale.
Cada indiferencia de una regla equivale a 2 reglas simples.
* Para cada condición hallamos un coeficiente que suma los valores de las reglas para las que
esa condición sea indiferente, cuanto menor sea ese valor, más importante es esa regla.
* Se elige la condición con menor valor en su coeficiente. Si existen varias condiciones
con el mismo valor en su coeficiente y además éste es el menor, hallo un segundo co-
eficiente que se obtiene por la diferencia en valor absoluto de la diferencia entre el nú-
mero de SI y NO en valor absoluto de esas condiciones, y elijo la que tenga la diferencia
mayor, y si sigue habiendo empate cojo cualquiera de ellas.
* Para la regla elegida obtengo otras 2 tablas, que se caracterizan porque no contienen
ya a la condición por la que he dividido las tablas, y una tabla contiene las reglas para
las que esa condición contiene valor SI, y la otra contiene las reglas para las que la
condición es NO, y para las reglas con condición indiferencia las pongo en las 2 tablas,
y con las 2 tablas vuelvo a hacer otra vez lo mismo hasta que no se pueda dividir más,
y cada vez que se hace una división pago la condición en el flujograma.

El ejemplo anterior:

Trabajo S S S S N N N N
Buen sueldo S S N N S S N N
Lotería S N S N S N S N
Sin vehículo — — — —
Bicicleta —
Moto —
Coche — —

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 361


LENGUAJES DE PROGRAMACIÓN

Se puede simplificar agrupando las cuatro últimas columnas (nótese que el valor de la acción
sólo depende de la primera condición):

Trabajo S S S S N
Buen sueldo S S N N -
Lotería S N S N -
Sin vehículo —
Bicicleta —
Moto —
Coche — —

Ahora aplicamos el mismo razonamiento a las columnas 1ª y 3ª, en las cuales la condición “Buen
sueldo” no influye en la acción a realizar (no importa su valor, siempre compraremos un coche). La
tabla quedaría como sigue:

Trabajo S S S N
Buen sueldo - S N -
Lotería S N N -
Sin vehículo —
Bicicleta —
Moto —
Coche —

Ahora se aplican los coeficientes:

Trabajo S S S N 0
Buen sueldo - S N - 6
Lotería S N N - 4
Sin vehículo —
Bicicleta —
Moto —
Coche —
2 1 1 4

La condición “Trabajo” tiene el menor coeficiente; se extrae de la tabla.


Para “Trabajo” = SI:

Buen sueldo - S N 2
Lotería S N N 0
Sin vehículo
Bicicleta —
Moto —
Coche —
2 1 1

362 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


LENGUAJES DE PROGRAMACIÓN

Para “Trabajo” = NO:

Buen sueldo -
Lotería -
Sin vehículo —
Bicicleta
Moto
Coche

Una vez alcanzado este paso, se construye el diagrama de flujo que se encuentra al final de esta
página.
Por último, creamos el pseudocódigo que generará el programa:

Algoritmo TABLA
Si Trabajo = NO Entonces
Escribir “Sin vehículo”
Sino
Si Lotería = SI Entonces
Escribir “Coche”
Sino
Si Buen_Sueldo = SI Entonces
Escribir “Moto”
Sino
Escribir “Bicicleta”  
Fin si
Fin si
Fin Si  



Fin algoritmo

   

 


 




 



AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 363


LENGUAJES DE PROGRAMACIÓN

12. ORGANIGRAMAS O DIAGRAMAS DE FLUJO


El planteamiento de un problema que pueda llegar a una solución, requiere la aplicación de una
lógica que evolucione secuencialmente. La resolución de todo problema exige tres grandes elemen-
tos: datos de entrada, algoritmo de resolución y resultados obtenidos.
El algoritmo de resolución es el conjunto de operaciones (matemáticas, lógicas, etc.) o manipula-
ciones que se deben realizar con los datos para llegar a la obtención de los resultados. Los algoritmos
se suelen representar en forma narrativa, pero cuando tienen su aplicación más directa es cuando se
convierten en diagramas o gráficos de programación, y son la representación gráfica de la solución
del problema que se desea mecanizar.
Los organigramas, ordinogramas o diagramas de flujo son una forma de representar algoritmos
informáticos, mostrando las operaciones que realiza un programa con el detalle necesario para que,
una vez confeccionados, se pueda realizar la etapa siguiente de la programación (codificación).
Dependiendo del nivel de lenguaje utilizado, orientado a la máquina u orientado al problema, variará
el grado de detalle de los ordinogramas. Para lenguajes muy evolucionados como el COBOL, en general,
es suficiente representar los grandes bloques de tratamiento: ENTRADA, SALIDA, PROCESO y DECISIÓN
sin tener que detallar las operaciones elementales. En los lenguajes ensambladores o de bajo nivel, como
cada instrucción simbólica se transforma en una o varias instrucciones de lenguaje máquina, es preciso
un ordinograma de detalle que muestre las operaciones elementales que debe efectuar la máquina.
En resumen: Un organigrama es una notación gráfica para representar algoritmos. Se
basa en la utilización de unos símbolos gráficos, en los que escribimos las acciones que reali-
za el algoritmo. Las cajas están conectadas entre sí por líneas, que indican el orden en el que
se ejecutan las acciones. Todo algoritmo tendrá siempre un símbolo de inicio y otro de fin.
NOTA: es conveniente que los ordinogramas y los organigramas utilicen nota-
ciones normalizadas el uso de los símbolos.
El Instituto de Normalización Americano (ANSI: American National Standards Institute) ha diseñado
un conjunto de símbolos y signos estándar que prácticamente han sido adoptados internacionalmente.
– Líneas de flujo: una línea con una flecha sirve para conectar los símbolos del diagrama. La
flecha indica la secuencia en que se ejecutan las acciones.

– Proceso: indica un acción o grupo de ellas.

– Entrada/salida: acciones de entrada y salida de información.

Existen símbolos específicos para representar procesos de entrada/salida por determinados dis-
positivos:

 
 

364 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


LENGUAJES DE PROGRAMACIÓN

   


  
  



 




     




     
  




     

  


– Condición: representa estructuras selectivas. Este símbolo evalúa la condición, según la


cual el programa seguirá su ejecución por uno u otro camino.

– Principio y fin: este símbolo representa el comienzo y término del algoritmo.

– Subprograma: representa un subproceso.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 365


LENGUAJES DE PROGRAMACIÓN

– Conectores: cuando un organigrama no cabe en un espacio físico, como una hoja de papel,
hay que dividirlo. Estos conectores indican los puntos de continuidad en la representación.

* Si es en la misma hoja:

* Si es en hoja distinta:

NOTA: los conectores suponen una aclaración para entender mejor la repre-
sentación, pero no es parte activa del algoritmo (no ejecuta ninguna acción).
* Símbolo de entrada/salida y operaciones con ficheros:









EJEMPLO: queremos hallar el producto de varios números positivos introducidos por teclado. El
proceso termina cuando se introduzca un número negativo.
1. Iniciar la variable del producto (P).
2. Leer el primer número.


 

 


 

 

 
   


 
 

Ejemplo de diagrama de flujo que representa un sencillo algoritmo de multiplicación de números con una condición de salida

366 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


LENGUAJES DE PROGRAMACIÓN

3. Preguntar si es negativo o positivo.


4. Si es negativo escribe el producto y termina.
5. Si es positivo, multiplica el número leído anteriormente y lee un nuevo número. Luego vuelve
al paso 3.

13. DIAGRAMAS DE NASSI-SCHNEIDERMAN (DIAGRAMAS N-S)


Sistema semejante al diagrama de flujo, pero sin flechas (los símbolos se escriben unidos) y
cambiando algo los símbolos de condición y repetición.

' '



 


  
 

!(( 

!(   !() ( ( ) 



      
 
 
  
 
 
 

 




! 

" # 


 # $  

! !%# 

" # 

& # 

Representación de un algoritmo mediante diagramas N-S

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 367


LENGUAJES DE PROGRAMACIÓN

14. ESTRUCTURAS BÁSICAS DE PROGRAMACIÓN


El Teorema de la estructura (o Teorema de Jacopini Bohm, 1966) demostró que cualquier
programa con un solo punto de entrada y un solo punto de salida puede resolverse con tres únicos
tipos de estructuras de control:
– Secuencial.
– Alternativa.
– Repetitiva.
NOTA: el Teorema de la estructura llevó a la célebre frase de Dijkstra: “La ins-
trucción GOTO (Ir a) es perjudicial para la programación”.

14.1. ESTRUCTURA SECUENCIAL


Una estructura secuencial es aquella que ejecuta las acciones sucesivamente unas a continua-
ción de otras, sin posibilidad de omitir ninguna y sin bifurcaciones. Todas estas estructuras tendrán
una entrada y una salida.

Instrucción 1

Instrucción 2

Instrucción 3

...

Instrucción N

      

 



 

 



368 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


LENGUAJES DE PROGRAMACIÓN

14.2. ESTRUCTURA SELECTIVA O ALTERNATIVA

Es aquella estructura en la que únicamente se realiza una alternativa –una determinada se-
cuencia de instrucciones– dependiendo del valor de una determinada condición o predicado. Las
estructuras alternativas, también llamadas selectivas o condicionales, pueden ser de tres tipos:
– Simple: se evalúa la condición y si es verdadera se ejecuta un conjunto de instrucciones. En
caso contrario no se hace nada.
Si <Condición> Entonces
<Instrucciones>
Fin si

         











 

– Doble: existen dos conjuntos de instrucciones. Uno se ejecuta si la condición es cierta y el


otro si es falsa.
Si <Condición> entonces
<Instrucciones 1>
Sino
<Instrucciones 2>
Fin si

         

 




 






AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 369


LENGUAJES DE PROGRAMACIÓN

– Alternativa múltiple: la condición o expresión puede tomar un número N de valores, según


el cual se ejecutará un conjunto de instrucciones u otro (esta estructura equivale a un con-
junto de condiciones anidadas).
Según <Condición>
<Valor 1>: <Instrucciones 1>
<Valor 2>: <Instrucciones 2>
...
<Valor N>: <Instrucciones N>
Fin según
Existe una variante se expone a continuación:
Según <Condición>
<Valor 1>: <Instrucciones 1>
<Valor 2>: <Instrucciones 2>
...
<Otro valor>: <Instrucciones N>
Fin según

La expresión <Otro valor> evita tener que contemplar todo el rango de posibles valores de la
condición. Esto es especialmente útil cuando dicho rango es muy amplio.

         


 



  


 
 


 
 


14.3. ESTRUCTURAS REPETITIVAS


Las estructuras repetitivas o iterativas son aquellas en las que las acciones se ejecutan un nú-
mero determinado de veces. El número de repeticiones depende de un valor predefinido o el cumpli-
miento de una determinada condición.
Una iteración es el hecho de repetir la ejecución de una acción o secuencia de ellas. Un bucle o
lazo es el conjunto de acciones iterativas. Con frecuencia, es difícil determinar el número de repeti-
ciones. En consecuencia, es preciso disponer de estructuras algorítmicas que permitan describir una
iteración de forma cómoda. Las tres estructuras más usuales, dependiendo de que la condición se

370 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


LENGUAJES DE PROGRAMACIÓN

encuentre al principio o al final de la iteración, se describen a continuación, junto a la representación


NS y sus diagramas de flujo.

– Repetir un número de veces: se conoce previamente el número exacto de veces que hay
que ejecutar el bucle. La estructura tiene una variable asociada denominada índice, a la
que se asigna un valor inicial y final. El índice se incrementa o decrementa automáticamente
en cada iteración de bucle en un valor constante. Esta es una operación implícita (la realiza
el sistema, el programador no tiene que intervenir). Cuando el índice alcanza su valor final,
finaliza el bucle.

Desde <Índice>=<valor inicial> hasta <valor final>

<Instrucciones>

Fin desde

     !     

  
   





  





 





– Mientras-hacer: este bucle determina la repetición de un grupo de instrucciones mientras


la condición se cumpla inicialmente. Al evaluarse la condición antes de entrar en el bucle al
principio, puede ocurrir que no se llegue a entrar en el bucle (si la condición al ser evaluada
la primera vez es falsa).

Mientras <Condición> hacer

<Instrucciones>

Fin mientras

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 371


LENGUAJES DE PROGRAMACIÓN

    



 
 

 


 

 

– Repetir-hasta: el bucle se repite hasta que la condición sea verdadera. La condición se


evalúa siempre al final del bucle, esto implica que al menos se pase una vez por el bucle.

Repetir

<Instrucciones>

Hasta <Condición>

    

 


 

 
   

 

 

 


NOTA: todas las estructuras iterativas tienen la posibilidad de salir del bucle
desde un punto intermedio del mismo, de una forma “anómala”, en el sentido de
que rompe el diseño original de la estructura. Aunque esta práctica es posible, no
se recomienda su uso, ya que anula las ventajas de la programación estructurada.

372 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


LENGUAJES DE PROGRAMACIÓN

15. PRUEBAS
El cuaderno de pruebas contiene la documentación preparada por el analista para probar cada
módulo. Estas pruebas son necesarias antes de la puesta en marcha del programa que se está desa-
rrollando. Las pruebas se realizan en dos fases:
– Pruebas de los organigramas o pseudocódigo: esta prueba consiste en revisar la ló-
gica del programa, las inicializaciones de las variables más importantes, las salidas y las
entradas.
– Prueba de los programas codificados: primero se prueban los módulos independiente-
mente y después colectivamente en el conjunto del programa.
Esta última fase comprende la realización de una serie de test destinados a asegurar la validez
del programa durante su ejecución en cualquiera de sus partes, es decir, lectura de datos, cálculos,
presentación y validez de los resultados.
Para ello se introducen una serie de datos, denominados juegos de ensayo o datos de prueba,
dados por el analista en el análisis orgánico y que cubre todas las posibilidades que pueden plantear-
se en la ejecución del trabajo. De esta forma, pueden observarse los errores producidos a la salida,
corregirlos y probar de nuevo hasta eliminar todos los fallos.
Para probar el comportamiento de un programa se eligen todos los sucesos que probabilística-
mente se presentan pocas veces y, otros que sean muy frecuentes. Los sucesos se deben elegir de
forma que los programas queden completamente probados. Finalizada la prueba se debe verificar el
contenido de los archivos que se han utilizado.
Cuando un trabajo se distribuye entre varios programadores, es muy frecuente la utilización de
módulos complementarios para realizar las pruebas con efectividad. Estos módulos no se incluyen
en el producto final.
Algunos sistemas operativos poseen varias técnicas de ayuda al programador para la depuración
de sus programas, desde un volcado de contenido de la memoria, en formato octal o hexadecimal
(DUMP), hasta el seguimiento de las instrucciones (DEBUG).

16. METODOLOGÍAS

16.1. DEFINICIÓN Y OBJETIVOS


En líneas generales, una metodología consiste en un método lógico y estructurado para la con-
secución de un objetivo. En el ámbito informático se aplica a aquel conjunto de métodos y reglas que
guían el desarrollo de un proyecto de construcción de software.
Existen metodologías que cubren muy diversos ámbitos del ciclo de vida de un producto, desde
las primeras fases hasta las últimas. Además se cuenta con metodologías generales y otras específi-
cas, centradas en detalles y fases concretas de dicho ciclo de vida.
Las metodologías más amplias incluyen una serie de acciones de control y comprobaciones sis-
temáticas, que persiguen como resultado final un producto sin incoherencias ni incorrecciones. Las
metodologías que aquí nos ocupan se centran en la fase de codificación, persiguiendo los siguiente
objetivos generales:
– Legibilidad del código.
– Facilitar y guiar el trabajo del programador.
– Estandarizar nomenclaturas en un mismo proyecto.
– Facilitar futuras ampliaciones y modificaciones.
– Generar una documentación adecuada.
Las metodologías principales cubren las siguientes fases:

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 373


LENGUAJES DE PROGRAMACIÓN

16.2. ANÁLISIS DE REQUISITOS


Procedimientos para usar sistemáticamente un conjunto de técnicas y herramientas que faciliten
la creación del análisis. Existen varias distintas; las principales están basadas en el análisis de flujo
de datos que fundamentan su dinámica en la visión del sistema como un elemento que transforma
información.

16.3. METODOLOGÍAS DE DISEÑO


Procedimientos para usar un conjunto de herramientas y técnicas que resulta en la estructura del
software a partir de las especificaciones. Existen varios enfoques:
– Orientado a datos (DFD): basadas principalmente en el análisis del flujo de datos. Existen
dos tipos:
* Transformación: el DFD se descompone en tres apartados de ejecución continúa: en-
trada, transformación y salida.
* Transacción: se forman caminos alternativos en función de los datos recibidos.
– Orientado a procesos: se centran en el diseño de los procesos que transforman los datos.
Algunas de estas técnicas se acercan mucho a los métodos de construcción.

16.4. TÉCNICAS DE PROGRAMACIÓN


Incluye la especificación de las siguientes técnicas:
– Programación estructurada.
– Descomposición top-down.
– Programación modular, subrutinas y funciones.
– Reglas de codificación.

16.5. HERRAMIENTAS DE PROGRAMACIÓN


Detalla la aplicación de las siguientes ayudas al desarrollo de programas:
– Organigrama y diagrama de flujo.
– Algoritmos y pseudocódigos.
– Rejillas de datos.
– Cuadernos de carga.
– Tablas de decisión.
– Metodologías de Chapin (NS), Warnier. Jackson y Bertini.

17. LA METODOLOGÍA MÉTRICA

17.1. INTRODUCCIÓN
La Metodología de Planificación y Desarrollo de Sistemas de Información (MÉTRICA versión 2.1),
es una iniciativa promovida por el Consejo Superior de Informática, órgano colegiado encargado de la
elaboración y desarrollo de la política informática del Gobierno.
El volumen de información que se maneja en la Administración es muy alto, de modo que es
necesario disponer de una Tecnología de la Información que garantice dinámica y eficazmente el
funcionamiento normal de los departamentos que la constituyen.

374 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


LENGUAJES DE PROGRAMACIÓN

Esta tecnología de la información debe ser dinámica en el sentido de que debe adaptarse con
facilidad a las condiciones cambiantes tanto externas como internas de cualquier organización, es por
lo que debe existir una metodología de desarrollo que garantice el funcionamiento correcto y eficaz de
los departamentos de tecnología de la información.
Los sistemas de información que no utilizan ninguna metodología suelen ser difíciles de implantar
y mantener, ya que carecen de la documentación necesaria para facilitar estas tareas. Asimismo se
suelen caracterizar por la falta de comunicación con los usuarios, lo que genera productos que no
satisfacen enteramente sus necesidades, así como retrasos en la fecha de entrega y un aumento por
consiguiente del coste de elaboración.
La MÉTRICA es un método desarrollado para su uso en los proyectos informáti-
cos de las Administraciones públicas, como instrumento básico de apoyo a su línea
estratégica de mejora de la calidad y la productividad en el desarrollo de software.
MÉTRICA ha sido diseñada por personal de distintos organismos de las Administraciones públicas y en
colaboración externa con la empresa Coopers&Lybrand y su ámbito de aplicación los constituyen la Adminis-
tración Central del Estado en una primera etapa y posteriormente las Administraciones Local y Autonómica.
A lo largo de su desarrollo se han tenido en cuenta las siguientes Metodologías:
– SSADM: metodología pública británica.
– MERISE: metodología pública francesa.
– EUROMÉTODO: marco metodológico europeo.
– SUMMIT-D: metodología de Coopers&Lybrand.
– Plan general de Garantía de Calidad aplicable al desarrollo de equipos lógicos.
El uso de esta metodología garantiza la satisfacción de las necesidades de los usuarios, la ob-
tención de toda la documentación necesaria para desarrollar, implantar y posteriormente mantener
cualquier sistema de información, así como la mejora de la productividad de los departamentos de
tecnología de la información.

17.2. OBJETIVOS
El principal objetivo de la metodología MÉTRICA 2.1 es crear un entorno que permita al equipo
de trabajo construir sistemas, que:
– Den solución a los objetivos considerados prioritarios en la Administración.
– Se desarrollen cuando el usuario los necesite y de acuerdo con los presupuestos y duración
estimados.
– Se mantengan fácilmente para soportar los cambios futuros de la organización.

17.3. ESTRUCTURA
MÉTRICA 2.1 se estructura en:
– Fases: el término Fase conlleva la idea de secuencia. En cada fase deben obtenerse una
serie de productos que deben ser entregados antes de que se inicie la siguiente fase. De
esta forma, se pueden dividir los proyectos en una serie de hitos preestablecidos, que facili-
tarán las labores de Planificación y Control de Proyectos.
– El final de cada fase requiere una aceptación formal de las conclusiones a las que se ha
llegado al término de la misma. El producto final obtenido en cada fase es un documento
que se utiliza para el inicio de la siguiente fase.
– Módulos: la división en Módulos obedece a razones de homogeneidad: un módulo es un gru-
po de Actividades y Tareas que se realizan para producir un conjunto de productos finales.
– Actividades.
– Tareas.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 375


LENGUAJES DE PROGRAMACIÓN

Además define el conjunto de productos a desarrollar, las técnicas que deben utilizarse para
ello y establece las diferentes responsabilidades y funciones de los miembros del equipo de trabajo
así como una estructura de proyecto que sirva de guía al equipo de trabajo e involucre a los usua-
rios en su desarrollo y en sus puntos decisivos.






 



Fases de la Métrica

17.4. FASES
Las fases en las que se divide MÉTRICA 2.1 son:
– FASE 0: PLAN DE SISTEMAS DE INFORMACIÓN. En la fase 0 se plantea:
* La definición de los objetivos y funciones de la organización.
* La definición de la arquitectura de la información en cuanto a datos y procesos que
permitan realizar dichos objetivos y funciones.
* La especificación de nuevos sistemas que permitan la implantación de dicha arquitectura.
– FASE 1: ANÁLISIS DE SISTEMAS. Como objetivo fundamental de esta fase se pretende des-
cribir el alcance, objetivos y requisitos del sistema así como la elaboración de un conjunto
de especificaciones formales que describan la funcionalidad del sistema para su posterior
aprobación por parte del usuario.
– FASE 2: DISEÑO DE SISTEMAS. Según el entorno tecnológico específico en el que se im-
plantará el sistema en esta fase se deberán obtener el conjunto de especificaciones físicas
que constituirán el punto de partida para la construcción del sistema.
– FASE 3: CONSTRUCCIÓN DE SISTEMAS. Partiendo de las especificaciones físicas obtenidas
en la fase anterior el propósito de esta fase es la construcción y prueba unitaria de cada uno
de los componentes de que consta el sistema. Asimismo se elaborarán los procedimientos
de usuario y el plan de formación.
– FASE 4: IMPLANTACIÓN DE SISTEMAS. El objetivo fundamental de esta fase es:
* Conseguir la aceptación final del sistema por parte de los usuarios.
* Comprobar el sistema en su totalidad realizando las pruebas de aceptación por parte
del usuario que permitirán verificar si el sistema es totalmente funcional y satisface los
requisitos iniciales.
* Poner el sistema en producción.

376 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO





       
  
   
   
       
  



-/.0 ' .09/11 ' '1-'*4*.*60 '1.%%5//5 ' -%;'>.1
112'3.1 ' %':;1251 4;0*50./ '/ 1'<5 2=*0*5 *53-50'02'1 3-/.02.*60
045%3.*60 '/ 112'3. 112'3. '/ 112'3. '/ 112'3. ? .*'-2.*60
7-18 7.%18 7'418 7218 7*18 '/ 112'3.
7*18

'1.%%5//5
' -%5*'3'0251
'/ ;1;.%5
7-;8
como su división en fases, módulos y actividades:

 

 
 
  '     
  *
   

 "  #     -   

 

  "     

  
   

  

  
+        

   
          " # 
   .     


 #
  *
   # ,  
 
   
  
  
    "  

 

  
   

     %    
   # 
 
   ' #  %      

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO



     %   

    ! '   


   ! '       
 
   

       
    ! *
      *
    


     !             



   

! "  #     
 $ *
   '
 

 
  
 $ *
  
   

$ %   
  "
     
         

 & *
  

  
& ' 
 
  ! 
   

      

(      $ *

 

 

  

) '
   


377
En el esquema siguiente se podrá ver con claridad una visión general de esta metodología así
LENGUAJES DE PROGRAMACIÓN
LENGUAJES DE PROGRAMACIÓN

17.5. TÉCNICAS EMPLEADAS


A lo largo del desarrollo del sistema de información se obtiene una serie de productos que po-
drán ser finales o intermedios que servirán de base para la realización de los sucesivos pasos de que
consta el proceso de desarrollo.
Para la obtención de estos productos se utilizará el conjunto de técnicas que se enumeran a
continuación:
– Diagramas de flujo de datos: los diagramas de flujo de datos nos permiten construir un
modelo lógico del sistema permitiendo:
* Representar gráficamente los límites del sistema en estudio.
* Mostrar el movimiento de los datos y la transformación de los mismos a través del sis-
tema.
* Diferenciar las restricciones físicas de las lógicas.
– Modelado de datos: el objetivo principal del modelado de datos es el de obtener una repre-
sentación de la información del sistema independiente de las aplicaciones y de los disposi-
tivos físicos. A la hora de hablar de modelos de datos es preciso tener claros los siguientes
conceptos:
– Base de datos: es una colección de datos almacenados en un soporte informático, relacio-
nados y estructurados de acuerdo con un modelo específico.
– Sistema gestor de base de datos: es un conjunto de programas, procedimientos, len-
guajes, etc., que ofrecen las herramientas necesarias para describir, manipular y utilizar
los datos almacenados en la base de datos manteniendo su seguridad, confidencialidad e
integridad.
– Modelo entidad - relación: también llamado de Chen, por la persona que lo propuso.
Permite establecer un modelo de datos próximo al usuario e independiente de las caracte-
rísticas del equipo en el cual se va a implantar.
– Una entidad es cualquier objeto real o abstracto con existencia propia dentro del sistema.
– Una relación es una asociación o correspondencia entre entidades. Una relación puede ser:
1:1 (uno a uno), 1:N (uno a muchos), N:M (muchos a muchos), esto determinará el grado
de la relación.
– Un atributo es una característica o propiedad de la entidad o de la relación.
– Modelo relacional: propuesto por Codd, que le dio su nombre. Agrupa a los elementos en
tablas. A cada columna de una tabla se le denomina atributo, a las filas tuplas, siendo grado
el número de atributos y cardinalidad el número de filas. Este modelo mantiene la indepen-
dencia de los datos de los dispositivos físicos como el modelo anterior. Al conjunto de valores
que pueden tomar los atributos se le denomina dominio.
– Una clave primaria identifica de forma única una tupla de la tabla.
– Una clave ajena (o foránea) hace referencia a una clave primaria de otra tabla, obligando a
que haya correspondencia con los valores de la clave primaria.
– Normalización: la teoría de la normalización elimina las dependencias funcionales entre los
atributos y proporciona una estructura más regular en la representación de las tablas. Las
dependencias funcionales suelen causar anomalías a la hora de modificar la base de datos.
En el modelo relacional se contemplan hasta cinco formas normales.
– Se dice que una relación está en una forma normal si satisface un cierto conjunto de res-
tricciones sobre los atributos.
Historia de la vida de las entidades: esta técnica nos permite describir la evolución de las
entidades de datos dentro de nuestro sistema, entendiendo por entidad de datos cualquier objeto

378 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


LENGUAJES DE PROGRAMACIÓN

del sistema que nos permite almacenar información. Las características de las entidades de datos se
denominan atributos.
Se conoce como evento cualquier proceso que actualice los datos del sistema. El resultado de
la actuación de un evento sobre una entidad de datos se denomina efecto.
– Entrevistas: las entrevistas permitirán sentar las bases sobre las que se desarrollará el siste-
ma ya que es la técnica por la cual obtendremos la información sobre los requisitos de usuario
así como sus responsabilidades y funciones, el funcionamiento del sistema actual, etc.
– Diseño estructurado: en la etapa de diseño se intentarán representar módulos:
– Pequeño tamaño: una modificación de un módulo afectará a pocas líneas de código.
* Independientes entre sí: de modo que sean más fáciles de manejar aisladamente.
* Caja negra: sólo dar una visión de las entradas y salidas lo cual dará una rápida visión
de conjunto (dejando los detalles para etapas posteriores).
* Modelizados conceptualmente: evitar realizar descripciones físicas que perjudicarán
la comprensión por parte de los usuarios que no tienen por qué tener conocimientos
técnicos.
– Análisis coste – beneficio: esta técnica permite obtener estimaciones del coste de la
elaboración del sistema, lo cual nos permitirá, a priori, analizar su viabilidad, obtener las
mejores alternativas de realización y prever adecuadamente los recursos económicos que
serán precisos.
– Pruebas: son precisas para determinar si el sistema funciona como debe. Se realizan prue-
bas de tres tipos:
* Pruebas unitarias: se comprueba el funcionamiento de cada módulo individual.
* Pruebas de integración: se comprueba que los módulos encajan perfectamente e
interactúan entre sí.
* Pruebas de sistema: permiten comprobar el funcionamiento global del sistema.
– Factores críticos de éxito: evaluar los factores críticos de éxito nos permitirá obtener los
objetivos globales del sistema, evaluar el funcionamiento actual con respecto a estos ob-
jetivos, identificar los factores clave así como las relaciones causa efecto entre éstos y los
objetivos.
– Técnicas matriciales: las técnicas matriciales consisten en la utilización de tablas cruzadas
(o matrices) que nos permiten representar las relaciones entre las diferentes entidades u
objetos (funciones, procesos...) de nuestro sistema.
Algunas representaciones matriciales son:
* La matriz de Procesos – Entidades de datos permite observar el tratamiento lógico de
las funciones sobre los datos del sistema.
* La matriz de Procesos – Organización distribuye las funciones en cada uno de los
módulos de la organización.
* La matriz de Aplicaciones – Almacenes de datos permite conocer los sistemas de
información existentes así como los datos que manejan.
* La matriz de Aplicaciones – Funciones permite representar la cobertura de las aplica-
ciones sobre las funciones desarrolladas.
* La matriz de Ficheros de datos actuales – Entidades de datos permite obtener si
el conjunto de ficheros de datos existentes cubre las necesidades de información del
sistema de información.
A continuación se resumen en forma de tabla las fases, módulos, actividades y tareas de la
Métrica.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 379


LENGUAJES DE PROGRAMACIÓN

FASE 0: PLAN DE SISTEMAS DE INFORMACIÓN

MÓDULO 1: PLAN DE SISTEMAS DE INFORMACIÓN (PSI)

Actividad 1: Definir objetivos, organización, ámbito y planificación del proyecto

Tareas Productos Técnicas

Especificación detallada de
objetivos del plan
Entrevistas con el Director del
Especificación de objetivos Recopilación de información Proyecto
existente en la unidad o en la
organización

Identificación de unidades Perfil general de las unidades Entrevistas con responsables


afectadas objeto del estudio de las unidades afectadas

Organización de los equipos


Organización de los partici- participantes
pantes Lista inicial de personal parti-
cipante

Planificación del proyecto Cronograma del proyecto

Actividad 2: Identificar las necesidades de información de las unidades afectadas

Tareas Productos Técnicas

Diagrama de contexto de la
unidad
Entrevistas con los respon-
Representación gráfica de las sables de las unidades afec-
Identificación de funciones y
funciones de la unidad y flujos tadas
objetivos
de informes
Diagrama de contexto
Lista de funciones u objetivos
de la unidad

Lista inicial de problemas y


necesidades Entrevistas con los respon-
Lista inicial de posibles mejo- sables de las unidades afec-
Identificación de requisitos ras en los sistemas de infor- tadas
mación Reuniones de grupo
Catálogo de requisitos y sus Factores críticos de éxito
prioridades

Lista inicial de problemas y


necesidades
Entrevistas con los respon-
Lista inicial de posibles mejoras sables
Identificación de las necesida-
en los sistemas de información de las unidades afectadas
des de información
Documentación de impacto de Reuniones de grupo
los objetivos de la unidad sobre
los sistemas de información

380 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


LENGUAJES DE PROGRAMACIÓN

Actividad 3: Identificar las directrices de gestión y técnicas

Tareas Productos Técnicas

Identificación de Recopilación de políticas y direc- Entrevistas con los responsables y usua-


las directrices de trices de gestión rios de la unidad y de tratamiento de la
gestión Catálogo de requisitos información

Identificación de Recopilación de políticas y direc-


trices de técnicas Entrevistas con los responsables de
las directrices téc-
tratamiento de la información
nicas Catálogo de requisitos

Actividad 4: Diseñar la arquitectura de la información

Tareas Productos Técnicas

Lista de entidades o clases de Entrevistas con los responsables y


Diseño del mode- datos de la unidad usuarios de la unidad y de tratamiento
lo conceptual de de la información
datos Modelo conceptual de datos de
la unidad Modelo entidad - relación

Catálogo de funciones de la
unidad
Entrevistas con los responsables y
Diseño de la jerar- Diagrama de descomposición usuarios de la unidad
quía de funciones funcional
Diagrama de Flujo de Datos
Diagrama del modelo de funcio-
nes de la unidad

Diseño de la arquitectura lógica


de la información
Diseño de la arqui-
Diseño de un modelo organiza-
tectura de la infor- Técnicas matriciales
tivo
mación
Identificación inicial de los nue-
vos sistemas

Actividad 5: Revisar situación actual de los sistemas de información

Tareas Productos Técnicas

Descripción de las funciones de


cada aplicación, relaciones, posi-
Identificación y Entrevistas con personal de tratamien-
bilidades de adaptación y caracte-
descripción de los to de la información
rísticas tecnológicas
sistemas existentes Técnicas matriciales
Correlación entre las aplicaciones
y los ficheros de datos que utilizan

Perfil de los componentes (equi-


Análisis del entorno Entrevistas con personal de tratamien-
po físico, lógico, comunicaciones,
tecnológico actual to de la información
gestión de bases de datos, etc.)

Valoración de los sistemas ac- Entrevistas con personal de tratamien-


tuales to de la información
Diagnóstico de la
situación actual Perfil recursos humanos en las Técnicas matriciales
unidades de tratamiento de la
información Análisis Coste - Beneficio

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 381


LENGUAJES DE PROGRAMACIÓN

Actividad 6: Especificar nuevos sistemas

Tareas Productos Técnicas

Lista de aplicaciones que for-


marán parte del nuevo plan de Entrevistas con los responsables
Identificación de mejoras en sistemas y usuarios de la unidad y de tra-
los sistemas actuales
Lista de aplicaciones a migrar tamiento de la información
al nuevo entorno

Identificación de nuevos sis- Documentación para cada una Entrevistas con los responsables
temas de las nuevas aplicaciones y usuarios de la unidad

Documentación de prioridades Entrevistas con los responsables


Determinación de priorida- y usuarios de la unidad
de implantación para todas las
des de desarrollo
aplicaciones Análisis coste-beneficio

Conjunto de especificaciones
para cada sistema (objetivos,
descripción de funciones, res- Entrevistas con los responsables
Especificación de los siste-
tricciones) de la unidad y Comité de Direc-
mas
ción
Posibles alternativas de implan-
tación

Actividad 7: Definir alternativas tecnológicas

Tareas Productos Técnicas

Identificación de necesida- Visión general de la infraestruc- Entrevistas con los responsables


des tecnológicas futuras tura tecnológica requerida técnicos de la Unidad

Documentación de las infraes- Entrevistas con personal técnico


Definición de opciones tec-
tructuras tecnológicas poten- y responsables del tratamiento
nológicas
ciales de la información

Actividad 8. Elaborar un plan de acción

Tareas Productos Técnicas

Plan global de implantación


Elaboración de un plan de
implantación Planes a corto plazo para los
proyectos prioritarios

Mantenimiento del plan de Procedimientos para el mante-


sistemas nimiento del plan de sistemas

382 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


LENGUAJES DE PROGRAMACIÓN

FASE 1: ANÁLISIS DE SISTEMAS

MÓDULO 1: ANÁLISIS DE REQUISITOS DEL SISTEMA (ARS)

Actividad 1: Establecer el ámbito y alcance del proyecto

Tareas Productos Técnicas

Descripción general del proyecto


Entrevistas con los responsables
Definición del proyecto (unidades, objetivos, restricciones,
de las unidades afectadas
equipo de trabajo)

Identificación de los usua- Entrevistas con los responsables


Lista de usuarios participantes
rios participantes de las unidades afectadas

Actividad 2: Planificación e identificación de problemas

Tareas Productos Técnicas

Planificación y realización Plan de entrevistas Entrevistas con los responsables


de entrevistas Catálogo de requisitos del sistema de las unidades afectadas

Modelo físico del sistema


Lista de problemas y necesidades Entrevistas con usuarios y perso-
Identificación de proble-
del sistema actual nal técnico de tratamiento de la
mas y necesidades
Catálogo de requisitos del siste- información
ma y sus prioridades

Actividad 3. Diseñar el modelo y el esquema lógico actual

Tareas Productos Técnicas

Modelo lógico actual de procesos Entrevistas con usuarios del sis-


Construcción del modelo tema
lógico actual de procesos Catálogo de requisitos con sus
prioridades Diagramas de flujo de datos

Lista de entidades con sus atributos


Entrevistas con usuarios del sis-
Construcción del modelo Modelo lógico de datos tema
lógico actual de datos Catálogo de requisitos con sus Diagramas de estructura de datos
prioridades

Actividad 4. Estudiar alternativas de construcción

Tareas Productos Técnicas

Descripción de cada una de las


alternativas
Entrevistas con miembros del
Definición de alternativas Información sobre productos Comité de Dirección
de aplicación existentes en el
mercado

Para cada una de las alternativas


costes estimados y beneficios es-
Selección de alternativas perados Análisis Coste - Beneficios
Descripción de la alternativa se-
leccionada

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 383


LENGUAJES DE PROGRAMACIÓN

MÓDULO 2: ESPECIFICACIÓN FUNCIONAL DEL SISTEMA (EFS)

Actividad 1: Construir el modelo de procesos del nuevo sistema

Tareas Productos Técnicas

Diagrama de contexto del sistema


Diseño del diagra- Descripción de usuarios, unidades
ma de contexto del de la organización o aplicaciones Diagrama de Flujo de Datos
sistema que delimitan el sistema (entidades
externas)

Diagrama de flujo de datos de sub-


sistemas, funciones, subfunciones
Identificación y de- y procesos elementales Diagrama de Flujo de Datos
finición de subsis-
Descripción de componentes de Entrevistas con Usuarios
temas
un diagrama de flujo de datos
Catálogo inicial de eventos

Especificación de
Descripción de interfaces con otros
interfaces con otros Diagrama de Flujo de Datos
sistemas o subsistemas
sistemas

Descripción de pro- Descripción de procesos manua-


Entrevistas con Usuarios
cesos manuales les

Actividad 2. Construir el esquema lógico global de datos del nuevo sistema

Tareas Productos Técnicas

Descripción de entidades de datos


Entrevistas con usuarios
Construcción del y sus atributos
modelo de datos Modelo de Datos (Diagramas de Es-
Esquema lógico de datos del nuevo
tructura de Datos)
sistema

Entidades de datos normalizadas


Normalización del
Esquema lógico de datos en tercera Modelado de Datos (Normalización)
modelo de datos
forma normal

Actividad 3. Realizar el análisis detallado del nuevo sistema

Tareas Productos Técnicas

Construcción del Historia de la Vida de las Entidades


Catálogo de eventos
modelo entidad- (HVE)
evento Modelo entidad-evento
Entrevistas con Usuarios

Diagramas de flujo de datos de Interrelación de Técnicas HVE con


Consolidación de bajo nivel, revisados Diagramas de Flujo de Datos (DFD)
los modelos de da-
Esquema lógico de datos en terce- y Diagramas de Estructura de Datos
tos y procesos
ra forma normal revisado (DED)

384 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


LENGUAJES DE PROGRAMACIÓN

Actividad 4. Definir interfaces de usuario

Tareas Productos Técnicas

Producción de prototipos pre- Formato y representación Prototipado de pantallas y


liminares y diálogos jerárquica de pantallas del diálogos
sistema
Asignación de pantallas y diálo-
gos a los grupos de usuarios
Diálogos críticos del sistema

Especificación de informes y Prototipos de los diálogos críti- Entrevistas con los usuarios
formularios cos
Formatos de informes y formu-
larios

Actividad 5. Completar especificaciones del sistema

Tareas Productos Técnicas

Especificación de requisitos de Catálogo de requisitos del


seguridad y control sistema actualizado

Especificación de requisitos de Catálogo de requisitos del


copias de respaldo, contingen- sistema actualizado
cias y recuperación de errores

Especificación de requisitos de Catálogo de requisitos del


rendimiento sistema actualizado

Actividad 6. Completar especificaciones de entrega

Tareas Productos Técnicas

Preparación del Plan de Prue- Plan de pruebas de aceptación


bas del sistema del sistema

Especificación del Plan de En- Plan de desarrollo y entrega


trega del sistema del nuevo sistema
Plan de aceptación del nuevo
sistema
Revisión de fechas y costes
previstos

Verificación y validación de la Conjunto completo de espe-


especificación funcional del cificaciones funcionales del
sistema sistema revisado, validado y
aprobado

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 385


LENGUAJES DE PROGRAMACIÓN

FASE 2: DISEÑO DE SISTEMAS

MÓDULO 1: DISEÑO TÉCNICO DEL SISTEMA (DTS)

Actividad 1: Diseñar arquitectura física del sistema

Tareas Productos Técnicas

Conjunto de actividades físicas


del sistema
Determinación inicial de activi-
dades físicas con características
comunes de desarrollo
Diagrama de estructura de cua-
Diseño de la estructura dros de alto nivel, que muestre Diagramas de estructuras de cua-
modular del sistema la comunicación entre los subsis- dros (DEC) de Constantine
temas
Diagramas de estructuras de cua-
dros que muestren el tratamiento
de cada una de las actividades
físicas del sistema y la estructura
de las mismas

Descripción de interfa-
Descripción detallada de interfa- Diagramas de estructuras de cua-
ces entre módulos del
ces dros (DEC) de Constantine
sistema

Descripción de interfa- Descripción detallada de interfa- Diagramas de estructuras de cua-


ces con otros sistemas ces con otros sistemas dros (DEC) de Constantine

Descripción de interfa- Descripción detallada de interfa-


Prototipos de pantallas y diálogos
ces de usuarios ces de usuario

Diagrama de Estructura de
Definición de los componentes
cuadros
Definición de compo- del sistema
nentes del sistema Descripción de cada componente:
Descripción detallada de cada
pseudocódigo, lenguaje estructu-
componente
rado

Actividad 2: Diseñar esquema externo de datos del sistema

Tareas Productos Técnicas

Elaboración del modelo


físico de datos (esque- Esquema externo de datos Modelado de Datos
ma externo)

Estimación del rendimiento de


las transacciones críticas del sis-
Optimización del mo- tema Modelado de Datos
delo físico de datos
Esquema lógico de datos revisa-
do

386 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


LENGUAJES DE PROGRAMACIÓN

Actividad 3: Especificar esquema tecnológico del sistema

Tareas Productos Técnicas

Definición del entorno Especificación del entorno tecnológi-


tecnológico del sistema co del nuevo sistema

Especificación de requisitos de Diseño de la configuración de la red de


comunicaciones del sistema comunicaciones del sistema

Procedimientos de operación de com-


Especificación de requisitos de ponentes del sistema
operación, seguridad y control
Procedimientos de seguridad y control

Actividad 4: Completar el plan de prueba del sistema

Tareas Productos Técnicas

Diseño de planes de prueba del Diseño de planes de prueba del sis-


sistema tema
Diseño de pruebas
Definición del entorno y
Definición del entorno de pruebas
limitaciones de prueba

Actividad 5. Completar especificaciones de diseño

Tareas Productos Técnicas

Preparación de planes de cons- Especificación del plan de Técnicas de estima-


trucción construcción ción

Preparación de planes para la Técnicas de estima-


Borrador de un plan de implantación
implantación ción

Revisión del diseño técnico del Conjunto completo de especificaciones


sistema de diseño revisado, validado y aprobado

FASE 3: CONSTRUCCIÓN DE SISTEMAS

MÓDULO 1: DESARROLLO DE COMPONENTES DEL SISTEMA (DCS)

Actividad 1: Preparar entorno de desarrollo, pruebas y procedimientos de operación

Tareas Productos Técnicas

Bases de datos físicas o ficheros conven-


Implantación de la base de datos
cionales para realizar la construcción y las
física o ficheros de datos
pruebas

Preparación del entorno de desa- Descripción completa del entorno de desa-


rrollo rrollo

Preparación del entorno de pruebas Descripción completa del entorno de pruebas

Definición de procedimientos de
Procedimientos de operaciones de produc-
operaciones de producción e im-
ción e implantación
plantación

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 387


LENGUAJES DE PROGRAMACIÓN

Actividad 2: Desarrollar y probar componentes del sistema

Tareas Productos Técnicas

Diseño de la estructura del código de


Generación del código cada componente Diagramas de Estructura de
de los componentes del
Código fuente de los componentes del Cuadros de Constantine
sistema
sistema

Preparación, ejecución y
Pruebas unitarias de los componentes Técnicas de estructuración
evaluación de las prue-
del sistema e informe de prueba unitaria de programas
bas unitarias

Documentación de los Documentación completa de los compo-


Técnicas de Prueba
componentes del sistema nentes del sistema

Actividad 3. Realizar pruebas de integración

Tareas Productos Técnicas

Preparación y ejecución Pruebas de integración entre componen-


de pruebas de integra- tes del sistema e informe de pruebas de Técnicas de Prueba
ción integración

Evaluación y documen- Documentación consolidada de los com-


tación de los resultados ponentes afectados por correcciones
de las pruebas de inte-
gración Informes de pruebas de integración

MÓDULO 2: DESARROLLO DE PROCEDIMIENTOS DEL USUARIO (DPS)

Actividad 1: Completar el plan de desarrollo de procedimientos del usuario

Tareas Productos Técnicas

Preparación de un borra-
dor del plan de desarro- Borrador del plan de desarrollo de proce-
llo de procedimientos de dimientos de usuario
usuario

Especificación de crite-
Plan de construcción de los procedi-
rios de calidad y están-
mientos de usuario (estándares, control
dares de procedimientos
de calidad)
de usuario

Actividad 2: Elaborar procedimientos de usuario

Tareas Productos Técnicas

Diseño de la estructura
Diseño de la estructura de procedimien-
de los procedimientos de
tos de usuario
usuario

Elaboración de los proce-


Manual de usuario del nuevo sistema
dimientos de usuario

388 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


LENGUAJES DE PROGRAMACIÓN

Actividad 3: Determinar necesidades especiales para el funcionamiento del sistema

Tareas Productos Técnicas

Identificación de perfiles de Definición de perfiles de usuario


usuario requeridos

Especificación de recursos ne- Especificación de recursos ne-


cesarios cesarios

Actividad 4: Desarrollar el plan de formación de usuarios

Tareas Productos Técnicas

Identificación de requisitos y
Plan de formación en el nuevo
recursos necesarios para la for-
sistema
mación de usuarios

Preparación de los materiales Material de formación para los


de formación de usuarios usuarios

Actividad 5: Consolidar los procedimientos de usuario

Tareas Productos Técnicas

Organización de la documen-
tación de procedimientos de Documentación recopilada
usuario

Consolidación de la documen-
Consolidación y revisión de los
tación de procedimientos de
procedimientos de usuario
usuario

FASE 4: IMPLANTACIÓN DE SISTEMAS

MÓDULO 1: PRUEBAS, IMPLANTACIÓN Y ACEPTACIÓN DEL SISTEMA (PIA)

Actividad 1: Diseñar y realizar las pruebas del sistema

Tareas Productos Técnicas

Preparación de las pruebas del


Planes de prueba del sistema
sistema

Creación del entorno de prue- Entorno de pruebas del siste-


bas del sistema ma

Actividad 2. Actualizar el plan de implantación

Tareas Productos Técnicas

Revisión del plan de implantación Plan de implantación del sistema

Preparación del plan de trabajo


Plan de trabajo de implantación
de implantación

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 389


LENGUAJES DE PROGRAMACIÓN

Actividad 3. Realizar las pruebas de aceptación

Tareas Productos Técnicas

Preparación de las pruebas


Pruebas de aceptación
de aceptación

Preparación del entorno de


Entorno de producción
producción

Realización de las pruebas Pruebas de aceptación e informes


de aceptación Listas de problemas sin resolver

Actividad 4. Establecer procedimientos de producción

Tareas Productos Técnicas

Instalación de procedi-
Procedimientos automáticos de pro-
mientos automáticos de
ducción
producción

Instalación de procedi-
Procedimientos manuales de pro-
mientos manuales de pro-
ducción
ducción

Firma de los usuarios responsables


Inicio de procedimientos
dando por implantado el nuevo sis-
de producción
tema

390 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


TEMA
9

El personal de informática
y sus funciones generales.
Normas de buena conducta de los
profesionales informáticos
Desde los primeros tiempos de la informática, el personal encar-
gado de los ordenadores ha experimentado una profunda evolución en
su formación, objetivos, jerarquías y dinámica de trabajo. Actualmente
los profesionales informáticos ya no necesitan llevar bata blanca como
en los años cincuenta, aunque conservan ciertas características inva-
riables como el lenguaje críptico que suelen utilizar (al menos para los
profanos en la materia) y la consideración de “semidioses” por tener en
sus manos uno de los activos más importantes en las organizaciones
actuales: los sistemas de información.

En este capítulo estudiaremos la organización del personal infor-


mático, la de su entorno más próximo: el centro de proceso de datos,
así como las normas de buena conducta que deben cumplir en el de-
sarrollo de sus actividades.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 391


EL PERSONAL DE INFORMÁTICA Y SUS FUNCIONES GENERALES

ESQUEMA INICIAL
1. Introducción

2. El centro de proceso de datos (CPD)


2.1. Funciones del CPD
2.2. Localización física del CPD
2.3. Localización orgánica del CPD
2.4. Organización del CPD

3. Modelo de las funciones informáticas


3.1. Dominio de utilización
3.2. Niveles de madurez

4. El personal informático
4.1. Director de Informática
4.2. Jefe de Proyecto
4.3. Jefe de explotación
4.4. Supervisor
4.5. Jefe de Equipo
4.6. Analista Funcional
4.7. Analista-Programador
4.8. Programador
4.9. Administrador de Sistemas
4.10. Técnico de Sistemas
4.11. Técnico de Mantenimiento
4.12. Instalador
4.13. Operador
4.14. Grabador
4.15. Director de Formación
4.16. Instructor
4.17. Asesor de Software
4.18. Consultor
4.19. Auditor

5. Normas de buena conducta de los profesionales informáticos

6. Protección de datos
6.1. Introducción
6.2. Leyes de protección de datos
6.2.1. Leyes de primera generación
6.2.2. Leyes de segunda generación
6.2.3. Leyes de tercera generación

392 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


EL PERSONAL DE INFORMÁTICA Y SUS FUNCIONES GENERALES

6.3. Regulación supranacional del tratamiento automatizado de datos de carácter


personal
6.3.1. Convenio para la Protección de las personas con relación al tratamiento
automatizado de los datos de carácter personal del Consejo de Europa
6.3.2. Disposiciones comunitarias relativas al tratamiento de datos de carácter
personal
6.4. Su tratamiento en el ordenamiento jurídico español
6.4.1. Fundamentos constitucionales y legislación inicial
6.4.2. La ley Orgánica 5/1992 (LORTAD)
6.4.3. Real Decreto 1332/1994, de 20 de junio
6.4.4. Real Decreto 994/1999, de 11 de junio
6.4.5. Ordenamiento actual: Ley Orgánica 15/1999, de 13 de diciembre
6.4.6. Real Decreto 195/2000, de 11 de febrero

7. Protección jurídica de los programas de ordenador


7.1. Ley 22/1987, de Propiedad Intelectual
7.2. Directiva del Consejo 91/250/CEE sobre la protección jurídica de los programas
de ordenador – incorporada a nuestro ordenamiento a través de la Ley 16/1993
7.3. Convenio de Berna
7.4. Aspectos jurídicos relacionados con los programas de ordenador
7.4.1. Responsabilidad civil por productos, servicios y defectuosos
7.4.2. Responsabilidad civil por infracción de los derechos de autor
7.4.3. Modificaciones legislativas
7.4.4. Contrato de Escrow

8. Licencias de uso

9. Mantenimiento y actualización de paquetes de ordenador

1. INTRODUCCIÓN
Los equipos hardware y las aplicaciones software de una organización son parte imprescindible
de su sistema informático, pero no olvidemos que existe un tercer componente de igual o mayor im-
portancia: el personal informático. El personal informático constituye un recurso fundamental cuando
se planifica el rendimiento de un sistema informático.
Existen importantes elementos adicionales de carácter organizativo, de gestión, técnicos y hu-
manos relacionados con el personal informático, desde la definición de la jerarquía hasta la adopción
de métodos ergonómicos de trabajo, sin olvidar la política de formación y reciclaje profesional, por
mencionar sólo algunos.
El entorno físico de un departamento de informática se está destacando actualmente como otro
factor muy importante. Su correcta organización es decisiva en la obtención de resultados del siste-
ma informático. La aplicación de nuevas normativas que abarcan diversas áreas (ergonomía, medio
ambiente, seguridad, etc.), están haciendo que la planificación de un centro informático cobre una
creciente importancia, sobre todo en las grandes corporaciones.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 393


EL PERSONAL DE INFORMÁTICA Y SUS FUNCIONES GENERALES

En general la importancia de una buena organización a todos los niveles queda definida en la
siguiente frase:
De una buena organización depende la consecución de los objetivos
fijados en una empresa, asegurándose así el óptimo aprovechamiento de
los recursos disponibles.

2. EL CENTRO DE PROCESO DE DATOS (CPD)


La división orgánica de una empresa en departamentos depende de que éstos posean la suficien-
te identidad y magnitud para coexistir dentro de la organización general.
Los recursos informáticos de una empresa moderna de mediano tamaño alcanzan fácilmente los
requisitos para su existencia como unidad independiente, centralizando, organizando y explotando
el sistema informático de la organización, la mayor parte del cual queda ubicado en sus dependen-
cias.
En la actualidad existen numerosas denominaciones para estas unidades de informática, todas
ellas con un significado similar, que aglutina el conjunto de equipos físicos, aplicaciones informáticas,
personal, instalaciones varias, etc. Las denominaciones que podemos encontrar son las siguientes:
– Departamento de Informática.
– Departamento de Proceso de Datos.
– Unidad de Informática.
– Sala de Ordenadores.
– Centro de Cálculo (muy común en universidades o centros de formación).
– Centro de Proceso de Datos (denominación más utilizada).
Podemos resumir la definición de un Centro de Proceso de Datos (generalmente abreviado
con las siglas CPD) como:
Un CPD es el entorno físico que reúne el conjunto de recursos físicos (hardware), lógicos (soft-
ware) y humanos (personal informático) necesarios para la planificación, realización y control de las
actividades informáticas de una organización.
Cuando las empresas no tienen entidad suficiente para organizar un CPD propio, o existan otras
causas que lo justifiquen (generalmente económicas), pueden contratar los servicios informáticos a
empresas externas especializadas, denominadas de servicios informáticos. A esta política se la cono-
ce con el término de outsourcing.

2.1. FUNCIONES DEL CPD


La importancia del CDP está fundamentada en las actividades que en él se realizan. Son las
siguientes:
Desarrollo de sistemas informáticos: las fases que integran el desarrollo de un sistema in-
formático se resumen en el estudio y análisis de requisitos, diseño de sus elementos, equipos,
programas y algoritmos, y la codificación, implantación, pruebas y mantenimiento del sistema. Recor-
demos también que un sistema informático está compuesto por un conjunto de programas, equipos
y personas.
Explotación de sistemas informáticos: es el conjunto de tareas considerado más útil (al me-
nos desde el punto de vista de la dirección de la empresa), ya que se trata de utilizar el sistema infor-
mático para obtener resultados y conseguir el máximo rendimiento posible de la inversión realizada.
Entre las labores más típicas se encuentran el diseño de planes de actuación, la operación general
del sistema, supervisión de trabajos, seguridad, etc.
Soporte técnico a usuarios: el soporte técnico es fundamental para el personal ajeno al CPD,
que suele carecer de los conocimientos técnicos necesarios para afrontar los problemas. El personal
cualificado del CPD da soporte en tareas tales como la instalación de nuevas máquinas, sistemas

394 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


EL PERSONAL DE INFORMÁTICA Y SUS FUNCIONES GENERALES

operativos y aplicaciones de usuario, diseño y mantenimiento de las estructuras de bases de datos,


estudio del rendimiento del sistema, posibles mejoras, formación, etc.
Gestión y administración: por último, y no por ello menos importante, están las tareas rutina-
rias de mantenimiento, gestión y administración del propio CPD: administración de material fungible,
seguridad general del local y de los equipos, gestión de recursos humanos, etc.

2.2. LOCALIZACIÓN FÍSICA DEL CPD


La ubicación física de un CPD depende de varios factores. Entre los más importantes podemos
citar el tamaño de la empresa, las previsiones realizadas en el pasado, la disponibilidad de espacio,
las prestaciones que se esperan obtener, niveles de seguridad y operatividad, normativa vigente, etc.
En todo caso, en los proyectos de localización física del CPD se debe considerar lo siguiente:
– Disposición física del local: espacio disponible, accesibilidad y movilidad de los equipos,
características de las salas y despachos, posición de columnas, instalación de suelos o te-
chos falsos, etc.
– Seguridad y acondicionamiento del local: las medidas de seguridad son muy importantes;
en un CDP no deben faltar extintores, sistemas antiincendios, alarmas, materiales ignífugos
y demás componentes que garanticen su seguridad. El acondicionamiento térmico (existen
muchos ordenadores que sólo funcionan en un rango de temperaturas) y el acústico (para
evitar molestias sobre todo procedentes de equipos como impresoras, aires acondicionados,
etc.), son también muy importantes.
– Suministro eléctrico e iluminación: el suministro eléctrico en un CPD, y en concreto la ali-
mentación de los equipos, debe cumplir ciertas condiciones especiales: existencia de una línea
independiente del resto de la instalación para evitar interferencias, elementos de protección y
seguridad específicos como sistemas estabilizadores que eviten sobrecargas, y también equi-
pos de alimentación ininterrumpida. La iluminación debe ser adecuada para evitar los molestos
reflejos en las pantallas de los ordenadores; debe ser suficientemente intensa sin llegar a des-
lumbrar ni molestar y estar uniformemente distribuida evitando zonas oscuras y contrastes de
luces y sombras.

2.3. LOCALIZACIÓN ORGÁNICA DEL CPD


La localización orgánica del CPD se refiere a su posición en el diagrama organizativo de la empre-
sa. La mayoría de los casos se agrupan en cuatro posibilidades; son las siguientes:
– Dependiente de la dirección de la empresa: la dirección de la empresa gestiona directa-
mente el funcionamiento del CPD, aunque éste preste servicios a todos los departamentos
de la empresa que lo requieran. En la actualidad este esquema no ocurre con frecuencia,
siendo herencia de los primeros tiempos en los que la informática se empezó a aplicar al
mundo empresarial. La instalación y control de un CPD resultaban extremadamente costosos
y existía la tendencia a gestionarlo directamente desde la dirección de la empresa.

 


   
 

 

Organización en la que el CPD depende directamente de la dirección

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 395


EL PERSONAL DE INFORMÁTICA Y SUS FUNCIONES GENERALES

– Dependiente del departamento de administración: esta ubicación también obedece a


razones históricas, cuando la mayor parte de las necesidades de una empresa se originaban
en el departamento financiero o de administración. Esta ubicación pasó a ser habitual por
simple aplicación directa de los sistemas informáticos. Como en el caso anterior, estas razo-
nes no tienen demasiada vigencia en la actualidad.




   
 

 



    

Organización en la que el CPD depende del departamento de administración

– Ubicación independiente: es una localización más acorde con las características de un


moderno CPD y las actuaciones que de él se esperan. Ahora el CPD funciona como un de-
partamento más de la empresa, prestando sus servicios al resto de los departamentos. La
dependencia jerárquica única e inmediata se da con la directiva de la empresa.




  
  

  

Organización en la que el CPD es considerado un departamento independiente

– Ubicación descentralizada o distribuida: opción con gran aceptación actualmente, debi-


do sobre todo al éxito del proceso distribuido, al desarrollo de la microinformática y al grado
de conectividad de las redes locales. En muchas empresas el CPD tiende a desaparecer,
creándose pequeñas secciones a la medida de las necesidades de cada departamento,
aunque todas ellas están conectadas y coordinadas entre sí.




     
 

      

Organización descentralizada. El CPD se encuentra distribuido entre los departamentos de la empresa

2.4. ORGANIZACIÓN DEL CPD


De igual forma que existen varias posibilidades para situar el CPD en el organigrama de una em-
presa, la propia estructura interna del CPD está sujeta a varias alternativas. La elección más adecuada
dependerá de factores como su tamaño, ubicación funcional, tipo de trabajo desarrollado, etc. La orga-
nización más común que podemos encontrar en un CPD es la representada en la siguiente figura.

396 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


EL PERSONAL DE INFORMÁTICA Y SUS FUNCIONES GENERALES

  





     

 
  
    
 

Organización funcional de un CPD


– La sección de desarrollo: encargada del desarrollo de nuevas aplicaciones y de la actuali-
zación de otras ya existentes.
– La sección de explotación: planifica, organiza y explota el sistema informático del CPD. La
planificación de procesos, la asignación de prioridades y el mantenimiento de los equipos
son, entre otras, tareas de su competencia.
– La sección de administración: cae bajo su responsabilidad el control de todos los as-
pectos relativos a personal, adquisición y distribución de equipamiento, administración de
presupuestos, etc.
Existen otras posibilidades de organizar un CPD. Una muy extendida es la de disociar equipos y
personal asignados a diferentes proyectos, con un jefe de proyectos que coordina los distintos equi-
pos. Por último, también pude darse cualquier combinación de las alternativas anteriores, así como
otras configuraciones adaptadas a cualquier necesidad particular.

3. MODELO DE LAS FUNCIONES INFORMÁTICAS


Actualmente existe una creciente movilidad de personas experimentadas en diversas áreas a
nivel nacional, comunitario e incluso internacional, y el personal informático forma una parte muy
básica de esta actividad.
Para poder intercambiar profesionales en general e informáticos en particular, es necesario com-
parar sus experiencias y capacidades con independencia de sus peculiaridades locales. Para ello se
necesita un modelo de referencia que permita identificar los distintos niveles técnicos de la profesión
informática, el reconocimiento de las titulaciones y la cualificación profesional.
Como respuesta a esta necesidad, el CEPIS (Council of European Professional Informatics Socie-
ties) abordó los trabajos para la realización del modelo EISS (European Informatics Skills Structure),
que proporciona un prototipo europeo de aptitudes y características informáticas. EISS permite a los
ofertantes de empleo definir sus necesidades y describir, con independencia de la nacionalidad, las
responsabilidades requeridas y la valoración de los candidatos.
En España contamos con el Modelo de Referencia de las Funciones Informáticas (MRFI), que
surge como adaptación particular del modelo EISS. Los objetivos particulares de este modelo son:
– Unificar la denominación de las categorías profesionales.
– Definir el grado de conocimiento y experiencia correspondiente al perfil de cada categoría.
– Definir los niveles de perfeccionamiento que pueden alcanzarse en la propia profesión.

3.1. DOMINIO DE UTILIZACIÓN


Este concepto define las áreas que agrupan las categorías profesionales susceptibles de ser
contratadas por la Administración Pública. Son las siguientes:
– Estrategia y Dirección Informática.
– Calidad y Auditoría Informática.
– Especialización en Técnicas Informáticas.
– Desarrollo de Sistemas.
– Producción de Servicios Informáticos.
– Enseñanza y Formación en Sistemas de Información.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 397


EL PERSONAL DE INFORMÁTICA Y SUS FUNCIONES GENERALES

3.2. NIVELES DE MADUREZ


Se define como el grado de perfeccionamiento alcanzado por un profesional en el desempeño de
sus funciones. El nivel de madurez inicial en una determinada categoría, se puede obtener a través
de una formación teórica adecuada.
La valoración se basa en una escala de 0 a 9, donde el nivel 0 es el más bajo y el nivel 9 es el
superior. Estos niveles reflejan el progreso en la cualificación y determinan requisitos de acceso a las
distintas áreas profesionales. Los diez niveles se identifican como sigue:
1. Acceso sin conocimientos.
2. Acceso con conocimientos básicos.
3. Profesional con conocimientos teóricos y prácticos básicos.
4. Profesional formado y en prácticas.
5. Profesional totalmente formado con responsabilidad supervisada.
6. Experto/Supervisor.
7. Especialista/Directivo (ámbito de actuación reducido).
8. Especialista Senior/Directivo (ámbito de actuación amplio).
9. Especialista principal/Directivo experimentado.
10. Directivo Senior/Director.

4. EL PERSONAL INFORMÁTICO
La clasificación de categorías profesionales permite introducir la flexibilidad necesaria para va-
lorar equipos ofertados y para expresar las necesidades de personal de servicios como formación,
consultoría, desarrollo de sistemas de información, auditoría, etc. Estas categorías están asociadas a
varios parámetros: conocimientos previos, responsabilidades, experiencia, desarrollo, etc.
En los apartados siguientes detallamos las funciones de los diversos profesionales informáticos
y sus relaciones con el resto de la plantilla, principalmente con los usuarios. La extensión de esta
lista puede dar una idea de la importancia que adquiere el personal informático abarcando un amplio
rango de actividades.
Por otra parte, existen muchos centros que no alcanzan el tamaño necesario para justificar todos
los puestos que a continuación se detallan. Surgen diversas posibilidades de formar equipos informá-
ticos combinando diferentes profesionales, según las necesidades específicas de una organización.

4.1. DIRECTOR DE INFORMÁTICA


Máxima autoridad de la jerarquía informática. Selecciona, elige, estructura y dirige el resto del
personal y los equipos del centro. Administra los presupuestos y controla y coordina trabajos y perso-
nal. Es, asimismo, responsable de las relaciones con los distintos departamentos de la empresa y con
sus órganos directivos. Estudia alternativas y posibilidades de optimizar las tareas del CPD y diseña la
política de actualizaciones y formación.

4.2. JEFE DE PROYECTO


Dirige el desarrollo de un proyecto informático desde las fases iniciales de definición de requisitos
por parte de los usuarios, hasta la fase final de explotación. Es responsable del correcto funciona-
miento de la nueva aplicación al término del proyecto, de la estimación de los recursos necesarios
(tanto materiales como humanos) y de diseñar un planning de trabajo coherente.
Tiene conocimiento suficiente y experiencia en gestión y guía de grupos humanos y adminis-
tración de proyectos. Establece la adecuada relación con el área usuaria y mantiene los canales de
comunicación con la directiva de la organización.

398 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


EL PERSONAL DE INFORMÁTICA Y SUS FUNCIONES GENERALES

Responsabilidades:
– Puede realizar las asignadas al Jefe de Equipo.
– Responsable de la organización, desarrollo y control permanente del proyecto, supervisando
el ajuste a los programas y objetivos iniciales establecidos.
– Desarrolla el plan de trabajo y elabora informes periódicos de avance.
– Establece una comunicación efectiva con los usuarios/clientes finales.
– Supervisa la comunicación que se establezca a niveles inferiores.
– Identifica problemas, desarrolla soluciones y recomienda acciones.
– Garantiza la calidad de los productos finales.
– Propone al cliente la aprobación de los hitos establecidos en el proyecto.
– Propone la participación de expertos funcionales.
– Planifica y organiza la formación de usuarios.
– Dirige la elaboración de propuestas y presentaciones divulgativas del Sistema.

4.3. JEFE DE EXPLOTACIÓN


Responsable de la explotación de las aplicaciones informáticas y del correcto funcionamiento del
sistema. Planifica y organiza la carga de trabajo de los sistemas del CPD (siguiendo las directrices del
director de informática), asigna prioridades, estima costes y establece medidas de seguridad. Tiene a
su cargo a los operadores y a los grabadores de datos.

4.4. SUPERVISOR
Conoce el entorno de un proyecto, evalúa sus posibilidades técnicas y las desarrolla. Debe tener
una visión de la naturaleza y la estructura de la organización, sus normas, protocolos y procedimientos
para asegurar la calidad.
Responsabilidades:
– Organizar grupos de trabajo.
– Generar normas simplificadas de organización del trabajo de grabadores y codificadores y
otro personal no informático.
– Vigilar el cumplimiento de las normas y controlar resultados.
– Efectúa procedimientos de control de almacenamiento, traslado y envío de equipos.

4.5. JEFE DE EQUIPO


Conoce en profundidad el sistema en que trabaja y el área de negocio del proyecto, lo que le
permiten tener un lenguaje común con los usuarios.
Responsabilidades:
– Planificación a corto plazo de su equipo y su seguimiento.
– Responsable de la ejecución de las tareas realizadas en tiempo, plazo, forma y calidad.
– Responsable de la formación del equipo de trabajo.
– Define procedimientos internos del proyecto por delegación del jefe de éste y vela por su
cumplimiento.
– Transmite las incidencias acaecidas al jefe del proyecto.
– Transmite al equipo las directrices recibidas.
– Obtiene información para la realización o mejora de módulos de un sistema.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 399


EL PERSONAL DE INFORMÁTICA Y SUS FUNCIONES GENERALES

4.6. ANALISTA FUNCIONAL


Confecciona el diseño de nuevas aplicaciones o la actualización de las existentes basándose en
los requerimientos de los usuarios. Sigue las directrices del jefe de proyecto. Coordina a los progra-
madores y los ayuda en su trabajo. Domina la metodología de desarrollo de sistemas y los conceptos
básicos del área de negocio del proyecto.
Responsabilidades:
Puede realizar las asignadas al Analista-Programador.
– Obtiene información para la realización o mejora de módulos.
– Mantiene relación con usuarios finales y con el responsable funcional del proyecto.
– Realiza el diseño funcional y técnico del sistema o de módulos en sistemas complejos.
– Revisa el diseño detallado de módulos y la programación del equipo.
– Analiza incidencias y la adecuación de los programas a los requisitos.
– Define, planifica y realiza la prueba del sistema y las posibles conversiones de datos.
– Participa en la elaboración y realización de presentaciones divulgativas del Sistema.
– Supervisa un pequeño equipo, responsabilizándose de objetivos a corto plazo.
– Transmite y explica los valores propios de la organización. Orienta a su equipo a la consecu-
ción de objetivos. Promueve la formación del equipo de trabajo.

4.7. ANALISTA-PROGRAMADOR
Además de los conocimientos del programador, domina el entorno del proyecto evaluando sus
posibilidades técnicas y desarrollándolas. Conoce funcionalmente el módulo o módulos del sistema.
Responsabilidades:
– Puede realizar las asignadas al programador.
– Obtiene información del usuario para la realización de módulos del sistema.
– Colabora en el diseño funcional y técnico de módulos con cierto grado de supervisión.
– Asigna tareas a muy corto plazo a una o dos personas y supervisa la programación.

4.8. PROGRAMADOR
Una vez los analistas han realizado sus análisis los pasan a los programadores a su cargo, los
cuales diseñan el pseudocódigo y, a partir de éste, los programas codificados en el lenguaje elegido.
Los programadores son responsables del buen funcionamiento del código que escriben, así como de
la redacción de la documentación de apoyo al usuario, tarea que comparten con los analistas.
Deben tener conocimientos del entorno lógico del proyecto y estar muy especializados en la
construcción de programas y en las herramientas que la facilitan. Son deseables conocimientos gene-
rales sobre el sistema de información y metodologías propias de desarrollo, así como de estándares
de programación.
Responsabilidades:
– Diseño detallado de programas con un elevado grado de supervisión.
– Codifica, revisa y prueba los programas.
– No participa directamente, pero atiende a las incidencias que surgen durante la prueba del
sistema o durante la conversión de datos.
– Seguimiento de las incidencias que se le asignan.
– Evalúa y analiza cambios con un elevado grado de supervisión.

400 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


EL PERSONAL DE INFORMÁTICA Y SUS FUNCIONES GENERALES

4.9. ADMINISTRADOR DE SISTEMAS


Su misión principal el manejar, configurar y optimizar el o los sistemas operativos que controlan
los ordenadores del CPD. En muchas ocasiones también se encarga del mantenimiento y administra-
ción de las bases de datos del sistema.
Responsabilidades:
– Gestión de permisos, prioridades y privilegios de los usuarios.
– Monitorización de los recursos del sistema y su nivel de uso.
– Análisis y corrección de fallos y cuellos de botella.

4.10. TÉCNICO DE SISTEMAS


Especialista en el hardware de los ordenadores y demás sistemas del CPD. Debe conocer pro-
fundamente los aspectos técnicos, configuración, ampliación y manejo de este hardware, asesorando
tanto al director de informática como a los analistas y los distintos jefes de área.
Con la especialización que se está experimentando estos días, el técnico de sistemas posee
conocimientos profundos de un campo específico (comunicaciones, bases de datos, etc.) y medios
de otros campos, por ejemplo las metodologías y estándares del mercado.
Responsabilidades:
– Apoya y supervisa la estrategias de comunicaciones, seguridad, soporte físico y lógico e
instalación de proyectos complejos, etc.
– Define los sistemas de comunicación, arquitectura, SGBD, etc. de un proyecto.
– Participa en el establecimiento de estrategias generales de soporte físico y lógico.
– Apoya y supervisa la instalación y tuning de productos complejos.
– Dirige la elaboración de propuestas y ofertas en sus aspectos técnicos.
– Realiza presentaciones de carácter técnico.
– Mantiene relación con el responsable de sistemas del cliente.
– Establece con el Jefe de Proyecto los objetivos a largo plazo y realiza el seguimiento, esta-
blece objetivos a corto plazo, planifica y asigna responsabilidades.
– Transmite y explica los valores propios de la organización. Orienta a su equipo a la consecu-
ción de objetivos.

4.11. TÉCNICO DE MANTENIMIENTO


Debe ser capaz de reconocer y manejar un amplio rango de situaciones y condiciones de error.
Formación práctica sobre el funcionamiento de cualquier equipo, software, método o procedimien-
to implantado.
Responsabilidades:
– Debe ser capaz de ejecutar y de supervisar las ejecuciones de cualquier tarea asociada con
el funcionamiento y el control de los SI instalados, en todo el dominio de operación.
– Las tareas rutinarias incluirán normalmente la inclusión de correcciones precisas en la pro-
visión de los servicios.
– Debe responder a las preguntas de los usuarios, especialistas y suministradores de equipos.
– Debe asumir la responsabilidad sobre las peticiones rutinarias tales como accesos al hard-
ware, a los soportes de datos y consumibles.
– Es responsable de las peticiones de reemplazar o instalar los elementos nuevos, mejorados
o reparados, tanto de los equipos físicos como del equipo lógico.
– Debe llevar a cabo las investigaciones de los problemas de operación y elaborar propuestas
de mejoras.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 401


EL PERSONAL DE INFORMÁTICA Y SUS FUNCIONES GENERALES

4.12. INSTALADOR
Posee una amplia cultura informática en equipos físicos y lógicos, así como formación práctica
sobre el funcionamiento de cualquier equipo físico o equipo lógico de base.
Responsabilidades:
– En colaboración con el técnico de mantenimiento debe ser capaz de instalar y poner en
funcionamiento cualquier equipo físico y lógico de base.
– Correcciones para el funcionamiento eficaz de los equipos físicos y lógicos de base.
– Debe responder a las preguntas de los usuarios sobre la instalación de los equipos físicos
y lógicos de base.

4.13. OPERADOR
Controlan el funcionamiento de los equipos, terminales, impresoras, dispositivos de salvaguardia
y demás componentes del sistema del CPD, encargándose de la operación directa sobre todos estos
elementos. También realiza tareas con el sistema operativo de los ordenadores fundamentales para
su explotación, además de prestar asistencia a los usuarios con problemas.
Responsabilidades:
– Atender las peticiones de trabajo.
– Ejecutar y controlar los trabajos manuales y automáticos (realizar el seguimiento).
– Comunicar incidencias en la ejecución de los trabajos.
– Si existe red, realizar el control de terminales.
– Gestión de cintas y cartuchos.
– Comunicar incidencias del entorno.

4.14. GRABADOR
Su labor consiste en la introducción de datos en los ordenadores. No tienen por qué tener cono-
cimientos técnicos, tan sólo nociones básicas de uso del teclado y de los terminales.
Son básicas habilidades de mecanografía como las pulsaciones/minuto y el manejo de terminales
pantalla-teclado. Su formación se enfoca en procedimientos, operativa básica de los equipos, y sobre
todo en las aplicaciones específicas con las que vayan a trabajar.
Responsabilidades:
– Su principal función es la rapidez y la calidad.
– Realiza tareas rutinarias y simples de gestión de datos.
En todo momento estará atento y aplicará estrictamente las instrucciones y los procedimientos
fundamentales para realizar las tareas, especialmente de aquellas que estén relacionadas con ano-
malías, salvaguardia y seguridad. Como cualidad personal es importante la adaptabilidad a trabajos
totalmente dirigidos y sin capacidad alguna de decisión.

4.15. DIRECTOR DE FORMACIÓN


Conoce y tiene experiencia en gestión de grupos humanos y de administración de programas
de formación. Conoce en profundidad el sistema, lo que le permite tener un lenguaje común con
los instructores.
Responsabilidades:
– Interlocutor por parte de la empresa que presta los servicios ante la organización.
– Analiza las necesidades y diseña los programas de formación para todo el personal.

402 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


EL PERSONAL DE INFORMÁTICA Y SUS FUNCIONES GENERALES

– Selecciona los recursos humanos y materiales necesarios para el programa formativo.


– Velar por la correcta ejecución del programa formativo: plazos, contenidos, horarios.
– Control de los presupuestos de formación, análisis de costes, subvenciones, etc.
– Mejora la productividad y calidad de los programas.
– Reduce el tiempo de formación necesario para disponer de instructores competentes.

4.16. INSTRUCTOR
Tiene suficiente capacidad pedagógica: destreza en la enseñanza, capacidad para estimular a la
audiencia, etc. La experiencia de otros cursos contribuye de forma positiva a la calidad de la ense-
ñanza. La enseñanza resultará más enriquecedora si ha desarrollado parte de su carrera profesional
en el área de las tecnologías de la información.
Responsabilidades:
– Tareas docentes del programa de formación.
– Proporcionar una formación de calidad y ajustada a los contenidos requeridos.
– Elaboración de informes de evaluación del alumnado.
– Uso apropiado de los recursos para facilitar la transmisión de conocimientos.
– Transmisión adecuada de los conocimientos a los alumnos.

4.17. ASESOR DE SOFTWARE


Los asesores son los enlaces entre los programadores y las personas que compran el software.
La principal obligación de los asesores es la de suministrar el software apropiado en el sentido de
que ellos deben ayudar a los usuarios a utilizar su software de forma eficaz. Pero también tienen la
responsabilidad de acreditar honestamente su cualificación, no tratando de prestar ayuda en aquellos
casos para los que no están capacitados. Los asesores tienen también la responsabilidad de comu-
nicar las experiencias de los usuarios (tanto positivas como negativas) a los diseñadores, para que
puedan mejorar sus diseños.

4.18. CONSULTOR
Conoce el entorno del proyecto y evalúa sus posibilidades técnicas y los mínimos necesarios de
informática general para desarrollarlas. Domina la metodología de desarrollo de sistemas en todas
sus fases. Conoce los conceptos básicos del área de negocio del proyecto, lo que le permite tener un
lenguaje común con los usuarios.
Responsabilidades:
– Participa en la obtención de información imprescindible para el sistema.
– Participa en la elaboración de algunos aspectos de un Plan de Sistemas.
– Realiza el diseño funcional y técnico de módulos de un sistema.
– Revisa el diseño detallado y programación de módulos del sistema, comprobando la adecua-
ción de los programas a los requisitos.
– Define, planifica y realiza la prueba integrada del sistema y conversión.
– Diseña el material de formación y dirige la formación de usuarios.
– Mantiene relación con el responsable funcional del proyecto.
– Transmite y explica los valores propios de la organización.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 403


EL PERSONAL DE INFORMÁTICA Y SUS FUNCIONES GENERALES

4.19. AUDITOR
Tiene los mismos conocimientos que el consultor. Domina las metodologías, herramientas y téc-
nicas de auditoría informática, así como sus aspectos legales.

  
 

   
          

 

 

 

 
    


 




Relación jerárquica del personal informático


Responsabilidades:
– Aplica controles de prevención, detección y corrección de errores.
– Revisa la documentación.
– Verifica la existencia de controles adecuados que garanticen en todo momento la fiabili-
dad, seguridad e integridad de la información.
– Mantiene relación con el responsable funcional del proyecto.
– Transmite y explica los valores propios de la organización. Orienta a su equipo a la consecu-
ción de objetivos.

5. NORMAS DE BUENA CONDUCTA DE LOS PROFESIONALES


INFORMÁTICOS
Defensa del interés y la salud pública, la seguridad y el medio ambiente:
– Reconocimiento de los derechos de terceros y de los de propiedad intelectual.
– Conocimiento y comprensión de la legislación, reglamentación y estándares.
– Ajustar el ejercicio profesional a los anteriores requisitos.
– Reconocimiento de los derechos humanos básicos, evitando acciones en su contra.
– Reconocimiento de los derechos individuales y de grupo a la intimidad de la información.
Responsabilidad hacia empleadores y hacia clientes:
– Cumplimiento del trabajo profesional de modo que satisfaga los requisitos exigidos.
– Realización del trabajo profesional ajustándose en tiempo y presupuesto.
– No revelación o no autorización a revelar información confidencial.
– No utilización de información confidencial en beneficio personal o de un tercero.
– No ofrecimiento o entrega de incentivos a terceros por uso de información confidencial.
Dignidad y promoción profesional:
– Protección de la reputación de la profesión evitando acciones que afecten negativamente.
– Mejora de estándares profesionales mediante participación en su desarrollo, uso y regula-
ción.
– Fomento del conocimiento y la consideración pública de la informática.

404 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


EL PERSONAL DE INFORMÁTICA Y SUS FUNCIONES GENERALES

– Contestación a cualquier afirmación falsa o engañosa en detrimento de la profesión.


– Estímulo del desarrollo de la profesión y apoyo a los compañeros de profesión.
– Actuación íntegra, evitando actividades incompatibles con el estatus profesional.
Competencia, ética e imparcialidad:
– Perfeccionamiento de técnicas y conocimiento de los avances informáticos relevantes.
– Evitar reclamar niveles de competencia no poseídos.
– Aceptación de la responsabilidad del trabajo profesional desempeñado.
– No abandono de un cometido profesional sin una buena justificación y sin preaviso razonable.
– Evitar situaciones que den lugar a conflictos de interés entre profesionales o clientes.

6. PROTECCIÓN DE DATOS

6.1. INTRODUCCIÓN
Los parámetros de seguridad de la información pueden resumirse en tres:
– Disponibilidad: información accesible y utilizable
– Integridad: información precisa y concreta
– Confidencialidad: revelada sólo a las personas autorizadas
Cuando la Administración Pública almacena y trata datos de carácter personal, los principios
anteriores generan los siguientes problemas:
La Administración debe asegurar la confidencialidad de la información almacenada frente a ter-
ceros (sistemas de seguridad físicos y lógicos).
El uso que de esta información confidencial puede y no puede hacer la Administración por el
peligro potencial de coartación de los derechos y libertades.
Se plantean tres cuestiones básicas:
Los perfiles personales que se almacenan pueden formulan un juicio sobre el ciudadano que es
difícil de cambiar posteriormente.
Las Tecnologías de la Información permiten integrar datos dispersos en el espacio y en el tiempo
de un mismo ciudadano. Esta forma unificada configura un expediente cuyo potencial de atentar
contra la intimidad es mucho mayor que la de cada segmento de información tratado independien-
temente. Se violaría el principio de que la información recogida con determinada finalidad no debe
utilizarse para otra distinta de la convenida.
Se considera fácil que un extraño pueda acceder al ordenador en el que se contienen datos
personales.
Cualquier intento de afrontar los problemas legislativos de la protección de datos conlleva dos
problemas:
– A nivel individual: la protección del derecho del individuo al respeto a su vida privada.
– A nivel del Estado: salvaguardar las libertades cívicas por medio del mantenimiento del
equilibrio de los poderes constitucionales, legislativo y ejecutivo, entre las autoridades nacio-
nales y regionales y entre los sectores público y privado. Todos quedan involucrados por la
concentración de conocimientos y por el poder de las Tecnologías de la Información.

6.2. LEYES DE PROTECCIÓN DE DATOS


La regulación del Derecho a la Intimidad queda recogido en el artículo 18.4 de la Constitución, y
debe hacerse en armonía con otro de los derechos más actuales: el derecho a la información.
Las leyes de protección de datos se clasifican en tres generaciones.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 405


EL PERSONAL DE INFORMÁTICA Y SUS FUNCIONES GENERALES

6.2.1. Leyes de primera generación


Surgieron como instrumentos pensados para garantizar ciertos límites en la utilización de la in-
formática. Su principal objetivo residía en reglamentar el funcionamiento de los bancos de datos, en
aquella época todavía escasos, con un hardware voluminoso y por ello, fácilmente localizables.
Se entendió entonces que el método más eficaz se lograría a través de una ley general basada
en la autorización previa de los bancos de datos y en el control a posteriori de su gestión a través de
los órganos específicos de vigilancia.
En Alemania (Dateschuzt en 1970) y Suecia (Data Lag en 1973) se promul-
garon las primeras leyes de protección de datos.

6.2.2. Leyes de segunda generación


Su meta consistía en asegurar la calidad de los datos mediante cláusulas específicas de protec-
ción de las informaciones consideradas sensibles, por su inmediata incidencia sobre la vida privada o
sobre el ejercicio de las libertades.
Estas leyes contribuyeron decisivamente a conformar el derecho a la autodeterminación infor-
mativa, al reconocer y tutelar los derechos de acceso y control de las informaciones por parte de las
personas concernidas.
La segunda generación de leyes se inicia con la promulgación de la Privacy Act
norteamericana (1974), que engloba también la Constitución Portuguesa de 1976
y la Española de 1978.

6.2.3. Leyes de tercera generación


Se presentan como respuesta a nuevos problemas tecnológicos y de política legislativa, recono-
ciéndose además a escala internacional la necesidad de la protección de los datos personales. Los
principios de la protección de datos se recogen en el Convenio del Consejo de Europa:
– Lealtad y legitimidad de los procedimientos de obtención de datos.
– Determinación de su finalidad y uso conforme a la misma.
– Actualización, seguridad de su conservación y reconocimiento del derecho de acceso.

6.3. REGULACIÓN SUPRANACIONAL DEL TRATAMIENTO AUTOMATIZADO


DE DATOS DE CARÁCTER PERSONAL
6.3.1. Convenio para la Protección de las personas con relación al tratamiento
automatizado de los datos de carácter personal del Consejo de Europa
Fue ratificado por España el 27 de enero de 1984 y es de aplicación a ficheros y tratamientos
automatizados de datos de carácter personal en los sectores públicos y privados. No obstante, esta-
blece tres excepciones a la regla general:
– Los Estados adherentes podrán excluir la aplicación del Convenio a determinadas categorías de
datos personales, notificándolo expresamente al Secretario General del Consejo de Europa.
– Los Estados adherentes podrán extender su aplicación a informaciones relativas a agrupa-
ciones, asociaciones, fundaciones, sociedades o cualquier otro tipo de organismo integrado
directa o indirectamente de personas físicas, tengan o no personalidad jurídica.
– El Convenio podrá aplicarse a ficheros de datos de carácter personal no automatizados.
Establece los siguientes principios:
– Calidad de los datos: Cumplirán los requisitos y atenderán los principios de:
• Lealtad: se obtendrán y tratarán leal y legítimamente.
• Finalidad: se registrarán para objetivos determinados y legítimos y no se utilizarán de
forma incompatible con dichas finalidades.

406 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


EL PERSONAL DE INFORMÁTICA Y SUS FUNCIONES GENERALES

• Pertinencia: serán adecuados y no excederán de las finalidades para las que se hayan
registrado.
• Limitación: se conservarán sólo el tiempo estrictamente necesario para su finalidad.
– Veracidad y correcta utilización de los datos.
– Prohibición del tratamiento automatizado de datos sensibles: origen racial, opiniones políti-
cas, convicciones religiosas, así como los relativos a salud, vida sexual o antecedentes penales.
– Medidas de seguridad: para salvaguardar los datos personales contra destrucción, pérdi-
da, así como contra el acceso, modificación o difusión no autorizados.
– Reconocimiento a las personas concernidas: tienen derecho a conocer la existencia
de bancos de datos, su finalidad o titularidad, la facultad de obtener la confirmación ex-
presa de la existencia de un fichero de datos que le afecten, así como la comunicación
de dichos datos de forma inteligible, la posibilidad de corregir o cancelar tales datos, y de
recurrir cuando no sean atendidas sus peticiones de confirmación, comunicación, rectifi-
cación o cancelación de datos.
Las restricciones a estos principios, justificadas en la medida en que son necesarias en una
sociedad democrática, son:
– Proteger la seguridad del Estado, la seguridad pública, los intereses monetarios o la repre-
sión de infracciones penales.
– Protección de la persona concernida y de los derechos y libertades de otras personas.
– Cuando los ficheros se utilicen con fines estadísticos o de investigación científica, cuando no
existan manifiestamente riesgos de atentado a la vida privada de las personas concernidas.
Se establecen principios básicos en materia de flujos internacionales de datos, con objeto de con-
ciliar las exigencias de la protección eficaz con el principio de la libre circulación de la información:
– Principio de protección equivalente, Un Estado puede prohibir o someter a una autoriza-
ción especial la transmisión de datos personales que en su derecho interno gozan de una
protección reforzada a otro Estado parte, salvo que en este Estado exista una protección
equivalente para dicha categoría de datos.
– Limitaciones: Posibilidad de que un Estado limite a otro la transmisión de datos que puedan
tener como destino último un Estado no contratante del Convenio que podría burlarlo.

6.3.2. Disposiciones comunitarias relativas al tratamiento de datos de carácter


personal
Existe una Propuesta de Directiva que tiene por objetivo establecer una protección equivalente en
todos Estados miembros de la Comunidad para facilitar los intercambios de datos (necesarios para
el funcionamiento del mercado interior). Los principios son sustancialmente coincidentes con los del
Convenio del Consejo de Europa, en cuanto a:
– Finalidad y pertinencia
– Confidencialidad
– Calidad de los datos
– Seguridad de los datos
– Legitimidad del tratamiento en el sector privado (con consentimiento del interesado)
– Esta propuesta se complementa con otras disposiciones que se resumen a continuación:
Proyecto de resolución de los representantes de los Estados miembros: con objeto de
extender los principios de la Directiva general a los ficheros de sector público que no están sujetos al
Derecho Comunitario.
Declaración de la comisión relativa a la aplicación de las disposiciones de la Directiva
general a las instituciones y organismos de la Comunidad, la Comisión adoptará las medidas ne-
cesarias para aplicar las medidas de la Directiva a las instituciones y organismos de la Comunidad.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 407


EL PERSONAL DE INFORMÁTICA Y SUS FUNCIONES GENERALES

Propuesta de Directiva del Consejo relativa a la protección de datos personales y


de la intimidad en el contexto de las redes digitales públicas de telecomunicaciones y,
en particular, de la red digital de servicios integrados y de las redes digitales móviles
públicas: garantiza a los usuarios los Estados miembros un nivel básico de protección por medio
de medidas que deben integrarse en los servicios ofrecidos por las nuevas redes. Se está redac-
tando una Propuesta modificada de la Directiva del Parlamento Europeo y del Consejo.
Recomendación de Decisión del Consejo relativa a la adhesión de la Comunidad Europea al
Consejo de Europa.
Propuesta de Decisión del Consejo relativa a la adopción de un plan de acción de dos años en
materia de seguridad de los SI, para completar lo referente al tratamiento automatizado de datos de
carácter personal.
El 18 de abril se presentó el texto “Proposición modificada de la directiva del Consejo relativa a
la protección de personas físicas con respecto al tratamiento de datos de carácter personal y la libre
circulación de estos datos”.

6.4. SU TRATAMIENTO EN EL ORDENAMIENTO JURÍDICO ESPAÑOL

6.4.1. Fundamentos constitucionales y legislación inicial


La Constitución regula la protección de datos de carácter personal directamente con los siguien-
tes artículos:
Art. 18.4: La Ley limitará el uso de la informática para garantizar el honor y
la intimidad personal y familiar de los ciudadanos y el pleno ejercicio de sus dere-
chos.
Art. 105: La Ley regulará... b) El acceso de los ciudadanos a los archivos y
registros administrativos, salvo en lo que afecte a la seguridad y defensa del Estado,
la averiguación de los delitos y la intimidad de las personas.
E indirectamente por el artículo:
Art. 96.1: Los tratados internacionales válidamente celebrados, una vez pu-
blicados oficialmente en España, formarán parte del ordenamiento interno. Sus
disposiciones sólo podrán ser derogadas, modificadas o suspendidas en la forma
prevista en los propios tratados o de acuerdo con las normas generales del Derecho
Internacional.
La Ley de Protección Civil de 1982 del derecho al honor, a la intimidad personal y familiar y
a la propia imagen, que no se refiere a la protección de estos derechos frente a la informática, pero
establece que en tanto no se promulgue la normativa prevista se regulará por la presente Ley.

6.4.2. La ley Orgánica 5/1992 (LORTAD)


La Constitución Española, en su artículo 18.4, emplaza al legislador a limitar el uso de la informá-
tica para garantizar el honor, la intimidad personal y familiar de los ciudadanos y el legítimo ejercicio
de sus derechos. En respuesta a tal previsión se elaboró y publicó la LORTAD -Ley Orgánica 5/1992,
de 29 de octubre, reguladora del tratamiento automatizado de los datos de carácter personal-
El borrador de Reglamento redactado ha establecido la idea de nivel de seguridad, coincidiendo
con los modelos descritos en:
General Recommendations on Data Security, Suecia 1988.
– Dutch Data Security Standards, Holanda.
Se definen por tanto tres niveles de seguridad (básico, medio y alto) atendiendo a la natura-
leza de la información almacenada y su necesidad de garantizar la confidencialidad.
– Las medidas de seguridad de nivel básico son las mínimas exigibles a cualquier fichero que
contenga datos de carácter personal.

408 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


EL PERSONAL DE INFORMÁTICA Y SUS FUNCIONES GENERALES

– Las de nivel medio se aplican a ficheros que por su especial naturaleza requieren una pro-
tección especial.
– Por último, las medidas de seguridad de nivel alto se aplican a los ficheros con datos espe-
cialmente protegidos. Si bien es cierto que en algunos supuestos el coste de su implantación
puede ser elevado, se entiende que es imprescindible exigirlas atendiendo a la especial
naturaleza de los datos y al reforzamiento de la protección que los mismos requieren.
La LORTAD entra en vigor el 31 de enero de 1993.
Aplicación: Se aplica tanto a los ficheros públicos como privados que contengan datos de ca-
rácter personal.
Excepciones:
– Ficheros públicos de carácter general (Registro de la Propiedad, Mercantil, etc.).
– Ficheros de personas físicas con fines personales.
– Ficheros de información tecnológica o comerciales que reproduzcan datos ya publicados en
boletines, diarios o repertorios oficiales.
– Ficheros de informática jurídica.
– Ficheros de miembros o ex miembros mantenidos por (precisan consentimiento previo del
afectado):
• Partidos políticos y sindicatos.
• Iglesias, confesiones y comunidades religiosas.
Materias con disposiciones previas:
– Régimen electoral
– Materias clasificadas (secretos oficiales)
– Registro Civil y
– Registro Central de Penados y Rebeldes
– Datos con fines estadísticos
– Informes personales de personal militar profesional
Principios:
– Calidad de los datos:
• No podrán usarse para finalidades distintas de las que fueron recogidos.
• No podrán ser recogidos por medios fraudulentos, desleales o ilícitos.
• Exactos y actualizados. Cancelados cuando no sean necesarios (excepto si tienen
valor histórico).
• Permitan el ejercicio del derecho de acceso al afectado.
– Datos especialmente protegidos: Existen datos especialmente protegidos por sus propias
normas reguladoras que son los relativos a infracciones penales o administrativas que sólo
podrán incluirse en los ficheros públicos por las Administraciones competentes de acuerdo
con lo previsto en las normas reguladoras.
– Protección máxima: Ideología, religión y creencias.
– Protección media: Raza, salud y vida sexual.
Nadie podrá ser obligado a declarar sobre estos datos, salvo consentimiento expreso del afectado
y por escrito. Existe obligación de advertir al interesado a no prestar su consentimiento. Existe prohi-
bición expresa de crear o mantener estos datos, si no es absolutamente necesario para los fines de
una investigación concreta realizada por las Fuerzas y Cuerpos de Seguridad.
Seguridad: Contra alteración, pérdida o acceso no autorizado (competencia Ministerio de Jus-
ticia).
Secreto: Deber de secreto para el responsable del fichero.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 409


EL PERSONAL DE INFORMÁTICA Y SUS FUNCIONES GENERALES

Cesión: Se precisa consentimiento previo haciendo constar la finalidad.


Consentimiento: El tratamiento automatizado requerirá consentimiento del afectado, excepto
cuando:
– La Ley disponga otra cosa.
– Se recojan en fuentes accesibles a público.
– Se refieran a personas vinculadas mediante relación laboral o contrato y sean necesarias
para el mantenimiento de las relaciones o cumplimiento del contrato.
La cesión tenga por destinatario el Defensor del Pueblo, el Ministerio Fiscal o los Jueces y Tribu-
nales, en el ejercicio de las funciones que tienen atribuidas.
Haya cesión entre las AAPP.
Derechos:
– Impugnación: Sobre los actos administrativos o decisiones privadas que impliquen una valora-
ción de su comportamiento cuyo único fundamento sea un tratamiento automatizado de datos
de carácter personal que ofrezca una definición de sus características o personalidad.
– Información: De la existencia de un fichero, su finalidad, destinatarios, identidad y dirección
del responsable del fichero... El Registro General de Protección de Datos de la Agencia de
Protección de Datos ofrece consulta pública y gratuita, sobre todo de la dirección de la ofici-
na responsable del fichero, pero no dispone del contenido de éste, labor que corresponde al
responsable del fichero que es quien puede rectificarlos, cancelarlos, dar acceso al afectado
sobre sus datos, etc.
– Acceso: En intervalos no inferiores a doce meses, salvo que se acredite un interés legítimo.
Se solicita al responsable del fichero, que tiene un mes para resolver. Transcurrido ese perío-
do se considerará desestimada. Si fuera estimatoria el acceso se hará efectivo en 10 días.
Denegación de acceso:
– Titularidad privada: sólo se podrá denegar el acceso a persona distinta del afectado.
– Titularidad pública: Fuerzas y Cuerpos de Seguridad, Hacienda Pública, AAPP en caso de
amenaza o interés general.
– Rectificación y cancelación: efectiva dentro de los 5 días siguientes al de recepción de la
solicitud. Puede denegarse en algunos supuestos de interés general.
Tutela de los derechos:
– Reclamaciones vía administrativa.
– Recurso contencioso-administrativo contra las resoluciones del Director de la Agencia.
– Derecho de indemnización (responsabilidad de las AAPP para los ficheros de titularidad pú-
blica y de los Tribunales ordinarios para los de titularidad privada).

6.4.3. Real Decreto 1332/1994, de 20 de junio


Desarrolla anterior ley además de incluir:
– Regulación de los derechos de acceso, rectificación y cancelación.
– Forma de reclamar ante la Agencia de Protección de Datos.
– Notificación e inscripción de los ficheros.
Determinación de infracciones e imposición de las sanciones.
Este Real Decreto atiende al desarrollo procedimental anterior, quedando pendiente los aspectos
técnicos sobre requisitos y condiciones que deban reunir los ficheros automatizados y las personas
que intervengan en su tratamiento.
Además hay otros aspectos que admiten desarrollo técnico: acceso, información y procedimien-
tos efectivos para la realización de las inspecciones. destrucción de la información caducada, trans-
misión, y tratamientos en BD distribuidas.

410 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


EL PERSONAL DE INFORMÁTICA Y SUS FUNCIONES GENERALES

6.4.4. Real Decreto 994/1999, de 11 de junio


Reglamento de medidas de seguridad de los ficheros automatizados que contengan datos de
carácter personal.
La LORTAD prevé en su artículo 9 la obligación de adoptar medidas que garanticen la seguridad
de los datos de carácter personal y eviten su alteración, pérdida, tratamiento o acceso no autoriza-
do.
Sin embargo, la falta de desarrollo reglamentario ha impedido promover las adecuadas medidas
de seguridad, en consecuencia impidiendo el cumplimiento de uno de los más importantes principios
de dicha ley.
Este Reglamento tiene por objeto el desarrollo de lo dispuesto en los artículos 9 y 43.3h) de
la Ley Orgánica 5/1992, determinando las medidas de índole técnica y organizativa que garanticen
la confidencialidad e integridad de la información con la finalidad de preservar el honor, la intimidad
personal y familiar y el pleno ejercicio de los derechos personales frente a su alteración, pérdida,
tratamiento o acceso no autorizado.
Las medidas de seguridad que se establecen se configuran como las básicas de seguridad que
han de cumplir todos los ficheros que contengan datos de carácter personal, sin perjuicio de esta-
blecer medidas especiales para aquellos ficheros que por la especial naturaleza de los datos que
contienen o por las propias características de los mismos exigen un grado de protección mayor.
Ámbito de aplicación y fines
Establecimiento de las medidas de índole técnica y organizativas necesarias para garantizar la
seguridad que deben reunir los ficheros automatizados, los centros de tratamiento, locales, equipos,
sistemas, programas y las personas que intervengan en el tratamiento automatizado de los datos de
carácter personal sujetos al régimen de la LORTAD.
Definiciones
– Sistemas de información: conjunto de ficheros automatizados, programas, soportes y
equipos empleados para el almacenamiento y tratamiento de datos de carácter personal.
– Usuario: sujeto o proceso automatizado para acceder a datos o recursos.
– Recurso: Cualquier parte componente de un sistema de información.
– Accesos autorizados: autorizaciones concedidas a un usuario para la utilización de los diver-
sos recursos.
– Identificación: procedimiento de reconocimiento de la identidad de un usuario.
– Autenticación: procedimiento de comprobación de la identidad de un usuario.
– Control de acceso: mecanismo que en función de la identificación ya autenticada permite
acceder a datos o recursos.
– Contraseña: información confidencial, frecuentemente constituida por una cadena de ca-
racteres, que puede ser usada en la autenticación de un usuario.
– Incidencia: cualquier anomalía que afecte o pudiera afectar a la seguridad de los datos.
– Soporte: objeto físico susceptible de ser tratado en un sistema de información y sobre el
cual se pueden grabar o recuperar datos.
– Responsable de seguridad: persona o personas a las que el responsable del fichero ha asig-
nado formalmente la función de coordinar y controlar las medidas de seguridad aplicables.
– Copia del respaldo: copia de los datos de un fichero automatizado en un soporte que po-
sibilite su recuperación.
Niveles de seguridad
Las medidas de seguridad exigibles se clasifican en tres niveles: básico, medio y alto. Dichos
niveles se establecen atendiendo a la naturaleza de la información tratada, en relación con la mayor
o menor necesidad de garantizar la confidencialidad y la integridad de la información.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 411


EL PERSONAL DE INFORMÁTICA Y SUS FUNCIONES GENERALES

Todos los ficheros que contengan datos de carácter personal deberán adoptar las medidas de
seguridad calificadas como de nivel básico.
Los ficheros que contengan datos relativos a la comisión de infracciones administrativas o pe-
nales, Hacienda Pública, servicios financieros y aquellos ficheros cuyo funcionamiento se rija por el
artículo 28 de la Ley Orgánica 5/1992, deberán reunir, además de las medidas de nivel básico, las
calificadas como de nivel medio.
Los ficheros que contengan datos de ideología, religión, creencias, origen racial, salud o vida
sexual así como los que contengan datos recabados para fines policiales sin consentimiento de las
personas afectadas deberán reunir, además de las medidas de nivel básico y medio, las calificadas
de nivel alto.
Cuando los ficheros contengan un conjunto de datos de carácter personal suficientes que permi-
tan obtener una evaluación de la personalidad del individuo deberán garantizar las medidas de nivel
medio establecidas en los artículos 17, 18, 19 y 20.
Cada uno de los niveles descritos anteriormente tiene la condición de mínimos exigibles, sin
perjuicio de las disposiciones legales o reglamentarias específicas vigentes.

6.4.5. Ordenamiento actual: Ley Orgánica 15/1999, de 13 de diciembre


LOPD: Ley Orgánica de protección de datos de carácter personal.
Objeto
La presente Ley Orgánica tiene por objeto garantizar y proteger, en lo que concierne al tratamien-
to de los datos personales, las libertades públicas y los derechos fundamentales de las personas
físicas, y especialmente de su honor e intimidad personal y familiar.
Ámbito de aplicación
La presente Ley Orgánica será de aplicación a los datos de carácter personal registrados en so-
porte físico que los haga susceptibles de tratamiento, y a toda modalidad de uso posterior de estos
datos por los sectores público y privado.
– Incluye todo tratamiento de datos de carácter personal que:
• Sea efectuado en territorio español en el marco de las actividades de un establecimien-
to del responsable del tratamiento.
• Aunque el responsable del tratamiento no esté establecido en territorio español, le sea
de aplicación la legislación española en aplicación de normas de Derecho Internacional
público.
• Cuando el responsable del tratamiento no esté establecido en territorio de la Unión
Europea y utilice en el tratamiento de datos medios situados en territorio español, salvo
que tales medios se utilicen únicamente con fines de tránsito.
– La ley no es aplicable a:
• Ficheros mantenidos por personas físicas en el ejercicio de actividades exclusivamen-
te personales o domésticas.
• Ficheros sometidos a la normativa sobre protección de materias clasificadas.
• Ficheros establecidos para la investigación del terrorismo y de formas graves de delin-
cuencia organizada. No obstante, en estos supuestos el responsable del fichero comu-
nicará previamente la existencia del mismo, sus características generales y su finalidad
a la Agencia de Protección de Datos.
– Se regirán por disposiciones específicas especialmente previstas los siguientes casos:
• Los ficheros regulados por la legislación de régimen electoral.
• Los que sirvan a fines exclusivamente estadísticos, y estén amparados por la legislación
estatal o autonómica sobre la función estadística pública.

412 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


EL PERSONAL DE INFORMÁTICA Y SUS FUNCIONES GENERALES

• Los que tengan por objeto el almacenamiento de los datos contenidos en los informes
personales de calificación a que se refiere la legislación del Régimen del personal de las
Fuerzas Armadas.
• Los derivados del Registro Civil y del Registro Central de penados y rebeldes.
• Los procedentes de imágenes y sonidos obtenidos mediante la utilización de videocámaras
por las Fuerzas y Cuerpos de Seguridad, de conformidad con la legislación sobre la materia.
Definiciones
– Datos de carácter personal: Cualquier información concerniente a personas físicas identi-
ficadas o identificables.
– Fichero: Todo conjunto organizado de datos de carácter personal, cualquiera que fuere la
forma o modalidad de su creación, almacenamiento, organización y acceso.
– Tratamiento de datos: Operaciones y procedimientos técnicos de carácter automatizado o
no, que permitan la recogida, grabación, conservación, elaboración, modificación, bloqueo
y cancelación, así como las cesiones de datos que resulten de comunicaciones, consultas,
interconexiones y transferencias.
– Responsable del fichero o tratamiento: Persona física o jurídica, de naturaleza pública o pri-
vada, u órgano administrativo, que decida sobre la finalidad, contenido y uso del tratamiento.
– Afectado o interesado: Persona física titular de los datos que sean objeto del tratamiento
de datos personales.
– Procedimiento de disociación: Todo tratamiento de datos personales de modo que la
información que se obtenga no pueda asociarse a persona identificada o identificable.
– Encargado del tratamiento: La persona física o jurídica, autoridad pública, servicio o cual-
quier otro organismo que, sólo o conjuntamente con otros, trate datos personales por cuenta
del responsable del tratamiento.
– Consentimiento del interesado: Toda manifestación de voluntad, libre, inequívoca, especí-
fica e informada, mediante la que el interesado consienta el tratamiento de datos personales
que le conciernen.
– Cesión o comunicación de datos: Toda revelación de datos realizada a una persona dis-
tinta del interesado.
– Fuentes accesibles al público: Aquellos ficheros cuya consulta puede ser realizada por cual-
quier persona, no impedida por una norma limitativa, o sin más exigencia que, en su caso,
el abono de una contraprestación. Tienen la consideración de fuentes de acceso público,
exclusivamente, el censo promocional, los repertorios telefónicos en los términos previstos por
su normativa específica y las listas de personas pertenecientes a grupos de profesionales que
contengan únicamente los datos de nombre, título, profesión, actividad, grado académico,
dirección e indicación de su pertenencia al grupo. Asimismo, tienen el carácter de fuentes de
acceso público, los Diarios y Boletines oficiales y los medios de comunicación.
Calidad de los datos
Los datos de carácter personal sólo se podrán recoger para su tratamiento, así como someterlos
a dicho tratamiento, cuando sean adecuados, pertinentes y no excesivos en relación con el ámbito y
las finalidades determinadas, explícitas y legítimas para las que se hayan obtenido.
Los datos de carácter personal objeto de tratamiento no podrán usarse para finalidades incom-
patibles con aquellas para las que los datos hubieran sido recogidos. No se considerará incompatible
el tratamiento posterior de éstos con fines históricos, estadísticos o científicos.
Los datos de carácter personal serán exactos y puestos al día de forma que respondan con vera-
cidad a la situación actual del afectado.
Si los datos de carácter personal registrados resultaran ser inexactos, en todo o en parte, o
incompletos, serán cancelados y sustituidos de oficio por los correspondientes datos rectificados o
completados, sin perjuicio de las facultades que a los afectados reconoce el artículo 16.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 413


EL PERSONAL DE INFORMÁTICA Y SUS FUNCIONES GENERALES

Los datos de carácter personal serán cancelados cuando hayan dejado de ser necesarios o per-
tinentes para la finalidad para la cual hubieran sido recabados o registrados.
No serán conservados en forma que permita la identificación del interesado durante un período
superior al necesario para los fines en base a los cuales hubieran sido recabados o registrados.
Reglamentariamente se determinará el procedimiento por el que, por excepción, atendidos los
valores históricos, estadísticos o científicos de acuerdo con la legislación específica, se decida el
mantenimiento íntegro de determinados datos.
Los datos de carácter personal serán almacenados de forma que permitan el ejercicio del dere-
cho de acceso, salvo que sean legalmente cancelados.
Se prohíbe la recogida de datos por medios fraudulentos, desleales o ilícitos.
Datos especialmente protegidos
De acuerdo con lo establecido en el apartado 2 del artículo 16 de la Constitución, nadie podrá
ser obligado a declarar sobre su ideología, religión o creencias.
Cuando en relación con estos datos se proceda a recabar el consentimiento a que se refiere el
apartado siguiente, se advertirá al interesado acerca de su derecho a no prestarlo.
Sólo con el consentimiento expreso y por escrito del afectado podrán ser objeto de tratamiento
los datos de carácter personal que revelen la ideología, afiliación sindical, religión y creencias. Se ex-
ceptúan los ficheros mantenidos por los partidos políticos, sindicatos, iglesias, confesiones o comuni-
dades religiosas y asociaciones, fundaciones y otras entidades sin ánimo de lucro, cuya finalidad sea
política, filosófica, religiosa o sindical, en cuanto a los datos relativos a sus asociados o miembros, sin
perjuicio de que la cesión de dichos datos precisará siempre el previo consentimiento del afectado.
Los datos de carácter personal que hagan referencia al origen racial, a la salud y a la vida sexual
sólo podrán ser recabados, tratados y cedidos cuando, por razones de interés general, así lo disponga
una Ley o el afectado consienta expresamente.
Quedan prohibidos los ficheros creados con la finalidad exclusiva de almacenar datos de carácter
personal que revelen la ideología, afiliación sindical, religión, creencias, origen racial o étnico, o vida
sexual.
Los datos de carácter personal relativos a la comisión de infracciones penales o administrativas
sólo podrán ser incluidos en ficheros de las Administraciones Públicas competentes en los supuestos
previstos en las respectivas normas reguladoras.
No obstante lo dispuesto en los apartados anteriores podrán ser objeto de tratamiento los datos
de carácter personal a que se refieren los apartados 2 y 3 de este artículo, cuando dicho tratamiento
resulte necesario para la prevención o para el diagnóstico médicos, la prestación de asistencia sani-
taria o tratamientos médicos o la gestión de servicios sanitarios, siempre que dicho tratamiento de
datos se realice por un profesional sanitario sujeto al secreto profesional o por otra persona sujeta
asimismo a una obligación equivalente de secreto.
También podrán ser objeto de tratamiento los datos a que se refiere el párrafo anterior cuando
el tratamiento sea necesario para salvaguardar el interés vital del afectado o de otra persona, en el
supuesto de que el afectado esté física o jurídicamente incapacitado para dar su consentimiento.
Seguridad de los datos
El responsable del fichero, y, en su caso, el encargado del tratamiento, deberán adoptar las
medidas de índole técnica y organizativas necesarias que garanticen la seguridad de los datos de ca-
rácter personal y eviten su alteración, pérdida, tratamiento o acceso no autorizado, habida cuenta del
estado de la tecnología, la naturaleza de los datos almacenados y los riesgos a que están expuestos,
ya provengan de la acción humana o del medio físico o natural.
No se registrarán datos de carácter personal en ficheros que no reúnan las condiciones que se
determinen por vía reglamentaria con respecto a su integridad y seguridad y a las de los centros de
tratamiento, locales, equipos, sistemas y programas.
Reglamentariamente se establecerán los requisitos y condiciones que deban reunir los ficheros y
las personas que intervengan en el tratamiento de los datos a que se refiere esta Ley.

414 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


EL PERSONAL DE INFORMÁTICA Y SUS FUNCIONES GENERALES

Ficheros de titularidad pública


La creación, modificación o supresión de los ficheros de las Administraciones Públicas sólo po-
drán hacerse por medio de disposición general publicada en el Boletín Oficial del Estado o diario
oficial correspondiente.
Las disposiciones de creación o de modificación de ficheros deberán indicar:
– La finalidad del fichero y los usos previstos para el mismo.
– Las personas o colectivos sobre los que se pretenda obtener datos de carácter personal o
que resulten obligados a suministrarlos.
– El procedimiento de recogida de los datos de carácter personal.
– La estructura básica del fichero y la descripción de los tipos de datos de carácter personal
incluidos en el mismo.
– Las cesiones de datos de carácter personal y, en su caso, las transferencias de datos que se
prevean a países terceros.
– Los órganos de las Administraciones responsables del fichero.
– Los servicios o unidades ante los que pudiesen ejercitarse los derechos de acceso, rectifica-
ción, cancelación y oposición.
– Las medidas de seguridad con indicación del nivel básico, medio o alto exigible.
En las disposiciones que se dicten para la supresión de los ficheros se establecerá el destino de
los mismos o, en su caso, las previsiones que se adopten para su destrucción.
Ficheros de las Comunidades Autónomas en materia de su exclusiva competencia
Cuando el Director de la Agencia de Protección de Datos constate que el mantenimiento o uso
de un determinado fichero de las Comunidades Autónomas contraviene algún precepto de esta Ley en
materia de su exclusiva competencia podrá requerir a la Administración correspondiente que se adopten
las medidas correctoras que determine en el plazo que expresamente se fije en el requerimiento.
Si la Administración Pública correspondiente no cumpliera el requerimiento formulado, el Director de
la Agencia de Protección de Datos podrá impugnar la resolución adoptada por aquella Administración.
Infracciones de las Administraciones Públicas
Cuando las infracciones a que se refiere el artículo 44 fuesen cometidas en ficheros de los que
sean responsables las Administraciones Públicas, el Director de la Agencia de Protección de Datos
dictará una resolución estableciendo las medidas que procede adoptar para que cesen o se corrijan
los efectos de la infracción. Esta resolución se notificará al responsable del fichero, al órgano del que
dependa jerárquicamente y a los afectados si los hubiera.
El Director de la Agencia podrá proponer también la iniciación de actuaciones disciplinarias, si
procedieran. El procedimiento y las sanciones a aplicar serán las establecidas en la legislación sobre
régimen disciplinario de las Administraciones Públicas.
Se deberán comunicar a la Agencia las resoluciones que recaigan en relación con las medidas y
actuaciones a que se refieren los apartados anteriores.
El Director de la Agencia comunicará al Defensor del Pueblo las actuaciones que efectúe y las
resoluciones que dicte al amparo de los apartados anteriores.
Ficheros preexistentes
Los ficheros y tratamientos automatizados, inscritos o no en el Registro General de Protección de
Datos deberán adecuarse a la presente Ley Orgánica dentro del plazo de tres años, a contar desde
su entrada en vigor. En dicho plazo, los ficheros de titularidad privada deberán ser comunicados a la
Agencia de Protección de Datos y las Administraciones Públicas, responsables de ficheros de titularidad
pública, deberán aprobar la pertinente disposición de regulación del fichero o adaptar la existente.
En el supuesto de ficheros y tratamientos no automatizados, su adecuación a la presente Ley
Orgánica y la obligación prevista en el párrafo anterior deberá cumplimentarse en el plazo de doce
años a contar desde el 24 de octubre de 1995, sin perjuicio del ejercicio de los derechos de acceso,
rectificación y cancelación por parte de los afectados.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 415


EL PERSONAL DE INFORMÁTICA Y SUS FUNCIONES GENERALES

6.4.6. Real Decreto 195/2000, de 11 de febrero


Establecimiento del plazo para implantar las medidas de seguridad previstas por el RD
994/1999.
El Reglamento de medidas de seguridad de los ficheros automatizados que contengan datos de
carácter personal, aprobado por Real Decreto 994/1999, de 11 de junio, estableció en su disposición
transitoria única los plazos de implantación de las medidas de seguridad para los sistemas de informa-
ción que se encontraran en funcionamiento en el momento de entrada en vigor de dicho Reglamento.
El efecto 2000 obligó a los responsables de los sistemas informáticos a realizar un considerable
esfuerzo de adaptación de dichos sistemas, lo que supuso una dificultad objetiva para poder implan-
tar en el plazo provisto las medidas de seguridad de nivel básico exigidas por el Reglamento.
Fue necesario por todo ello establecer un nuevo plazo para la implantación de estas medidas:
26 de marzo de 2000.
RESUMEN CRONOLÓGICO DE LA NORMATIVA SOBRE PROTECCIÓN DE DATOS
– Fundamentos Constitucionales y legislación inicial
– Ley Orgánica 5/1992, de 13 de diciembre: LORTAD
– Real Decreto 1332/1994, de 20 de junio: Desarrollo de la LORTAD
– Real Decreto 994/1999, de 11 de junio: Reglamento de medidas de seguridad
– Ley Orgánica 15/1999, de 13 de diciembre: LOPD
– Real Decreto 1995/2000: Modificación plazos implementación medidas de seguridad

7. PROTECCIÓN JURÍDICA DE LOS PROGRAMAS DE ORDENADOR


7.1. LEY 22/1987, DE PROPIEDAD INTELECTUAL
Son objeto de propiedad intelectual, entre otros, los programas de ordenador (entendidos por
la ley como toda secuencia de instrucciones o indicaciones utilizadas en un SI). La documentación
técnica y los manuales de uso gozarán de la misma protección. La ley estipula además:
La protección se extiende a cualquier versión del programa, así como a los programas derivados.
La duración de los derechos de explotación de un programa será de 50 años contados desde el
1 de enero del año siguiente al de su publicación o al de su creación, si no se hubiera publicado.
El autor, salvo pacto en contrario, no podrá oponerse a que el cesionario titular del derecho de
explotación, realice o autorice la realización de versiones sucesivas de un programa ni de programas
derivados del mismo.
La reproducción de un programa incluso para uso personal exigirá la autorización del titular del
derecho de explotación, con excepción de la copia de seguridad.
No constituye reproducción, la introducción de un programa en memoria interna a los solos efec-
tos de su utilización por el usuario, sin perjuicio de su necesaria comunicación al titular del derecho
de explotación cuando así se hubiera pactado.
No constituye transformación, la adaptación de un programa realizado por el usuario para la
utilización exclusiva por el mismo.

7.2. DIRECTIVA DEL CONSEJO 91/250/CEE SOBRE LA PROTECCIÓN


JURÍDICA DE LOS PROGRAMAS DE ORDENADOR – INCORPORADA A
NUESTRO ORDENAMIENTO A TRAVÉS DE LA LEY 16/1993
El objetivo es la supresión de las diferencias que existen en los Estados miembros en materia de
protección jurídica de los programas de ordenador. Contiene las siguientes disposiciones:
La Ley se aplicará a cualquier programa de ordenador, salvo aquellos creados para ocasionar
efectos nocivos a un SI (virus y demás).

416 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


EL PERSONAL DE INFORMÁTICA Y SUS FUNCIONES GENERALES

Las ideas o principios en los que se base un programa no estará protegidos.


Cuando un trabajador asalariado cree un programa de ordenador, la titularidad de los derechos
económicos corresponderán al empresario, salvo pacto en contrario.
Quien tiene el derecho a utilizar el programa podrá realizar una copia de seguridad.
Se entiende por interoperabilidad la capacidad de los programas de ordenador de intercambiar
información y utilizar mutuamente la información. Se permite la descompilación de aquellas partes
del programa que sean indispensables para obtener la información necesaria para permitir la intero-
perabilidad de dicho programa con otro creado de forma independiente.

7.3. CONVENIO DE BERNA


Para la protección de obras literarias y artísticas, ratificado por España el 2 de julio de 1973.

7.4. ASPECTOS JURÍDICOS RELACIONADOS CON LOS PROGRAMAS DE


ORDENADOR
A continuación se exponen los casos más habituales de reclamaciones judiciales tanto por el
suministrador como por el usuario.

7.4.1. Responsabilidad civil por productos, servicios y defectuosos


El ordenador es equiparable a cualquier otro producto, por tanto le son aplicables las normas
relativas a los demás muebles que son objeto de transmisión en el mercado.
– Hardware: Las principales causas de divergencia según las reclamaciones son:
• Defectos de diseño, fabricación o instalación.
• Solución global inadecuada.
– Software:
• Paquete estándar: Con grado de adaptación mínimo por ir dirigido a una pluralidad de
usuarios. La responsabilidad del fabricante del producto por la idoneidad de sus funciones
acostumbra a estar excluida, por la heterogeneidad de las necesidades del usuario.
• Paquete estándar personalizado: Generalmente son contratos híbridos formados por
una licencia de uso y un arrendamiento de obra consistente en la adaptación del progra-
ma. Las reclamaciones suelen infundarse en la excesiva confianza del suministrador sobre
la flexibilidad del programa o en la indefinición del usuario respecto a sus necesidades.
– Desarrollo de software: Los problemas más habituales en los proyectos informáticos son:
• Inicio de la programación sin haber desarrollado análisis previo.
• Análisis defectuoso.
• Inexperiencia por parte del usuario a la hora de dar a conocer sus necesidades lo que
obliga a continuos replanteamientos.
• Cambios en la estrategia de la empresa que originan cambios en el proyecto.

7.4.2. Responsabilidad civil por infracción de los derechos de autor


– Usuario final: copias no autorizadas de programas.
– Tienda de informática: entrega de copias no autorizadas de programas o ya instaladas en
el disco duro para fomentar la venta de ordenadores.
– Centros de formación: entrega de copias no autorizadas a los alumnos e instalación en las aulas.
– Empleados desleales: comercialización no autorizada de un programa de su empresa.
Toma de contacto con los clientes y la sustituye en los contratos de mantenimiento.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 417


EL PERSONAL DE INFORMÁTICA Y SUS FUNCIONES GENERALES

7.4.3. Modificaciones legislativas


Proyecto de modificación del Código Civil: Se introduce una novedad importante aplicable al
desarrollo de software, la penalización de una de las partes por su falta de previsión.
Contrato de servicios: Una de las partes se obliga, a cambio de una retribución, a realizar una
actividad considerada en sí misma y no por su resultado.
Contrato de obra: El contratista se obliga a ejecutar determinada obra a cambio de la prestación
convenida, entendiéndose por obra la construcción, reparación o transformación de una cosa, así
como la obtención de cualquier otro resultado convenido por las partes. La obra debe ser realizada
en el plazo convenido.
Propuesta de directiva sobre prestación de servicios: El concepto de servicio queda definido
como cualquier transacción realizada con finalidad comercial o mediante un servicio público y de forma
independiente, onerosa o gratuita, que no tenga como objeto directo y exclusivo la fabricación de bienes
inmuebles o de transferencia de derechos reales o de propiedad intelectual.

7.4.4. Contrato de Escrow


Tiene como finalidad garantizar al usuario el acceso al código fuente de un programa cedido en
caso de desaparición de la empresa titular de los derechos de propiedad intelectual. Por el régimen
de depósito se hace entrega del programa fuente a un fedatario público o asociación profesional, que
asume la custodia.

8. LICENCIAS DE USO
El concepto de licencia o cesión de uso permite a un fabricante ceder el uso del equipo lógico
de base, por ejemplo, un sistema de gestión de bases de datos. El comprador no es propietario
del equipo lógico y por tanto no puede modificarlo ni mantenerlo. El concepto de alquiler de una
licencia se utiliza cuando el uso de ese equipo lógico va a realizarse durante un período de tiempo
limitado. Se habla de licenciar software cuando el equipo lógico es de dominio público.

9. MANTENIMIENTO Y ACTUALIZACIÓN DE PAQUETES DE ORDENADOR


Cuando se utiliza software licenciado aparece el concepto de actualización, que puede tener las
siguientes variantes:
– Paso de una nueva versión a la siguiente.
– Cambio de plataforma física en la que funciona el equipo a una superior.
– Aumento del número de usuarios.
Puede considerarse un tipo de mantenimiento adaptativo realizado como consecuencia de los
cambios en el entorno de operación del sistema, tales como la introducción de nuevas plataformas
físicas, cambios de sistema operativo, nuevas versiones del equipo lógico de base, etc.
Para la organización es muy importante que la nueva versión incorpore sus necesidades o elimine
los fallos encontrados en versiones previas. Esto requiere medidas activas por parte de la organización,
participando en comités de usuarios y exigiendo al fabricante la pronta reparación de errores. Conside-
radas de esta forma, estas actividades contribuyen al buen mantenimiento de los activos lógicos de la
organización. Se puede dar por hecho que los fabricantes escuchan a los usuarios, por lo que la asocia-
ción y planteamiento de objetivos comunes redunda en una mejor calidad de futuras versiones.
En general, debe producirse una reducción apreciable entre el precio de la versión para actualizar
y el precio de la versión para un nuevo cliente, como si se efectuase una recompra de la licencia
antigua. En muchos contratos de la Administración se establece que la actualización de versiones
durante el período de prestación del servicio será cuenta de la empresa licitante.

418 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


TEMA
10
Explotación. Distribución y gestión
de recursos compartidos. Gestión de colas,
control de spool. Control de acceso de
usuarios. Control de trabajos. Manuales de
explotación de aplicaciones informáticas.
Funciones, contenido
La existencia de dispositivos de comunicaciones dispersos sobre los que se
implementan e interconectan todas estas redes y los enlaces de comunicaciones
para el acceso a servicios avanzados de telecomunicaciones obligan a disponer de
sistemas de gestión para la configuración, supervisión, diagnóstico y mantenimien-
to de todos estos dispositivos y recursos.
El control de la ejecución de trabajos es una tarea muy importante en el ám-
bito de la explotación de grandes ordenadores. Este problema se aborda desde
dos vertientes: por un lado, los aspectos internos de control por parte del sistema
operativo (incluyendo también las funciones del subsistema de entrada); por otro,
los aspectos externos de control que llevan a cabo los operadores de consola y los
planificadores de trabajos.
La documentación es tan importante que muchas instalaciones rehúsan utili-
zar cualquier programa que no esté documentado de forma adecuada. También la
documentación se usa en todas las fases del ciclo de vida y es un factor importante
para medir el avance y para el control de calidad.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 419


EXPLOTACIÓN. DISTRIBUCIÓN Y GESTIÓN DE RECURSOS COMPARTIDOS

ESQUEMA INICIAL

1. Explotación. Distribución y gestión de recursos compartidos


1.1. Gestión de recursos
1.1.1. Evolución histórica
1.2. Gestión de redes
1.2.1. Introducción
1.2.2. Conceptos y funcionalidades básicos
1.2.3. Protocolos de gestión
1.2.3.1. CMIP (Common Management Information Protocol)
1.2.3.2. SNMP (Simple Network Management Protocol)
1.2.3.3. Comparación SNMP/CMIP
1.2.4. Funcionalidades básicas de gestión
1.2.4.1. Gestión de redes pequeñas
1.2.4.2. Gestión de redes medianas y grandes
1.2.5. Tendencias tecnológicas
1.3. Aspectos técnicos de los sistemas de gestión
1.4. Gestión de la planificación

2. Gestión de colas, control de spool


2.1. Introducción
2.2. Distribución automática
2.3. Proceso de Revisión
2.4. Reducciones de costes

3. Control de acceso de usuarios

4. Control de trabajos
4.1. Introducción
4.2. Control interno de trabajos
4.2.1. Principios de funcionamiento
4.2.2. Interbloqueo (deadlock)
4.2.3. Sincronización de procesos
4.2.4. Gestión del procesador
4.2.5. Subsistema de entrada de trabajos
4.3. Control externo de trabajos
4.3.1. Control de entrada de trabajos
4.3.2. Asignación de clases
4.3.3. Prioridades de selección y de ejecución
4.3.4. Comunicación con el operador
4.3.5. Ejecución condicional
4.3.6. Rearranque de trabajos

420 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


EXPLOTACIÓN. DISTRIBUCIÓN Y GESTIÓN DE RECURSOS COMPARTIDOS

5. Manuales de explotación de aplicaciones informáticas. Funciones, contenido


5.1. Introducción
5.2. Objetivos
5.2.1. Objetivos internos
5.2.2. Objetivos externos
5.3. Estructura de la documentación
5.3.1. Documentación del sistema
5.3.2. Especificaciones del programa
5.3.3. Manual de ejecución
5.3.4. Instrucciones para el operador
5.3.5. Instrucciones para el usuario
5.4. ¿Quién documenta?
5.5. Mantenimiento

1. EXPLOTACIÓN. DISTRIBUCIÓN Y GESTIÓN DE RECURSOS


COMPARTIDOS

1.1. GESTIÓN DE RECURSOS

1.1.1. Evolución histórica


El progreso tecnológico de los últimos años ha conducido al desarrollo de las redes de comunica-
ción de datos en las organizaciones, sobre las cuales se asientan muchos de sus sistemas de gestión.
La evolución de estos sistemas de gestión va pareja a la evolución de las redes.
El abaratamiento de los costes del diseño y desarrollo de las redes, y el aumento de las capa-
cidades de proceso, han conducido a que muchas organizaciones se hayan planteado la viabilidad
de migrar sus actuales sistemas de información de arquitecturas centralizadas a arquitecturas dis-
tribuidas.
En este sentido las redes surgieron como el medio de interconectar diferentes equipos que, ins-
talados remotamente unos de otros, ofrecían capacidades de acceso a servicios de otras redes, tales
como capacidades adicionales de proceso, accesos a bases de datos internacionales...
Si bien en un principio gestión de red significaba gestión más o menos individualizada de los
elementos de ésta, actualmente se tiende a tener una gestión unificada. Por el camino se ha pasado
por la coexistencia de sistemas de gestión y por la integración de los mismos.

1.2. GESTIÓN DE REDES

1.2.1. Introducción
La ISO define la gestión de red como: el conjunto de elementos de control y supervisión de los
recursos que permiten que la comunicación tenga lugar sobre la red.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 421


EXPLOTACIÓN. DISTRIBUCIÓN Y GESTIÓN DE RECURSOS COMPARTIDOS

La gestión de redes comprende las herramientas necesarias para realizar las siguientes fun-
ciones:
– Supervisión de la red. Se suele realizar de dos formas: mediante una estación de gestión
ordenador personal o estación de trabajo, que reciba mensajes de los dispositivos de la red
(puentes o bridges, encaminadores o routers, servidores de terminales, etc.) o mediante una
estación que pregunte regularmente el estado de los dispositivos.
– Control de los recursos de la red. Se realiza enviando comandos por la red desde la es-
tación de gestión hasta los dispositivos de la red para cambiar su configuración.
Los sistemas de gestión de redes permiten satisfacer requisitos de tipo técnico y funcionales:
– Requisitos técnicos:
* Administración de entornos heterogéneos desde una misma plataforma.
* Administración de elementos de interconexión.
* Interfaces con grandes sistemas.
* Interfaz gráfica amigable.
* Evolución según las necesidades del cliente.
– Requisitos funcionales:
* Gestión del nivel de servicio que garantiza la disponibilidad, tiempo de respuesta, etc.
* Gestión y segmentación de problemas resolviéndolos en etapas o niveles.
* Gestión de cambios: minimiza el impacto asociado a los procesos de modificación de las
configuraciones existentes.
* Apoyo a la toma de decisiones y facilitando un puente entre el personal técnico y la
dirección, gracias a facilidades como la generación de informes.
* Apoyo en la resolución de incidencias para preservar la experiencia del grupo de gestión,
reduciendo el tiempo de resolución de situaciones que deberían ser familiares.
* Apoyo en la formación para reducir el esfuerzo de aprendizaje y optimizar el grado de uso
requiriendo perfiles de personal poco exigentes.
Los sistemas de gestión deben poder crecer a medida que aumentan las necesidades de los
usuarios, de forma que se puedan proteger las inversiones realizadas. Un entorno integrado de ges-
tión es una combinación de recursos humanos, organizativos y tecnológicos. La gestión de redes es
una estrategia a largo plazo que puede afectar a todo el personal de una organización:
– A los usuarios de la red que necesitan acceder a la información de estado de la misma.
– A los directivos cuyas áreas son afectadas por las prestaciones de la red.
– A los administradores de red que se encargan de la operativa diaria.
Además de la gestión operativa (atender usuarios, resolver fallos en el menor tiempo posible,
monitorizar, etc.) existen otros aspectos involucrados que permiten definir el análisis y la
optimización de la red:
– Descripción funcional de tareas que serán objeto de la gestión.
– Adecuación organizativa en las entidades, organismos, centros o empresas.
– Especificación de procedimientos que faciliten la tramitación de sucesos de interés.
– Adquisición de medios técnicos.
– Adaptación de los medios humanos disponibles.

422 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


EXPLOTACIÓN. DISTRIBUCIÓN Y GESTIÓN DE RECURSOS COMPARTIDOS

1.2.2. Conceptos y funcionalidades básicos


Los componentes de un sistema de gestión de red se representa en la siguiente figura:

  
    
 


 






 




 
  

Diagrama de bloques representando un sistema de gestión de redes

– Objeto gestionable: representa cualquier dispositivo físico o lógico de la red.


– Agente: es el equipamiento lógico de gestión que reside en el objeto gestionable.
– Protocolo: utilizado por el agente para pasar información entre el objeto gestionable y la
estación de gestión.
– Objeto ajeno: se define como un objeto gestionable que utiliza un protocolo ajeno, es decir,
un protocolo distinto al de la estación de gestión.
– Agente conversor: actúa de conversor entre el protocolo ajeno y el protocolo utilizado por
la estación de gestión.
– Estación de gestión: está formada por varios módulos o programas corriendo en un orde-
nador. Se muestran en el siguiente gráfico:

   
 




 


     

     


Esquema de bloques de la estación de gestión

– Interfaz de usuario: es la interfaz entre el usuario y el sistema (en modo carácter o gráfico).
– Base de datos: mantiene cualquier información de la red (descripciones de parámetros,
configuración...), almacenando el histórico de eventos y permitiendo la realización de segui-
mientos.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 423


EXPLOTACIÓN. DISTRIBUCIÓN Y GESTIÓN DE RECURSOS COMPARTIDOS

– Programa monitor: supervisa las condiciones actuales y permite la inspección futura. Visualiza
las alarmas activadas por los agentes, y realiza actualizaciones mediante sondeos regulares.
– Arranque y configuración: comprueba que cada estación pueda ser atendida enviándole
los parámetros actuales de configuración y el equipamiento lógico de arranque.
– Protocolo de gestión: controla las operaciones de gestión entre el gestor y el agente.
La estación de gestión puede acceder a los objetos gestionables de las siguientes formas:
– En banda (In-band): la gestión del objeto se realiza utilizando la red.
– Fuera de banda (Out-of-band): el sistema de gestión accede a los objetos gestionables
a través de otros canales. Esto se puede realizar mediante un terminal conectado directa-
mente a un puerto del objeto gestionable o que el objeto gestionable tenga algún tipo de
visualizador o panel de control.
– Remotamente: la gestión se realiza desde otra estación que no es la estación principal de
gestión. Existen varias posibilidades:
* Mediante una estación adicional operadora que permite los operadores gestionar el
sistema.
* Con una estación remota conectada a otro segmento que da servicio a estaciones locales.
* Empleando un terminal remoto conectado mediante un módem.
* Un dispositivo de gestión dedicado que puede llamar al operador a través de un servicio
de “buscapersonas” o correo electrónico.
* El sistema de gestión puede ser un elemento dentro de un gran sistema supervisado por
un gestor de sistemas.

1.2.3. Protocolos de gestión


En este apartado se tratarán los protocolos estándar que definen el mecanismo de transferencia de
información y órdenes de control entre la estación de gestión y los agentes de los distintos dispositivos.

1.2.3.1. CMIP (Common Management Information Protocol)


ISO ha definido una arquitectura de gestión OSI cuya función es permitir supervisar, controlar y
mantener una red de datos. Está dividida en cinco categorías de servicios de gestión denominadas
Áreas Funcionales Específicas de Gestión (Specific Management Functional Areas, SMFA). Estas ca-
tegorías son las siguientes:
1. Gestión de configuración: acciones que se pueden realizar sobre los elementos de la red:
– Iniciación y desactivación.
– Definición o cambio de parámetros de configuración.
– Recogida de información de estado.
– Denominación de los elementos de la red.
2. Gestión de fallos: detección, diagnóstico y corrección de los fallos de la red. Incluye:
– Notificación de fallos.
– Sondeo periódico en busca de mensajes de error.
– Establecimiento de alarmas.
3. Gestión de prestaciones: evalúa el comportamiento de los elementos de la red. Incluye
recogida de datos estadísticos, tiempos de respuesta, carga...
4. Gestión de contabilidad: determina de los costes asociados a la utilización de los recursos
y la asignación de sus correspondientes cargas.
5. Gestión de seguridad: gestión de la autentificación, control de acceso y cifrado de los
datos.

424 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


EXPLOTACIÓN. DISTRIBUCIÓN Y GESTIÓN DE RECURSOS COMPARTIDOS

La arquitectura de gestión OSI define objeto gestionable como la interfaz conceptual que han de pre-
sentar los dispositivos que ofrecen funciones de gestión. El proceso de supervisión y control de un objeto
gestionable se realiza mediante una serie de interacciones. Estas interacciones son de dos tipos:
– De operación: el gestor solicita algún dato al objeto gestionable o realiza alguna acción
sobre él.
– De notificación: cuando el objeto gestionable intenta enviar algún dato al gestor como
consecuencia de algún evento ocurrido en el dispositivo.
En la siguiente figura se presenta un ejemplo de estas interacciones:

 
   
 
  



 
  


    

  


La comunicación entre el gestor y el objeto gestionable se realiza mediante un intermediario: el


agente de gestión, que controla el flujo de información entre ambos. Este control lo realiza mediante
ciertas reglas de gestión que han de cumplirse para poder realizar la operación (p. ej. que el gestor
tenga la capacidad para solicitar una determinada operación).
El flujo normal de información de gestión y control entre el gestor y el agente se realiza mediante
el protocolo del nivel de aplicación OSI CMIP. Este protocolo controla las operaciones de gestión, los
resultados de éstas y los informes de eventos.
El protocolo permite que un sistema se pueda configurar para que tenga procesos de gestión,
de forma que en un momento dado pueda operar como gestor o como agente. La mayoría de las
realizaciones prácticas se configuran con unos pocos sistemas operando en modo gestor, controlando
las actividades de un gran número de sistemas operando en modo agente.

 
  

 
  





 
  







AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 425


EXPLOTACIÓN. DISTRIBUCIÓN Y GESTIÓN DE RECURSOS COMPARTIDOS

Otros componentes de la arquitectura de gestión OSI son:


– Estructura de la Información de Gestión (Structure of Management Information, SMI):
define la estructura lógica de la información de gestión OSI. Establece las reglas para nombrar
a los objetos gestionables y a sus atributos. Define un conjunto de subclases y tipos de atribu-
tos que son en principio aplicables a todos los tipos de clases de objetos gestionables.
– Base de Información de Gestión (Management Information Base, MIB): representa
la información que se está utilizando, modificando o transfiriendo en la arquitectura de los
protocolos de gestión OSI. La MIB conoce todos los objetos gestionables y sus atributos. No
es necesario que esté centralizada físicamente en un lugar concreto, puede estar distribuida
a través del sistema y en cada uno de sus niveles.
– CMIS (Common Management Information Services): es un conjunto de reglas que iden-
tifican las funciones de una interfaz OSI entre aplicaciones, utilizado por cada aplicación para
intercambiar información y parámetros. CMIS define la estructura de la información que es
necesaria para describir el entorno. Prácticamente todas las actividades de la gestión de red
OSI están basadas en diez primitivas de servicio CMIS que son utilizadas por las SMFAs.

1.2.3.2. SNMP (Simple Network Management Protocol)


En 1988, el IAB (Internet Activities Board) determinó la estrategia de gestión para TCP/IP. Esto
significó el nacimiento de dos esfuerzos paralelos: la solución a corto plazo, SNMP, y la solución even-
tual a largo plazo, CMOT (CMIP Over TCP/IP).
SNMP es una extensión del protocolo de gestión de red para gateways SGMP (Simple Gateway
Monitoring Protocol), que se convirtió en 1989 en el estándar recomendado por Internet. Proporciona
una gestión de red centralizada que permita la observación, el control y la gestión de las instalacio-
nes. Utilizando SNMP, se pueden direccionar preguntas y comandos a las estaciones de la red.
Algunas de las funciones que proporciona SNMP son:
– Supervisión del rendimiento de la red y su estado.
– Control de los parámetros de operación.
– Obtención de informes de fallos.
– Análisis de fallos.
SNMP trabaja sobre tres conceptos básicos:
– Agente: equipamiento lógico alojado en una estación gestionable de la red. Almacena datos
de gestión y responde a las peticiones de dichos datos.
– Gestor: equipamiento lógico alojado en la estación de gestión de red. Tiene la capacidad de
preguntar a los agentes utilizando diferentes comandos SNMP.
– MIB (Management Information Base): base de datos virtual de los objetos gestionables,
accesible por un agente, que puede ser manipulada vía SNMP para realizar la gestión de red.
El protocolo SNMP realiza las funciones descritas anteriormente llevando información de gestión
entre los gestores y los agentes.
El protocolo SNMP es sólo un aspecto dentro de toda la estructura de gestión, la cual está com-
puesta de los siguientes elementos:
– Estación de Gestión de Red (Network Management Station, NMS): es el elemento
central que proporciona al administrador una visión del estado de la red y unas funciones de
modificación de este estado (puede ser una estación de trabajo o un ordenador personal).
– Estructura de la Información de Gestión (SMI, Structure of Management Informa-
tion): es un conjunto de reglas que define las características de los objetos de la red y cómo
obtienen los protocolos de gestión información de ellos. Aunque ha sido diseñado después
del SMI de OSI, no es compatible con éste.
– Base de Información de Gestión (MIB): es una colección de objetos, que representan de
forma abstracta los dispositivos de la red y sus componentes internos. La MIB es conforme
a la SMI para TCP/IP. Cada agente SNMP contiene instrumentación que, como mínimo, debe
ser capaz de reunir objetos MIB estándar. Estos objetos incluyen direcciones de red, tipos de
interfaz, contadores, etc.

426 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


EXPLOTACIÓN. DISTRIBUCIÓN Y GESTIÓN DE RECURSOS COMPARTIDOS

     

 
 
  
 



 



  



 


Ejemplo de sistema de gestión SNMP. Las líneas punteadas son peticiones SNMP

El estándar MIB de Internet define 126 objetos relacionados con los protocolos TCP/IP. Los fabri-
cantes que deseen pueden desarrollar extensiones del estándar MIB. Estas MIBs privadas incorporan
un amplio rango de objetos gestionables, y algunas veces contienen objetos que son funcionalmente
similares a los MIBs ya definidos, en otros casos el cambio de una variable en un objeto inicia una
batería de funciones en el dispositivo gestionado (p. ej. un autodiagnóstico).
La carga de la gestión de todas las MIBs y de las extensiones privadas recae en el sistema de
gestión. Las MIBs están escritas en una variante simple del lenguaje de definición OSI ASN.1. En
1990 se introdujo una nueva versión de MIB, MIB II, donde la mayor aportación es la utilización de
185 nuevos objetos de extensiones privadas.
Aparte de la MIB, existe la Base de Datos de Estadísticas de Red (Network Statistics Database,
NSD) que está en la estación de trabajo de gestión. En esta base de datos se recoge información de
los agentes para realizar funciones de correlación y planificación.
Las limitaciones de SNMP se deben a no haber sido diseñado para realizar funciones de gestión
de alto nivel. Sus capacidades lo restringen a la supervisión de redes y a la detección de errores.
Como todos los elementos TCP/IP, ha sido creado pensando más en su funcionalidad, dejando a un
lado la seguridad.
Para tratar de paliar estos defectos se ha desarrollado el protocolo SNMP v.2 cuya funcionalidad
se acerca algo más al protocolo CMI: introduce un vocabulario más extenso, permite comandos de
agente a agente y técnicas de recuperación de mensajes.
Por último, destacar la especificación RMON (Romote MONitor, monitorización remota) donde
los comités de normalización han definido las funciones de supervisión de redes y las interfaces de
comunicaciones entre estaciones de gestión SNMP y monitores remotos para registrar y presentar
información acerca del tráfico de la red.

1.2.3.3. Comparación SNMP/CMIP


– SNMP está basado en técnicas de sondeo, mientras que CMIP utiliza una técnica basada en
eventos. Esto permite a CMIP ser más eficiente que SNMP en el control de grandes redes.
– CMIP es un protocolo orientado a conexión mientras que SNMP está no orientado a co-
nexión. Esto significa que la carga de proceso de SNMP es reducida, pero cuando se envía
un mensaje nunca se puede asegurar que el mensaje llega a su destino. La seguridad de los
datos no es prioritaria para SNMP.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 427


EXPLOTACIÓN. DISTRIBUCIÓN Y GESTIÓN DE RECURSOS COMPARTIDOS

– CMIP permite la implementación de comandos condicionales sofisticados, mientras que


SNMP necesita el nombre de cada objeto.
– CMIP permite, mediante una única petición, la recogida de gran cantidad de datos de los
objetos gestionables, enviando información de retorno en múltiples respuestas. Esto no está
permitido en SNMP. CMIP está especialmente preparado para gestionar grandes redes distri-
buidas, mientras que SNMP está recomendado para la gestión inter-red.
– CMIP realiza una distinción clara entre los objetos y sus atributos. SNMP no permite esto, lo
cual hace imposible la reutilización de atributos y definiciones.

1.2.4. Funcionalidades básicas de gestión


Las funciones básicas de sistema de gestión son (dependiendo del tipo de red).

1.2.4.1. Gestión de redes pequeñas


En redes con pocos usuarios, con un número de dispositivos de red bajo, es suficiente con un
sistema de gestión que ofrezca las funciones básicas de supervisión:
– Supervisión y presentación en tiempo real de los componentes individuales de la red.
– Presentación de la información de la configuración.
– Representación gráfica de los nodos instalados en la red.
– Indicación del estado de los componentes individuales (cuáles están activos y cuáles inactivos).
– En caso de avería, indicación del tipo de ésta.
– Notificación automática de errores. Posibilidad de acceso automático a los elementos de la
red desde la consola de gestión de red.
– Filtrado de alarmas.
– Supervisión y determinación de los valores de rendimiento para la totalidad de la red, así
como en los diversos componentes de la red.
– Modificación de la configuración de la red y establecimiento de los derechos de accesos a
los diversos sistemas.
– Aislamiento de errores de equipo físico respecto a los errores de equipo lógico.
Es importante que los sistemas de gestión sean fáciles de instalar y operar, y con interfaz gráfica
(menús, iconos, campos de texto, ayudas, etc.). Es conveniente que se presenten los resultados de
forma comprensible y que los procedimientos de consulta sean sencillos.

1.2.4.2. Gestión de redes medianas y grandes


En redes de mayor complejidad son necesarias funciones de gestión más avanzadas, al estar
formadas por diferentes tipos de redes, con distintos protocolos y con elementos de diversos fabri-
cantes. A las funciones descritas anteriormente hay que añadir las siguientes:
– Capacidad de supervisar el rendimiento y generar estadísticas dando una valoración de los
resultados.
– Evitar averías, pérdidas de rendimiento y problemas de configuración mediante medidas
preventivas.
– Recuperación automática ante fallos.
– Realizar acciones adicionales para la seguridad de la red y de los datos.
– Capacidad para representar gráficamente en tiempo real parte o la totalidad de la red.
– Capacidad para supervisar los tipos de red que puedan existir (Ethernet, TokenRing, FDDI, etc.).
– Posibilidad de intercomunicación local y remota con cualquier elemento de la red.
– Proporcionar interfaces con otros entornos.

428 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


EXPLOTACIÓN. DISTRIBUCIÓN Y GESTIÓN DE RECURSOS COMPARTIDOS

– Recogida y análisis de datos de gestión.


– Formulación de recomendaciones de usuario.
– Detección de la violación de medidas de seguridad y controles de acceso.

1.2.5. Tendencias tecnológicas


La tendencia actual es realizar los sistemas de gestión de red basados en inteligencia artificial (IA),
de forma que se descargue de trabajo al administrador de la red. Existen dos técnicas básicas de IA:
– Sistemas Expertos: simulan el proceso humano de toma de decisiones, aplicando un serie
de reglas para escoger la mejor respuesta a un conjunto de circunstancias o eventos. La
base de conocimiento y las reglas que utiliza un sistema experto están suministrados por se-
res humanos, y deben adaptarse a cada red concreta antes de poder usarse con confianza.
Estos sistemas no son, por el momento, capaces de aprender por sí mismos cómo gobernar
una red, pero han mejorado mucho las capacidades de los gestores de la red y la conviven-
cialidad de los sistemas gestores.
– Modelado Inductivo: cada parte del sistema se modela por separado, representándola median-
te estructuras de datos y código que representa la función del elemento. Cada elemento inte-
racciona con los demás intercambiando señales y datos. Para realizar este modelado se utiliza
la tecnología de orientación a objetos. La característica de herencia de la orientación a objetos
permite la creación de nuevos objetos basados en los ya existentes. A los datos se les asocian
deducciones que se activan cuando se produce un cambio en sus valores. Los eventos activan
deducciones que reaccionan con los modelos de los elementos la red, originando otras deduc-
ciones sobre el nuevo estado de la red. La estación de gestión no tiene conocimiento de todos
los eventos posibles, sólo responde por deducción a cada nuevo conjunto de condiciones.

1.3. ASPECTOS TÉCNICOS DE LOS SISTEMAS DE GESTIÓN


En la fase de análisis de necesidades hay que tener en cuenta los siguientes puntos:
– Elementos gestionables: un técnico debe analizar los tipos de elementos que deben ser
gestionados:
* Cables físicos.
* Dispositivos o recursos de red.
* Topologías de red.
* Sistemas operativos de red.
– Equipos de comunicaciones gestionados e interoperatividad de protocolos: nece-
sidades relativas a qué protocolos deben ser soportados, de modo que el sistema que se
adquiera ofrezca los máximos niveles en cuanto a flexibilidad, adaptabilidad y capacidad de
expansión. Se deben realizar estimaciones de crecimiento de la red y tenerlas en cuenta du-
rante esta fase. Si en el entorno de gestión existen protocolos propietarios, el nuevo sistema
de gestión debe tener, asimismo, facilidades para la gestión de estos últimos.
– Facilidades de detección y recuperación ante fallos: ante fallos en la red, el usuario
debe analizar cuáles son sus necesidades relativas a:
* Capacidad para aislar los segmentos de red.
* Facilidades de mantenimiento y recuperación ante errores.
– Interfaz gráfica de usuario: si las redes que van a ser gestionadas se encuentran geográfi-
camente dispersas, resulta muy interesante que el sistema de gestión que se vaya a adquirir
disponga de una interfaz gráfica de usuario con facilidades para el dibujo de mapas, planos
de edificios (sobre los que se podrán situar los equipos de comunicaciones), facilidades de
zoom (con las que se puedan observar diferentes niveles de detalle de la red) y capacidades
para añadir y configurar nuevos iconos (especialmente cuando se trate de un sistema de
gestión de diseño a medida).

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 429


EXPLOTACIÓN. DISTRIBUCIÓN Y GESTIÓN DE RECURSOS COMPARTIDOS

– Facilidades de gestión remota: en ocasiones puede ser de gran utilidad disponer de un


sistema de gestión que permita configurar la red remotamente y que la información disponi-
ble sobre la red sea consistente, independientemente de la ubicación física desde la que se
accede a la misma.
– Características del equipo físico que soporte el sistema de gestión: se requerirá de
una plataforma física sobre la que éste pueda ejecutarse, con requisitos de compatibilidad
respecto al equipo físico (memoria, disco, resolución gráfica, etc.) y lógico (sistema operati-
vo, interfaz gráfico, etc.).
– Capacidad para soportar todos los elementos de la red: el sistema de gestión debe
permitir la integración de diferentes componentes y sistemas de interconexión. Cuando se
dispone de diferentes redes, protocolos y dispositivos de red de diferentes fabricantes, se
hace necesario que el sistema de gestión permita la gestión y supervisión de los diferentes
elementos de la red.
– Diseño a medida: es muy importante que el sistema de gestión tenga capacidades de in-
corporación dinámica de nuevos elementos (nodos, enlaces, dispositivos, etc.) a la medida
de las necesidades del usuario, de forma que se puedan definir, o programar, las caracterís-
ticas de cada elemento. El usuario debe poder adaptar la representación gráfica en caso de
producirse cambios en la red, permitiéndosele realizar altas, bajas y modificaciones de cada
uno de los elementos que forman parte de la red.
– Características de los elementos a gestionar:
* Cables físicos.
* Dispositivos de red.
* Topologías de red (servidores, estaciones, puestos de trabajo, periféricos, etc.).
* Protocolos existentes en la red.
* Requisitos de seguridad.
– Características de las aplicaciones existentes: X.400, FTAM, EDI, etc.

1.4. GESTIÓN DE LA PLANIFICACIÓN


Los objetivos a conseguir con la inclusión en el área de producción de un producto para la Plani-
ficación de la ejecución de los trabajos Batch de cada una de las aplicaciones del sistema son:
– Organizar la explotación de procesos y facilitar su seguimiento.
– Centralización obligada de las cadenas de producción a ejecutar, distribuidas por turnos,
para realizar la carga de cadenas de cada turno, en los ficheros de Checkpoint del propio
planificador.
– Incluir de forma automática en el sistema la planificación horaria de ejecución periodificada
de trabajos, de acuerdo a distintos turnos de explotación.
– Implantar grupos de procesos encadenados, tanto si se ejecuta correctamente su predece-
sor como si acaba anormalmente.
– Facilitar el seguimiento de resultados, al disponer de un listado completo de todos los traba-
jos ejecutados en cada turno, y facilitando la búsqueda de aquellos que cumplan determina-
das condiciones:
* Por nombres de trabajos (JOB).
* Por intervalos de ejecución.
* Por códigos de condición de ejecución.
– Permitir el reenganche de trabajos desde el paso en el cual falló, de forma fácil tras corregir
el personal de producción la circunstancia que originó el problema.
– Incorporación de herramientas de chequeo de errores de codificación de las sentencias de
control de trabajos con anterioridad a su incorporación a la planificación.

430 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


EXPLOTACIÓN. DISTRIBUCIÓN Y GESTIÓN DE RECURSOS COMPARTIDOS

– Facilitar la resolución de variables dinámicas incluidas en las cadenas como datos o paráme-
tros para el proceso, tales como fechas, intervalos de fechas, etc.
– Arranque condicionado de trabajos a la resolución de determinados eventos:
– Como evento se puede indicar el cumplimiento de una condición: que esté parado el gestor tran-
saccional CICS de Producción y que esté abierto el gestor de base de datos de Producción, que
estén libres 5 armarios de cartuchos, y exista espacio libre en los discos dedicados para SORT.
– Crear tablas de exclusión de procesos, de forma tal que si se está ejecutando un determi-
nada lista de trabajos no se pueda realizar uno que está listo para llevarse a cabo por estar
dentro de su intervalo horario de ejecución, hasta que hayan finalizado cualquiera de los que
estén en su lista de exclusión.
– Planificar la ejecución de comandos del sistema para que se ejecuten a una hora o a deter-
minados intervalos de tiempo.
Los gestores de planificación de procesos batch requieren que ciertos procesos sean seguidos,
tales como:
– Documentación de los procesos:
* Informar sobre los mecanismos de reenganche de las cadenas.
* Indicar la secuencia de sucesores y predecesores de trabajos.
* Especificar qué recursos son necesarios para la ejecución correcta.
* Indicar margen de intervalos horarios admisibles de ejecución de cada cadena.
– Operaciones estandarizadas. Los operadores deben conocer cómo se ejecutan las aplica-
ciones y sistemas y qué eventos indican sus fallos y cómo localizarlos.
Acceso a la visualización de ejecuciones registradas en el propio planificador. También deben
asegurarse de que el software automatizado está trabajando correctamente, comprobando
que se ejecuta la planificación cargada en el sistema.
– Aceptación de pruebas. Explotación debe aceptar sólo sistemas probados.
– Revisiones de requerimientos de ejecución. Los operadores ahora deben asegurarse de
que los servicios disponen de los requisitos de operatividad. Con la automatización de la plani-
ficación se analizan internamente antes del arranque de los procesos y con mayor precisión.
– Cambio coordinado de versiones de cadenas y programas. Esto es necesario por el
incremento del número de cambios que pueden ser implementados diariamente.

2. GESTIÓN DE COLAS, CONTROL DE SPOOL

2.1. INTRODUCCIÓN
El sistema de entrada y salida de trabajos (JES) controla todos los que se ejecutan bajo el siste-
ma operativo. El JES opera en un espacio de direcciones distinto como un subsistema del mismo.
El JES también proporciona un conjunto de servicios para el usuario. El arranque y la impresión
del trabajos son procesos importantes. Las funciones de iniciador interno son esenciales, ya que
permite desde un trabajo lanzar la ejecución de otros.
Los servidores de entrada de trabajos (iniciadores del sistema) se pueden abrir y cerrar dinámi-
camente por operación de acuerdo al número máximo predefinido al arrancar el subsistema, lo que
permite distribuir la carga de trabajos según el consumo de CPU.
El JES es un sistema de acceso múltiple compartido a las colas de entrada y salida de trabajos
para un conjunto de sistemas interconectados localmente. Dicho de otra forma, todas las copias del
JES en cualquier complejo de Sistemas con acceso compartido al fichero de Spool tienen el acceso
completo al archivo de checkpoint del JES, y a la información almacenada en los volúmenes de las
colas de entrada y salida. Existen unos tiempos de servicio dedicado a cada subsistema durante
intervalos de un ciclo para garantizar su integridad de datos.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 431


EXPLOTACIÓN. DISTRIBUCIÓN Y GESTIÓN DE RECURSOS COMPARTIDOS

El subsistema de entrada y salida de trabajos (JES) proporciona lo siguiente:


– Funciones de proceso de entrada, que lee los trabajos arrancados, almacena su JCL y
datos asociados y prepara los datos en el volumen de las colas o spool.
– Proceso de conversión, donde el sistema operativo crea los bloques de control necesarios
para ejecutar un trabajo batch o por lotes, también cuando se lanza desde el entorno de
ejecución interactiva o foreground (TSO), o al arrancarse tareas desde consola de operación.
Además ejecuta el chequeo del lenguaje de control de trabajos (JCL).
– Proceso de ejecución, que proporciona los servicios de gestión de la ejecución de los tra-
bajos batch.
– Proceso de ejecución de la salida de los trabajos para el conjunto de datos enviados a los
destinos de SYSOUT de las colas, especificados en las cadenas.
– Proceso de impresión/perforación, que gestiona, de forma asíncrona con el proceso, la
impresión de los archivos enviados a las impresoras.
– Proceso de depuración, que vacía las colas de JES una vez finalizada la impresión de las
salidas.
El proceso de las salidas almacenadas en el Spool debe ser revisado por los programadores,
operadores, programadores de sistemas, y por cualquier usuario que lo necesite. Ni el MVS ni el JES
suministran una representación del sistema de colas. Hay un buen número de paquetes que gestio-
nan dicha información.

2.2. DISTRIBUCIÓN AUTOMÁTICA


En un centro típico hay un número significativo de aplicaciones en batch que producen informes.
Estos informes son tradicionalmente verificados por personal de producción. La redistribución manual
de informes es antieconómico, y se pueden producir errores y esto causa un retraso en la distribución
de los informes.
Con la automatización de esta actividad se llega a un coste efectivo, incremento de la precisión y
calidad de impresión y mejora la velocidad de llegada de los informes a los usuarios finales. Este tipo
de control de la salida puede llevar varias fases según el modelo de impresión que se implante.
Actualmente se dispone de lenguajes específicos para la generación de formularios, que se en-
tremezclan con los ficheros de datos a imprimir de acuerdo con un protocolo o formato preestablecido
para cada formulario. Algún ejemplo de estos lenguajes son (ELISIR/XGF de XEROX, y las funciones
avanzadas de impresión de IBM AFP).
Para facilitar la codificación de formularios lo normal es formar un grupo de programación de
los mismos que dominen los lenguajes seleccionados. Para grandes tiradas masivas se dispone de
impresoras láser de alta calidad y velocidad de impresión, bien en el propio centro o en un centro
especializado de impresión y distribución, en el cual se cortan y se incluyen en sobres las hojas de
comunicación a los clientes de la empresa de una forma automatizada mediante equipos especiali-
zados, y que se distribuye mediante acuerdo con empresas de correos.
De cara a la distribución remota de información a impresoras situadas en distintos centros de la
organización, se deben seleccionar los posibles destinos indicados en el propio JCL o en la cabecera
de los ficheros de datos; según una identificación lógica de las impresoras remotas.
Hay que tener en cuenta que es necesario realizar no solamente la distribución de los datos de
impresión, sino que también es necesario distribuir los recursos (formularios) para que estén carga-
dos en la memoria de la impresora por donde se va a efectuar la impresión final, y que además debe
corresponder con la última versión de dicho formulario.
Para efectuar esta distribución y gestión de listados, existen en el mercado productos que ayudan
a la gestión y distribución de listados y recursos, tales como LAN-RES, CA-VIEW, CA-EXPRESS, etc.,
algunos de los cuales permiten al usuario final, antes de decidir la impresión definitiva, la visualización
de los listados por él solicitados y pedir su archivo temporal local en disco en vez de enviar a papel la
impresión, o la generación de varias copias.

432 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


EXPLOTACIÓN. DISTRIBUCIÓN Y GESTIÓN DE RECURSOS COMPARTIDOS

2.3. PROCESO DE REVISIÓN


La revisión de informes se realiza por personal de explotación. El ajuste se realiza después de
que el informe se haya producido y antes de que llegue al usuario final. Dicha revisión se realiza para
verificar la precisión del informe. Se examinan ciertas partes del informe y las figuras dadas que han
de controlarse junto a los valores esperados.
Esto puede implicar que los valores de dos o más informes que han sido controlados y sus figuras
sean iguales, entonces se dice que el informe “está en balanceo”. Cuando no son iguales se dice que
están “fuera de balanceo”.
En muchos lugares la corrección de informes es una tarea costosa en tiempo. Al mismo tiempo
que el informe se está produciendo los operadores pueden ir realizando alguna otra cosa como, por
ejemplo, los siguientes procesos:
– Examinar los totales actuales.
– Examinar los totales previos o sumarlos a los totales. Estos totales previos deben ser del
mismo juego de trabajos.
– Realizar algunos cálculos, tales como la sustracción de un total de otro.
– Realizar comparaciones (reglas de balanceo).
– Seguir instrucciones especiales, tales como especificar qué hacer si el informe no está equi-
librado.
Las aplicaciones deben realizar controles internos de comprobación, como una vía para incluir el
control de calidad en el propio software. Si un defecto en un evento ha sido detectado y el software
no puede arreglarlo se debe indicar qué acción tomar, si se continúa con el proceso o se corta y se
avisa a algún responsable para que lo arregle o si se pasa un mensaje a un sistema automatizado de
gestión de problemas.

2.4. REDUCCIONES DE COSTES


Muchas de las situaciones de errores en la generación de resultados, son el resultado de datos
erróneos que han sido suministrados. Si se identifica rápidamente dicha situación por el programa, el
job o el paso de trabajo deberá terminar y generar un punto de reenganche del mismo para volver a
ejecutarse usando los datos correctos.
Esto reduce el impacto en otros trabajos que son dependientes. Los ahorros en los costes de
producción se producirán en papel, en recursos humanos y tiempo de máquina; porque los jobs de-
pendientes posteriores no se deberán ejecutar.
En cualquier caso, para tiradas voluminosas se debe avisar con las especificaciones de control
de calidad a los operadores para identificar errores no detectados en los programas, y suministrar
modelos de resultados de pruebas equivalentes.

3. CONTROL DE ACCESO DE USUARIOS


Desarrollado en el tema 12.

4. CONTROL DE TRABAJOS

4.1. INTRODUCCIÓN
La palabra “trabajo” en la terminología informática significa unidad de ejecución, es decir, un conjunto
de pasos que se ejecutan secuencialmente, consistiendo cada paso en la ejecución de un programa.
La anterior definición se ajusta con exactitud al concepto de trabajo por lotes (batch), pero en un
ordenador también se procesan trabajos interactivos (normalmente denominados transacciones), que
suponen la ejecución de un programa aislado, situación en la que no hay una secuencia de pasos.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 433


EXPLOTACIÓN. DISTRIBUCIÓN Y GESTIÓN DE RECURSOS COMPARTIDOS

Sin embargo, la principal diferencia entre un trabajo batch y uno interactivo no está en el número
de pasos sino en el tiempo de ejecución y en la relación entre el trabajo y el usuario. El tiempo de
ejecución suele ser relativamente largo para un trabajo batch (puede ser del orden de minutos o de
horas) y relativamente corto para un trabajo interactivo (normalmente menos de un minuto).
Por otra parte, en el caso de trabajos interactivos, el usuario espera delante de un videoterminal a
que termine la ejecución de la transacción y normalmente ejecuta otra transacción según el resultado
de la anterior, a diferencia del trabajo batch, en el que el usuario solamente ordena su ejecución y
puede continuar haciendo otras cosas mientras se ejecuta el trabajo.

4.2. CONTROL INTERNO DE TRABAJOS

4.2.1. Principios de funcionamiento


Cuando un programa comienza a ejecutarse, el sistema operativo crea un proceso o tarea asig-
nando una zona de memoria para el código y los datos del programa. Este bloque de memoria es
la materialización del proceso, ya que define su estado en cada momento. Durante la ejecución del
programa, sus datos (y a veces el propio código) van modificándose. Cuando el programa es inte-
rrumpido, el estado del proceso queda fijo temporalmente. Al término del programa, el proceso es
eliminado.
Aunque puede parecer que existe una relación biunívoca entre programas y procesos, en realidad
la ejecución de un programa puede suponer la existencia de más de un proceso. En primer lugar, el
programa puede ser concurrente, es decir, que tiene varias partes que se ejecutan en paralelo, dando
lugar cada una de estas partes a la creación de un proceso. Y en segundo lugar, aunque el progra-
ma sea secuencial, el sistema operativo puede crear, además del proceso principal, otros procesos
auxiliares cuando el programa ejecute alguna operación de entrada/salida o realice alguna llamada a
algún servicio del sistema. En estos casos, el proceso principal quedará suspendido mientras se rea-
liza la operación de entrada/salida o, en general, se resuelve la petición de algún servicio al sistema
operativo.
El sistema operativo utiliza para la gestión de cada proceso una área de memoria denominada
bloque de control de proceso (Process control block o Task control block). Estas áreas contienen,
entre otros, los siguientes datos: identificador del proceso, estado, dirección de memoria del código
y de los datos del proceso, y copia del contenido de los registros de la CPU cuando se suspende la
ejecución del proceso.
Los posibles estados en los que se puede encontrar un proceso son los siguientes:
– En ejecución: está utilizando la CPU.
– En espera: el proceso está esperando a que ocurra algún evento, por ejemplo, la finalización
de una operación de entrada/salida que ha solicitado.
– Preparado para ejecutar: el proceso está esperando a que el sistema operativo le permita
utilizar la CPU.

4.2.2. Interbloqueo (deadlock)


Un deadlock es una situación en la cual un proceso está esperando indefinidamente por algún
recurso que está asignado a otro proceso, que a su vez está esperando por algún recurso asignado al
primer proceso. Esta situación es generalizable a más de dos procesos.
Por ejemplo, en el caso de tres procesos, se puede dar la siguiente situación de deadlock: el
proceso A tiene asignado el recurso 1 y espera el recurso 2, el proceso B tiene asignado el recurso 2
y espera el recurso 3, y el proceso C tiene asignado el recurso 3 y espera el recurso 1.
Algunos mecanismos teóricos para evitar los deadlocks son los siguientes:
– Prohibir que un proceso espere un recurso si ya tiene algún otro recurso asignado. Esto
implica que cuando se asigna a un proceso un recurso en exclusiva, es necesario asignarle
todos los recursos del sistema que implican exclusividad.

434 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


EXPLOTACIÓN. DISTRIBUCIÓN Y GESTIÓN DE RECURSOS COMPARTIDOS

– Exigir que los recursos se soliciten en un orden determinado. Las situaciones de deadlock
que se han descrito anteriormente no se pueden dar si todos los procesos tienen que solici-
tar los recursos 1, 2 y 3 en un orden preestablecido, por ejemplo: primero el 1, segundo el
2 y tercero el 3.
– Exigir que los procesos declaren previamente el número total de recursos que precisan. De este
modo, hasta que no obtienen todos los recursos que necesitan no comienza su ejecución.
Estos mecanismos son muy restrictivos respecto al uso de los recursos y no se emplean en la
práctica. La forma más simple de evitar los deadlocks es prohibir que un proceso espere indefini-
damente por un recurso. Para realizar esto, se establece un periodo de tiempo máximo de espera
llamado Time-out.
Una vez transcurrido este tiempo, el proceso es cancelado por el sistema operativo, liberando los
recursos que tuviera asignados. Este mecanismo es aceptable en la mayoría de los casos; solamente
si los deadlocks se producen con mucha frecuencia o si existen procesos críticos que no deben ser
cancelados, tendría que emplearse alguna técnica más sofisticada.
Algunos sistemas operativos vigilan cada cierto tiempo si existe algún deadlock, y cuando lo de-
tectan cancelan a alguno de los procesos implicados, aunque no se haya alcanzado el tiempo máximo
de espera. Esta técnica es compatible con la del time-out, de hecho la cancelación por time-out se
puede producir aunque no exista una situación de deadlock, por ejemplo cuando un recurso deja de
estar disponible por algún error físico.

4.2.3. Sincronización de procesos


Cuando dos o más procesos se relacionan entre ellos, es necesario que exista algún mecanismo
de sincronización entre procesos. Estos mecanismos se basan en el traspaso de información a tra-
vés de zonas de memoria que puede utilizar cualquier proceso, pero precisamente por ser zonas de
acceso público es necesario que sólo haya un proceso que modifique la información compartida a la
vez. De lo contrario, los datos utilizados para la sincronización podrían ser inconsistentes. El sistema
operativo proporciona servicios que permiten la sincronización de procesos, evitando que se produz-
can estas situaciones. Algunos de estos servicios son los siguientes:
– Funciones Wait y Signal: un proceso llama a la función Wait cuando quiere esperar a que
ocurra un evento determinado (cuyo identificador debe pasar como parámetro). Su resultado es
que el sistema operativo sitúa al proceso en estado de espera hasta que ocurra dicho evento.
La función Signal es llamada por un proceso cuando quiere señalar la ocurrencia de un
evento. El sistema operativo situará a los procesos que estaban esperando dicho evento en
la cola de procesos preparados para ejecutar.
Para evitar que un proceso espere indefinidamente por un evento que no se va a señalar
nunca o que se ha señalado previamente, existe la posibilidad de definir un time-out o tiem-
po máximo de espera.
– Paso de mensajes (funciones Send y Receive): la función Send permite a un proceso en-
viar información (una bloque de caracteres) a otro proceso. Con la función receive un proceso
recibe la información enviada por otro. Existen distintas formas de realizar estas funciones. Por
ejemplo, la función Send puede esperar la confirmación de la recepción del mensaje o puede
seguir su ejecución sin esperar; la función Receive normalmente implica que el proceso espere
si no hay ningún mensaje y que el mensaje se borre una vez recibido.

4.2.4. Gestión del procesador


La gestión del procesador consiste en la planificación del uso del procesador o procesadores
que tenga el ordenador. El sistema operativo debe administrar la CPU teniendo en cuenta que es un
recurso que van a compartir los usuarios.
Es necesario distinguir entre la planificación a largo plazo (long-term scheduling) de los traba-
jos y la planificación a corto plazo (short-term scheduling) de los procesos. La planificación de los
trabajos consiste en decidir qué trabajos entran para ser atendidos por el sistema operativo en cada

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 435


EXPLOTACIÓN. DISTRIBUCIÓN Y GESTIÓN DE RECURSOS COMPARTIDOS

momento, ya que debe haber un número limitado de trabajos en el sistema para evitar que se degra-
de la productividad (throughput) del mismo. La productividad del sistema se define como el número
de trabajos ejecutados por unidad de tiempo.
No se debe confundir este concepto de planificación de trabajos, que realiza automáticamente
el sistema operativo, con la planificación de trabajos realizada por los operadores o planificadores de
la instalación, que se refiere a la selección del día y la hora en la que se deben ejecutar los trabajos.
Para realizar esta tarea, los operadores o planificadores de la instalación pueden emplear algún plani-
ficador automático, que es un producto software que no forma parte del sistema operativo.
Por otra parte, la planificación de los procesos consiste en seleccionar de la cola de procesos
preparados para ejecutar un proceso para que utilice la CPU. Esta planificación puede ser con inte-
rrupción (preemptive) o sin interrupción (non-preemptive). Si la planificación de procesos es sin
interrupción, los procesos utilizan la CPU hasta que solicitan algún servicio del sistema operativo,
incluyendo la solicitud de una operación de entrada/salida. Esta modalidad tiene el inconveniente de
que algunos procesos pueden monopolizar el procesador.
En el caso de la planificación de procesos con interrupción, a cada proceso se le permite usar
la CPU durante un periodo de tiempo, que se denomina time slice o quantum. Cuando termina el
quantum el proceso que se esté ejecutando es interrumpido y situado en la cola de procesos prepara-
dos para ejecutar, y se selecciona otro proceso al que se le da el control de la CPU, repitiéndose este
ciclo indefinidamente. Esta modalidad incrementa la sobrecarga (overhead) del sistema operativo,
pero da a los procesos un acceso más equitativo del procesador, y así los procesos que usan poco la
CPU no se ven retrasados por los que la utilizan con profusión.

4.2.5. Subsistema de entrada de trabajos


Los sistemas operativos de grandes ordenadores suelen utilizar un subsistema de entrada de
trabajos, que se encarga de las siguientes funciones:
– Planificación a largo plazo de los trabajos.
– Introducción de los trabajos al subsistema de ejecución del sistema operativo.
– Control del proceso de salida (gestión de los resultados imprimibles), que pueden enviarse a
una impresora local o remota, o bien pueden guardarse en cinta o disco.
En general, un trabajo pasa por las siguientes fases: entrada, conversión, proceso, salida, impre-
sión (gestión de los resultados imprimibles) y borrado.
El subsistema de entrada de trabajos lleva a cabo todas las fases, excepto la de proceso. Un nombre
más adecuado para este componente del sistema operativo sería el de gestor de entrada y salida de traba-
jos, sin embargo la expresión subsistema de entrada de trabajos está muy difundida por ser la traducción
de Job Entry Subsystem (JES), que es el gestor de trabajos del sistema operativo MVS de IBM.
Los parámetros de inicialización del subsistema de entrada de trabajos proporcionan al técnico de
sistemas la posibilidad de definir las políticas de la instalación acerca del grado de control que los usua-
rios pueden tener sobre sus trabajos. Por ejemplo, si en una instalación se permite que los usuarios defi-
nan la clase de sus trabajos y su prioridad, seguramente todos elegirán la máxima prioridad y la clase que
les pueda beneficiar más. El resultado sería la inexistencia de una clasificación de prioridades efectiva.
Por esta razón, aunque un usuario puede utilizar algunas opciones del lenguaje de control de trabajos
(JCL) para definir la prioridad y la clase del trabajo, los parámetros de inicialización del subsistema de
entrada de trabajos van a determinar si se admiten o se rechazan las opciones del usuario.
Este mismo tipo de control basado en la validación de las especificaciones de los usuarios y,
en su caso, establecimiento de un valor por defecto, se aplican a muchas definiciones del JCL. Por
ejemplo, el subsistema de entrada de trabajos puede especificar los límites máximos permitidos para
los trabajos de una determinada clase, en cuanto a tiempo de ejecución, cantidad de memoria o
líneas de salida imprimibles.
Las especificaciones del subsistema de entrada de trabajos pueden ser sustituidas por los valores
por defecto del lenguaje de control de trabajos, y éstos, a su vez, pueden ser sustituidos por las op-
ciones concretas que el usuario determine para su trabajo, pero la autorización para sustituir valores
por defecto o parámetros de inicialización siempre está controlada por el técnico de sistemas.

436 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


EXPLOTACIÓN. DISTRIBUCIÓN Y GESTIÓN DE RECURSOS COMPARTIDOS

A continuación analizamos las fases que atraviesa un trabajo en su ejecución:


– Fase de entrada: el JES recibe los trabajos, que están en formato de texto y se ajustan
a la sintaxis del JCL. Estos trabajos están guardados normalmente en un fichero en disco.
El usuario puede mandar su ejecución (submit) al JES de diversas maneras, siendo la más
usual mediante un comando del gestor de la sesión interactiva, si se hace desde un terminal,
o mediante un comando del propio sistema operativo o del JES, si se hace desde la consola
del sistema.
– Fase de conversión: el JES analiza las instrucciones del trabajo, sustituye las llamadas
a procedimientos por las instrucciones correspondientes, convierte el texto obtenido a un
formato interno, y posteriormente lo almacena en un fichero de SPOOL (Simultaneous Peri-
pheral Operations OnLine).
– Fase de proceso: en esta fase, el JES responde a las solicitudes que va realizando el sis-
tema operativo reclamando trabajos para ser ejecutados. El JES selecciona un trabajo de la
cola de entrada, que espera para empezar a ejecutarse.
El JES se comunica con un iniciador para arrancar un trabajo en espera. Los iniciadores
son programas del sistema operativo que se encargan de arrancar los trabajos. Hasta que
los trabajos no están arrancados no pueden competir para obtener recursos del sistema.
Los iniciadores pueden estar bajo el control del JES o del Gestor de la carga de trabajo del
sistema operativo (Workload Manager, WLM). Los iniciadores del JES comienzan a funcio-
nar cuando el operador de consola emite el comando adecuado, o bien automáticamente
cuando se arranca el propio JES. Estos iniciadores seleccionan los trabajos en función de la
clase que éstos tienen asignada, ya que cada iniciador sólo puede seleccionar trabajos de
determinadas clases. Dentro de la misma clase, los trabajos se seleccionan en función de
su prioridad de selección. Por otra parte, los iniciadores del WLM comienzan a funcionar o
dejar de funcionar automáticamente dependiendo de los siguientes aspectos: los objetivos
de rendimiento, la importancia relativa que se haya asignado a los trabajos por lotes, y la
capacidad del sistema para procesar más o menos trabajos.
Los iniciadores asignan los recursos que sean necesarios para ejecutar el primer paso del
trabajo y después dan el control al programa que el usuario haya especificado en dicho
primer paso. Cuando todos los iniciadores están ocupados (los iniciadores sólo se liberan
cuando termina el trabajo que han planificado), el tiempo de respuesta de algunos trabajos
podría deteriorarse debido al tiempo de espera para comenzar la ejecución. Para tratar de
evitar estas situaciones, el JES utiliza el mecanismo de priority aging, mediante el cual los
trabajos van aumentando su prioridad de selección en función del tiempo que llevan en la
cola de entrada de trabajos.
Para llevar a cabo la ejecución de los trabajos, es necesario que se establezca una comuni-
cación continua entre el JES y el sistema operativo propiamente dicho. Esta comunicación
permite que el sistema operativo pida servicios del JES, como seleccionar un trabajo, proce-
sar comandos, o abrir ficheros que residen en el SPOOL. También el sistema operativo tiene
que notificar al JES algunas circunstancias como los mensajes que se van produciendo, y el
final de un paso o del trabajo.
– Fase de salida: en esta fase se gestionan todos los resultados imprimibles que haya produ-
cido un trabajo durante su ejecución. Estos resultados son ficheros de salida que el usuario
ha especificado en el JCL que deben imprimirse, aunque no necesariamente en una impre-
sora, como veremos a continuación. También se pueden tratar como resultados imprimibles
los mensajes que haya emitido el sistema operativo con relación al trabajo durante su eje-
cución.
Cuando el trabajo termina, el JES analiza la clase de salida asignada a los resultados imprimi-
bles y las opciones especificadas para los dispositivos físicos (por ejemplo, un formulario espe-
cial o un conjunto de caracteres determinado para la impresora), agrupa dichos resultados para
que estén juntos los que tengan las mismas características, y los deja en la cola de salida.
– Fase de impresión: las impresoras del ordenador tienen asignada una o varias clases de
salida. Para que un resultado pueda imprimirse por una impresora determinada deben coin-
cidir la clase asignada a la impresora y la clase de salida del resultado. De este modo se van
seleccionando los resultados de la cola de salida.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 437


EXPLOTACIÓN. DISTRIBUCIÓN Y GESTIÓN DE RECURSOS COMPARTIDOS

Es necesario distinguir entre clase del trabajo y clase de salida. En el sistema operativo MVS, por
ejemplo, ambas clases se designan mediante letras, pero no tienen ninguna relación. La clase
del trabajo sirve para que los iniciadores lo seleccionen para comenzar su ejecución. Sin embar-
go, la clase de salida se asigna independientemente a cada resultado, por tanto puede haber
varias clases de salida en el mismo trabajo (por ejemplo, un fichero de salida se imprime en una
impresora láser local y otro se imprime en una impresora remota), y estas clases de salida sirven
para indicar por qué impresora concreta o grupo de impresoras se debe imprimir el resultado.
Por otra parte, existen productos software que permiten extraer resultados de la cola de
salida y escribirlos en ficheros en disco, en vez de enviarse a la impresora. Estos productos
actúan coordinados con el JES, de modo que se puede asignar una clase de salida determi-
nada para realizar este proceso de “impresora virtual”. Además, los comandos de JES per-
miten realizar este proceso manualmente, es decir, existen comandos para pasar trabajos o
resultados desde el SPOOL a un fichero en disco o cinta, o desde un fichero en disco o cinta
al SPOOL, si bien este tipo de comandos se suele usar con la finalidad de guardar temporal-
mente la información del SPOOL cuando se va a realizar un arranque en frío del JES, ya que
este tipo de arranque inicializa el SPOOL.
– Fase de borrado (purge): cuando termina el proceso de salida e impresión, el JES libera
todo el espacio del SPOOL que estaba asignado al trabajo, y emite un mensaje al operador
indicando esta circunstancia.
Mecanismos de control del Subsistema de entrada de trabajos:
Además de los comandos de consola del sistema operativo, existen comandos específicos del
JES. Con estos comandos se puede controlar la ejecución de los trabajos y el proceso de los resulta-
dos, así como controlar los dispositivos que están asignados al JES, que son normalmente impreso-
ras, aunque antiguamente también se controlaban las lectoras de fichas y las perforadoras.
La mayoría de las definiciones iniciales del JES también se pueden cambiar mediante comandos
de consola. Estos comandos los pueden emitir los operadores o los técnicos de sistemas.
Por otra parte, existe la posibilidad de planificar la ejecución de algunos comandos a determina-
das horas o periódicamente cada cierto intervalo de tiempo. Estos comandos automáticos se suelen
emplear para visualizar regularmente algunos parámetros importantes del sistema y para liberar a los
operadores del trabajo rutinario más tedioso.
Otra manera de automatizar la operación del sistema es usar algún producto especializado, que
captura los mensajes que aparecen en la consola y emite, como respuesta a determinados mensajes,
los comandos que se le hayan especificado.

4.3. CONTROL EXTERNO DE TRABAJOS


4.3.1. Control de entrada de trabajos
Algunas opciones del JCL permiten que un trabajo entre en el JES, pero sin posibilidad de empe-
zar a ejecutarse hasta que el operador no lo libere mediante el comando adecuado. En este caso se
dice que el trabajo está en estado hold (retenido).
Las posibles razones para dejar un trabajo retenido son las siguientes:
– Que sea necesario esperar a que termine otro trabajo, porque utilizan el mismo recurso (por
ejemplo, un fichero que ambos trabajos deben actualizar en exclusiva), o bien porque el tra-
bajo retenido utiliza como entrada un fichero que se obtiene como resultado de la ejecución
del otro trabajo.
– Que el ordenador tenga una carga excesiva en ese momento, lo cual hace aconsejable esperar a
que vayan terminando los trabajos que están en ejecución para poder procesar nuevos trabajos.
Este proceso manual se puede agilizar empleando un planificador automático, que puede contro-
lar las relaciones entre trabajos en cuanto al orden de ejecución y en cuanto a los recursos comparti-
dos por varios trabajos. Asimismo, los planificadores automáticos permiten predeterminar la hora de
comienzo de cada trabajo, con lo que las situaciones de sobrecarga del ordenador sólo se producen
si hay trabajos no planificados o trabajos que se retrasan en su ejecución.

438 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


EXPLOTACIÓN. DISTRIBUCIÓN Y GESTIÓN DE RECURSOS COMPARTIDOS

No obstante, la utilización de un planificador automático es compatible con la gestión manual


de los trabajos retenidos, si todos los trabajos planificados entran automáticamente en estado hold
y se deja que los operadores de consola decidan qué trabajos deben comenzar a ejecutarse en cada
momento en función de la ocupación del ordenador.
En cualquier caso, la forma habitual de controlar el número y tipo de trabajos que deben estar
en ejecución en cada momento es a través del número de iniciadores activos y las clases de trabajos
que se asignan a cada iniciador.

4.3.2. Asignación de clases


Cada trabajo tiene asignada una clase, la cual se especifica mediante una letra y figura como un
parámetro del JCL. Por lo general, todos los trabajos que tengan las mismas características tienen
asignada la misma clase. Por ejemplo, se pueden separar los trabajos según los siguientes criterios:
– Trabajos que realizan muchas operaciones de entrada/salida.
– Trabajos que utilizan mucho la CPU.
– Trabajos que están en desarrollo.
– Trabajos que utilizan determinado recurso.
– Etcétera.
De este modo se pueden cumplir determinados requisitos, como, por ejemplo: que se ejecuten
simultáneamente el mismo número de trabajos intensivos en entrada/salida que de trabajos inten-
sivos en CPU. Para realizar esto deber haber el mismo número de iniciadores activos para la clase
correspondiente a los trabajos intensivos en entrada/salida que de iniciadores activos para la clase
correspondiente a trabajos intensivos en CPU.
El número de iniciadores activos y la clase o clases asignadas a cada iniciador se pueden modifi-
car dinámicamente mediante los correspondientes comandos de consola, por lo que a lo largo del día
suelen variar estos parámetros conforme cambia el número y la clase de trabajos que se procesan.

4.3.3. Prioridades de selección y de ejecución


Los trabajos de la misma clase se seleccionan para comenzar a ejecutarse según su prioridad de
selección, que es distinta de la prioridad de ejecución. Los trabajos que tienen la misma prioridad de
selección comienzan a ejecutarse según el orden de llegada.
La prioridad de selección la calcula el sistema operativo según el tiempo de ejecución estimado
y la cantidad de líneas imprimibles estimadas. Estas estimaciones se pueden especificar en el propio
JCL, o bien tomar valores por defecto, aunque en última instancia puede que no sean aceptables
debido a las opciones de instalación del JES, que ha definido el técnico de sistemas.
La prioridad de ejecución (dispatching priority) de un trabajo va variando en función de los recursos
que va consumiendo, aunque algunos trabajos pueden tener una prioridad de ejecución fija, especificada
en el JCL. Estos trabajos con prioridad fija suelen ser utilidades o módulos del propio sistema operativo.

4.3.4. Comunicación con el operador


Los principales mensajes que aparecen en la consola del operador durante la ejecución de un
trabajo son los siguientes:
– Indicación de la fase de un trabajo: entrada, ejecución, salida, impresión y borrado.
– Indicación de haber excedido algún límite, como el número de líneas imprimibles o el
número de cintas de un fichero. Dependiendo de las opciones que estén vigentes, el trabajo
podría terminar automáticamente (con volcado de memoria o sin él) o bien puede permitirse
que continúe.
– Solicitud de la intervención del operador. Por ejemplo, para montar una cinta o para
colocar un formulario especial en la impresora.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 439


EXPLOTACIÓN. DISTRIBUCIÓN Y GESTIÓN DE RECURSOS COMPARTIDOS

En algunas ocasiones el operador debe decidir la cancelación de un trabajo debido a que el


tiempo de ejecución es excesivo comparado con el tiempo de ejecución habitual del trabajo, o bien
debido a que se aprecian síntomas de que el programa que se está ejecutando se encuentra dentro
de un bucle infinito, es decir, ejecutando siempre la misma secuencia de instrucciones. Para decidir
la cancelación es necesario conocer los siguientes datos:
– Tiempo transcurrido desde el comienzo de la ejecución (elapsed time).
– Recursos consumidos: tiempo de CPU empleado y número de operaciones de entrada/salida
realizadas.
– Volumen de información que debe procesar. Por ejemplo, número de registros de los ficheros
de entrada.
Al comparar estos datos con los que se tengan de ejecuciones anteriores, se puede decidir si el
trabajo está consumiendo una cantidad de recursos exagerada y si por tanto procede su cancelación. En
el caso de un posible bucle infinito, los síntomas suelen ser la aparición de mensajes que indican que se
ha sobrepasado el límite de líneas imprimibles, o un consumo muy alto de CPU, o ambas cosas.

4.3.5. Ejecución condicional


Algunos parámetros del JCL permiten condicionar la ejecución de uno o varios de los pasos que
componen un trabajo según el resultado de algún paso que se ha ejecutado previamente. El resul-
tado de un paso se expresa mediante un código de retorno que genera el programa ejecutado, y en
caso de producirse un error que impida que el programa termine normalmente, en lugar de código de
retorno tendrá como resultado un código de error generado por el sistema operativo.
El código de retorno es un código numérico que todos los programas (tanto los del sistema como los de
usuario) dejan como resultado, al finalizar, en un registro de la CPU. Normalmente se establece un convenio
para que este número indique si el programa ha terminado correcta o incorrectamente. Por ejemplo, el cero
suele significar que ha terminado bien, el 4 indica algún tipo de aviso y el 8 indica que ha ocurrido algún error.
Cuando se produce una terminación errónea se finaliza la ejecución de todo el trabajo, salvo que
se indique como condición en el JCL que se desea ejecutar alguno o varios de los pasos que queda-
ban por ejecutar en el trabajo.
Algunos trabajos especifican que se escriba un volcado de memoria (dump) cuando se produzca algún
error. Un dump consiste en copiar a un fichero el contenido de las áreas de memoria pertenecientes al pro-
grama que se estaba ejecutando, en el momento en el que se produce el error o se solicita el dump; también
se puede escribir un dump si el programa del usuario llama al servicio correspondiente del sistema operativo.
En cualquier caso, en el JCL es necesario especificar el fichero donde se quiere obtener dicho dump.
Como los ficheros donde se guarda un dump suelen ser bastante grandes, se suele obtener el dump
en un fichero en disco, en una ubicación temporal, donde se puede analizar la información, y posterior-
mente guardarlo en cinta o bien imprimir alguna parte concreta que convenga analizar con detalle.
Hasta aquí se ha descrito la ejecución condicional de los pasos que componen un trabajo, pero
también es posible condicionar la ejecución de un trabajo en función del resultado de alguno o de
cualquiera de los pasos que componen otro trabajo que se ejecuta previamente. Esta posibilidad la
proporcionan algunos planificadores automáticos de trabajos. Por ejemplo, el trabajo A2 se puede
planificar para que se ejecute todos los días a las 21:00 siempre que el trabajo A1 haya terminado
con un código de retorno igual a cero en todos sus pasos.

4.3.6. Rearranque de trabajos


Existen varios métodos de rearranque:
– Rearranque por terminación anormal: si un trabajo falla en alguno de sus pasos, puede
volverse a ejecutar sin tener que comenzar desde el principio, siempre que el sistema ope-
rativo proporcione alguno o varios de los siguientes mecanismos:
* Rearranque automático desde el comienzo del paso.
* Rearranque automático desde el último checkpoint.
* Rearranque diferido desde el comienzo del paso.
* Rearranque diferido desde el último checkpoint.

440 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


EXPLOTACIÓN. DISTRIBUCIÓN Y GESTIÓN DE RECURSOS COMPARTIDOS

Los rearranques automáticos los realiza el propio sistema en cuanto se produce el fallo,
aunque pide al operador de consola que lo autorice o lo deniegue. Los rearranques diferidos
se llevan a cabo ejecutando de nuevo el trabajo, pero indicando en el JCL que se trata de
un rearranque, con especificación del paso desde el que debe comenzar y/o del fichero de
checkpoint que debe utilizar.
La técnica de checkpoint consiste en que durante la ejecución del programa éste realiza
llamadas periódicas (cada cierto tiempo o cada cierto número de registros procesados) al
sistema operativo, para que éste grabe en un fichero toda la información relevante del pro-
ceso que está en marcha. De este modo, el sistema operativo podrá reproducir la situación
del programa cuando se solicite el rearranque.
– Rearranque por fallo del sistema: algunos sistemas operativos permiten que los trabajos que
se estén ejecutando cuando se produce un fallo del propio sistema operativo, o bien cuando se
para ordenadamente el mismo, continúen ejecutándose en el próximo arranque. En el caso de
parada ordenada del sistema operativo, éste se encarga de guardar antes del cierre la situación
de los trabajos en ejecución. Sin embargo, para que un trabajo pueda ser rearrancado después de
un fallo del sistema, es necesario que en el JCL se indique esta posibilidad, con lo cual el sistema
operativo se encargará de guardar periódicamente el estado del trabajo durante su ejecución.
– Otros mecanismos de rearranque: en algunas ocasiones se puede establecer un meca-
nismo de rearranque directamente controlado por la aplicación. El caso más simple es el de
un programa que procesa un fichero de entrada. Este programa debe escribir en un listado
de salida, cada vez que termina de procesar un registro, el número de orden del registro que
acaba de procesar. En caso de error, se puede rearrancar el programa volviendo a ejecutarlo,
pero indicando como parámetro del programa el número de registros que ya ha procesado
en la ejecución anterior. De este modo, el programa leerá dicho número de registros sin
procesarlos, y procesará solamente los siguientes.
Por último, cabe señalar que los productos que automatizan la operación o la planificación de
trabajos suelen incluir la posibilidad de gestionar el rearranque automático.

5. MANUALES DE EXPLOTACIÓN DE APLICACIONES


INFORMÁTICAS. FUNCIONES, CONTENIDO
5.1. INTRODUCCIÓN
Se refiere a los datos que describen el sistema de procesamiento de datos o una parte de él
como puede ser un programa. La preparación de estos documentos es una fase necesaria en el pro-
cesamiento informático de datos, pero a menudo es manejada de forma deficiente.
Una regla razonable en la mayoría de los casos es el tener en
cuenta que “si el proceso no está bien documentado no se debe rea-
lizar”; además, la revisión y el control de calidad adecuados sólo son
posibles cuando el trabajo está bien documentado.
La documentación es especialmente importante para el man-
tenimiento del programa y para contestar las preguntas que surjan
acerca de la forma en que ésta funciona. Sin embargo, cuando en
una organización o empresa no se ha mantenido la documentación
en forma adecuada y ha sido necesario modificar un programa, se
han visto en la necesidad de hacer una cantidad considerable de
gastos extras.
La documentación tiene un papel importante en todo proyecto
de software, pero en la práctica se le presta poca atención, ya sea
porque no se genera o por que no se utiliza. Sin embargo, su nece-
sidad es evidente. Como antes mencionábamos, lo importante no
es documentar, sino disponer de la información necesaria cuando Documentación de un producto
hace falta. informático en forma de manuales
independientes

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 441


EXPLOTACIÓN. DISTRIBUCIÓN Y GESTIÓN DE RECURSOS COMPARTIDOS

La documentación es el nexo entre las distintas actividades casi simultáneas que se realizan y
es la que permite ejercer el control efectivo del proyecto. Resulta muy difícil modificar con rapidez el
procesamiento de una aplicación cuando no se tiene la menor idea de dónde ocurre el proceso del
sistema.
Para solucionar este problema, la dirección del proyecto debe tener el coraje de imponer
normas de documentación y exigir que el personal se ajuste a ellas. La documentación persigue
objetivos internos y externos. No sólo documentamos para comunicarnos entre los miembros del
grupo de trabajo, sino también para comunicarnos con el usuario del programa de las decisiones
del equipo sobre el producto.

5.2. OBJETIVOS
La principal finalidad de la documentación es comunicar. El analista al usuario, el analista al
programador, el analista y el programador al operador, al usuario, etc. Otros objetivos de la documen-
tación son los siguientes:
– Supervisión del avance del desarrollo de una aplicación.
– Comunicación de los hechos del sistema a los usuarios.
– Comunicación entre el personal que trabaja en el desarrollo del proyecto.
– Obtención de la información necesaria para hacer correcciones o revisiones de un sistema o
de sus programas en computadora.
– Suministración e instrucciones de operación a los usuarios y operadores.
– Ayuda para instruir al personal nuevo enseñándole el marco general de la aplicación y sus
programas.
– Preparar la reconstrucción del sistema en caso de que éste se destruya.

5.2.1. Objetivos internos


Se refiere a la necesidad de transmitir información de un grupo a otro, por ejemplo, del diseñador
a los especialistas en bases de datos. Se documenta con el propósito de:
– Comprender con claridad los compromisos que se asumen, las políticas que se definen y los
riesgos que se corren.
– Comunicar información referida a los productos de un sector del área a otro.

5.2.2. Objetivos externos


Se persigue la comunicación con el usuario, por lo tanto se debe lograr que entienda la docu-
mentación para que pueda ejercer el control.
Los objetivos son:
– Controlar las alternativas que sufre el proyecto y prevenir con anticipación situaciones
indeseables.
– Comunicar a los usuarios las decisiones de diseño referidos a los productos.

5.3. ESTRUCTURA DE LA DOCUMENTACIÓN


Ante la pregunta de qué se debe documentar en un proyecto de desarrollo de software, la respuesta
es sencilla: se documenta todo, la documentación no es una fase del proyecto, es un subproducto. En
la medida en que se debe comunicar algo, se crea un documento. Básicamente todas las decisiones
pequeñas o grandes se documentan. Existen tantos documentos de sistemas y programas como cen-
tros informáticos hay. Esto es debido a la falta de normas estándares para documentación.

442 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


EXPLOTACIÓN. DISTRIBUCIÓN Y GESTIÓN DE RECURSOS COMPARTIDOS

Todos ellos pueden clasificarse en seis tipos genéricos:


– Diseño conceptual.
– Especificación funcional.
– Especificación del sistema.
– Especificación del programa.
– Manual de operaciones.
– Manual de usuario.
Existen tres grupos de personas que necesitan conocer la documentación del programa: progra-
madores, operadores y usuarios. Los requerimientos necesarios para cada uno de ellos son diferen-
tes, en función de las misiones de cada grupo:
– Programadores: manual de mantenimiento del programa.
– Operadores: manual del operador.
– Usuario: manual del usuario.
La documentación cuenta con varios tipos de documentos importantes, y cada uno de ellos tiene
una finalidad, pero también puede haber documentación adicional, como datos históricos acerca del
análisis que se hizo antes de establecer el sistema.

5.3.1. Documentación del sistema


Describe todo el sistema de aplicación del procesamiento de datos. Esta documentación es el
resultado de la fase de diseño y análisis. Proporciona una explicación completa del sistema de apli-
cación excepto que no tiene los detalles del programa. En general el sistema de documentación está
compuesta de los siguientes elementos:
– Definición del problema. Consiste en explicar las razones del sistema y lo que éste hace.
– Diagramas de flujo del sistema. Lógica general del procesamiento.
– Especificaciones de datos y archivos. Matriz de las series y formatos de los archivos.
– Especificaciones de entrada/salida. Estos son documentos o registros de planes de entrada
y salida.
– Control de errores del sistema.
– Plan de pruebas del sistema.
– Especificación de programas.

5.3.2. Especificaciones del programa


Cada programa del sistema debe tener un documento correspondiente de especificación. Si las
especificaciones del programa se preparan correctamente, un programador sin previo conocimiento
tendría que poder discernir rápidamente cómo y dónde hacer cambios.
Las especificaciones del programa son:
– Nombre del programa.
– Proceso al que pertenece.
– Sistema al que pertenece.
– Lenguaje de programación.
– Descripción de entradas/salidas.
– Descripción de la función general del programa con indicación de las tareas a realizar y del
algoritmo de resolución.
– Diseños de impresión y arreglos de pantallas.
– Estructuras de los archivos.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 443


EXPLOTACIÓN. DISTRIBUCIÓN Y GESTIÓN DE RECURSOS COMPARTIDOS

Las secciones que debe agregar el programador son:


– El algoritmo de resolución en forma de diagrama de flujo o tablas de decisión.
– Diagrama de estructuras o diagramas de bloques.
– Flow de pantallas.
– Listado del programa fuente.
– Diseño de los casos de pruebas.
– Manual de mantenimiento con las restricciones y limitaciones e información de operaciones
(orden de E/S, tiempos de respuestas, descripción de los mensajes de error, etc.).
El programador describe el funcionamiento y uso del programa en una documentación técnica y
de usuario. La documentación de un programa debe ser de dos tipos: documentación para personal
informático y documentación para usuario. La primera la describimos anteriormente.
El manual de mantenimiento es la documentación requerida para mantener un programa durante
su ciclo de vida. Se divide en:
– Documentación interna: esta documentación cubre los aspectos del programa relativos a
la sintaxis del lenguaje, y está contenida en los comentarios encerrados entre llaves o bien
paréntesis o asteriscos.
Algunos tópicos a considerar son:
* Cabecera del programa (nombre del programador, fecha de la versión actual, breve
descripción de la función del programa).
* Nombres significativos para describir identificadores.
* Comentarios relativos a la función del programa como un todo, así como los módulos
que comprende el programa.
* Claridad de estilo y formato (una sentencia por línea, líneas en blanco para separar
módulos, procedimientos, funciones, unidades, etc.).
* Comentarios significativos.
– Documentación externa: documentación ajena al programa fuente, que se suele incluir en
un manual que acompaña al programa.
La documentación externa debe incluir:
* Listado actual del programa fuente, mapas de memoria, referencias cruzadas, etc.
* Especificación del programa: documento que define el propósito y modo de funciona-
miento del programa.
* Especificaciones de fórmulas complejas.
* Especificación de los datos a procesar: archivos externos incluyendo el formato de las
estructuras de los registros, campos, etc.
* Formato de pantallas utilizados para interactuar con los usuarios.
* Cualquier indicación especial que pueda servir a los programadores que deben mante-
ner el programa.

5.3.3. Manual de ejecución


Los programadores preparan el manual de ejecución en forma de documentación completa del
programa, utilizado en el procesamiento de datos, es decir, contiene la documentación de un progra-
ma en ejecución.

5.3.4. Instrucciones para el operador


Los manuales de operaciones son los menos genéricos de los documentos del sistema, dado que
su formato y contenido varían según la estructura organizacional del departamento de operaciones, el
hardware instalado, el software del sistema y la naturaleza de la aplicación (en línea, batch, etc.).

444 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


EXPLOTACIÓN. DISTRIBUCIÓN Y GESTIÓN DE RECURSOS COMPARTIDOS

Las secciones que deberían considerarse son:


– Una descripción narrativa de cada trabajo.
– Instrucciones para preparación.
– Procedimiento de rearranque/recuperación.
– Distribución de la salida.

5.3.5. Instrucciones para el usuario


Típicamente las nuevas aplicaciones de procesamiento requieren que los usuarios se adapten a
nuevas formas, utilicen nuevos informes y sigan nuevos procedimientos con respecto a los controles y
corrección de errores. Se debe instruir al personal existente en los nuevos procedimientos del sistema
y, también es necesario adiestrar al nuevo personal y al personal de reemplazo, por lo tanto debe ha-
ber una guía para el usuario o un conjunto de instrucciones al usuario para este sistema. Sin embargo
esta guía se redacta en forma tal que sea legible para el usuario y no contenga detalles acerca de los
programas y procesos para la computadora.
La regla de oro en la preparación de este documento es “no dejar insatisfecho al usuario que busca
información”. La documentación para el usuario debe incluir una descripción general de las tareas que realiza
el programa, así como una descripción detalla de todas las instrucciones que sean necesarias para su insta-
lación, puesta en marcha y funcionamiento; así como consejos, recomendaciones de uso, explicación de los
mensajes de error y modo de solucionarlos, entrada y salida de datos, menú de opciones, etc.
El manual de usuario debe cubrir al menos los siguientes puntos:
– Órdenes necesarias para cargar el programa en memoria, desde el almacenamiento secun-
dario (en disco) y arrancar su funcionamiento.
– Nombres de los archivos externos a los que accede el programa.
– Formato de todos los mensajes de error o informes.
– Opciones en el funcionamiento del programa.
– Descripción detallada de la función realizada por el programa.
– Descripción detallada, preferiblemente con ejemplos, de cualquier salida producida por el
programa.

5.4. ¿QUIÉN DOCUMENTA?


El documentador o documentalista tiene a su cargo la recolección, organización y difusión de
todos los documentos que se producen en el equipo. Los documentalistas son los que reciben y eva-
lúan consultas sobre campos, programas y estructuras, de hecho, quienes mantienen actualizada la
información, garantizando su uso.
EXCESOS: hay dos síntomas distintos y opuestos con relación a la documentación:
– Papiromanía: en la que el foco de atención se centra en los papeles que se producen y no
en lo que se produce en los papeles.
– Papirofobia: en la que el incompetente respalda su incapacidad de discernir entre algo bien
hecho o mal hecho, evitando tener que decidir hasta que es demasiado tarde, omitiendo
todos los documentos.
La documentación es esencial para un proyecto. Pero sólo lo esencial es documentación, el resto
es exceso.

5.5. MANTENIMIENTO
La actividad más cara en la vida del software es el mantenimiento. Si bien los costos globales de
mantenimiento han bajado año tras año, lo cierto es que ocupa por lo menos el 50% de los recursos

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 445


EXPLOTACIÓN. DISTRIBUCIÓN Y GESTIÓN DE RECURSOS COMPARTIDOS

en cualquier organización. Esto lo convierte en la etapa más importante de la vida de un producto de


software. Sólo el 23% de las tareas corresponden a nuevos desarrollos, el 27% son cambios mayores
a alguna aplicación y el 50% restante son cambios menores.
Mantenimiento es la actividad por la cual se repara, perfecciona o extiende
un producto de software.
Esto significa que son tres actividades bajo un mismo nombre: extensivo, ajuste y corrección. El
mantenimiento correctivo comienza tras la detección de errores en el proceso de verificación. La tarea
básica es la depuración del código: rara vez los errores detectados alcanzan proporciones catastrófi-
cas que obliguen a volver a hacer el diseño.
Los procesos que tienen lugar durante la depuración son:
– Reproducir el error.
– Diagnosticar la causa.
– Corregirla.
– Verificar la corrección realizada.
En la depuración, el profesional examina un suceso a la luz de su repetibilidad (si un error no es
repetible es casi imposible diagnosticar). La reproductibilidad del error permite realizar experiencias
que contribuyen al diagnóstico.
Luego se debe ubicar la porción del código responsable del error; la mejor manera es recorrer el
código “hacia atrás”, partiendo del punto de la impresión del error, y pasando sentencia por sentencia
hacia atrás. Esta técnica se conoce como “backtracking”, y es aplicable sólo en los programas con
una buena estructuración.
Ubicado el código responsable se procede a corregirlo. Esta tarea merece la mayor atención ya
que en la práctica se la subestima. Debe tenerse cuidado, ya que con la corrección del error podemos
incorporar otro nuevo. Un estudio estadístico muestra de que una de cada dos correcciones introduce
un nuevo error. La verificación de que la corrección efectivamente eliminó el error se debe realizar con
el rigor de la prueba de programas nuevos.
La alteración de un sistema implica riesgos grandes. Una modificación es siempre una correc-
ción: para las nuevas especificaciones, el comportamiento anterior es un error. Pero ese no es el
único efecto a modificar. Recordemos que el producto de software es mucho más que programas:
hay una documentación que mantener y a la que se le dedicó tiempo y dinero.
Si al primer uso que se le da en mantenimiento, esa documentación queda desactualizada, el
esfuerzo invertido se pierde. Las herramientas de documentación se utilizan para que ello no ocurra.
A veces sucede que los programadores descubren tardíamente que las rutinas que han desarrollado
independientemente coinciden en un 90%, duplicando innecesariamente esfuerzos y recursos. Este
es un caso de incomunicación dentro del equipo.
Cada modificación descarta un código probado y lo reemplaza por un código nuevo y de calidad
desconocida. Para disminuir esa sensación de incertidumbre y los costos de producción y manteni-
miento, una posibilidad es la de generar software en “paquetes” que puedan ser usados, sacándolos
de la biblioteca permitiendo así la reusabilidad de los módulos.
Debemos nombrar lo que se conoce como mantenimiento preventivo: no se produce por la de-
tección de un error, sino por la sospecha de que ocurrirá. La ventaja de modificar antes de lo estric-
tamente necesario, radica en que es más barato hacer que mantener, sobre todo cuando el producto
es conocido, además del efecto colateral positivo de la generación de la documentación actualizada
previamente inexistente.

446 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


TEMA
11

Explotación. Programas de utilidad.


Conversión de soportes. Copias de
seguridad. Lenguajes procedimentales
y de control

Los productos de ayuda a la explotación (programas de utilidad) constituyen


una necesidad muy importante por los beneficios que incorporan en la operación
diaria, especialmente en grandes sistemas de información y centros informáticos
distribuidos geográficamente.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 447


EXPLOTACIÓN

ESQUEMA INICIAL

1. Introducción y objetivos

2. Software de ayuda a la explotación

3. Gestión de operación
3.1. Automatización de operaciones
3.2. Razones para la automatización
3.3. Beneficios de la automatización
3.4. Costos de los programas de utilidad
3.5. Dificultad de la automatización

4. Gestión de consola
4.1. Actividades a realizar
4.2. Gestión de Mensajes
4.3. Respuestas Automáticas

5. Gestión de sistemas remotos


5.1. Automatización de operaciones remotas
5.2. Facilidades de Administración (Facilities Management)

6. Copias de seguridad

7. Lenguajes de control
7.1. Introducción y conceptos
7.2. Funciones del control de trabajos
7.3. Estructura de un lenguaje de control
7.3.1. Sintaxis
7.3.2. Sentencias
7.3.3. Grupos funcionales
7.3.4. Procedimientos
7.4. El subsistema de E/S de trabajos
7.4.1. Enlace con el sistema operativo
7.4.2. Fases del proceso de un trabajo
7.5. Gestión de salidas de trabajos
7.5.1. Fase de salida
7.5.2. Fase de borrado
7.6. Entrada remota de trabajos
7.7. Funciones avanzadas
7.7.1. Encadenamientos mejorados de pasos
7.7.2. Arranque de trabajos desde un planificador
7.7.3. Appc: arranque de trabajos servidores batch
7.7.4. Arranque de procesos batch desde servicios en línea

448 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


EXPLOTACIÓN

1. INTRODUCCIÓN Y OBJETIVOS
El crecimiento en la capacidad de proceso, de almacenamiento, de costes de personal, de inter-
conexión de distintos sistemas formando redes corporativas, el incremento en la exigencia de calidad
y disponibilidad de servicios informáticos y la mayor exigencia de rentabilización de las inversiones
realizadas en informática, han creado la necesidad de disponer de herramientas que faciliten la ges-
tión de los sistemas y que incrementen la productividad de los mismos.
Los objetivos a conseguir con las herramientas de ayuda a la producción son:
– Facilitar el crecimiento de los sistemas.
– Reducción de costes de operación.
– Aumento de la fiabilidad y disponibilidad del sistema.
– Operación automatizada en el montaje de dispositivos.
– Automatización de la operación del sistema.
– Limitar la incorporación de personal técnico en proporción al crecimiento del sistema.
– Optimización de la planificación de los procesos.
– Generación de alarmas que muestren la degradación del servicio o incidencias en los subsis-
temas o aplicaciones para acelerar la resolución de las mismas.
– Flexibilidad para gestionar y visualizar los listados generados y la impresión de los mismos
por parte del usuario.
– Control centralizado de sistemas distribuidos.

2. SOFTWARE DE AYUDA A LA EXPLOTACIÓN


Para cubrir los objetivos enumerados anteriormente, las empresas de desarrollo de software base
han diseñado distintos productos que resuelven las necesidades anteriores. A continuación se enu-
mera una relación de áreas en las cuales actualmente existen herramientas de ayuda a la explotación
de grandes sistemas:
– Gestión del almacenamiento en disco automatizado.
– Gestión de copias de respaldo automatizada.
– Planificadores de trabajo.
– Monitores de seguimiento del sistema operativo.
– Monitores de gestores de teleproceso.
– Monitores de gestores de base de datos.
– Gestión de red integrada.
– Gestión de la operación.
– Gestión de cintoteca.
– Gestión de listados.

3. GESTIÓN DE OPERACIÓN

3.1. AUTOMATIZACIÓN DE OPERACIONES


La automatización de las operaciones facilita el seguimiento del sistema y subsistemas que se
ejecutan en un centro de datos: los sistemas arrancan de acuerdo a una planificación preestablecida
y siguiendo una secuencia predeterminada, de forma que la intervención humana sea más cómoda y
reducida y los sistemas son monitorizados y controlados centralmente.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 449


EXPLOTACIÓN

El grado de automatización puede variar de un área a otra del CPD; un área puede ser controlada
sin apenas presencia del operador, mientras que otra requiere la de varios operadores. El grado de
automatización varía también según los tipos de servicios implantados y de la capacidad de proceso
y de almacenamiento del sistema. A mayor capacidad más rentable resulta la incorporación de herra-
mientas y dispositivos para la automatización de las operaciones.
La automatización de las operaciones puede ser aplicada a sistemas operativos, a la gestión de
PC’s y Servidores (distribución y control de software, monitorización de alertas en el servidor, etc.),
a las estaciones de trabajo conectados al ordenador central a través de una red LAN (Red de Área
Local) o de una WAN (Red de Área Extendida).
La organización de la función de operación se puede realizar en diferentes niveles, teniendo
en cuenta la disposición y localización más adecuada de los equipos y de las consolas de operación,
y con la incorporación de herramientas de control y automatización del sistema:
– Operación reducida: en este nivel se asume que los operadores son un prerrequisito necesa-
rio para un trabajo satisfactorio del ordenador pero su presencia es precisa solamente en algún
momento; como consecuencia pueden realizar otros trabajos durante su jornada laboral.
– Operación en Lights-Out: indica el aislamiento de ciertos componentes del hardware en
un área donde los operadores no han de entrar habitualmente. Cuando no existe turno de
operación, las funciones que requieran la intervención del operador o cualquier fallo que no
pueda ser tratado por el software automáticamente, deberán esperar hasta que el grupo de
operación vuelva para resolverlo.
– Sala de Control de Operaciones: en este área se concentran las consolas: de servicio de
los procesadores, de los sistemas operativos, del sistema de gestión de comunicaciones,
el terminal maestro de gestores transaccionales, estaciones gráficas de control de red y
cualquier otra pantalla necesaria. Los operadores están aquí todo el tiempo, vigilando y con-
trolando lo que sucede en los diferentes ordenadores y en la red de comunicaciones. Esta
sala de control puede ser usada para controlar múltiples plataformas localizadas en distintos
lugares geográficos; facilitando la rotación de personal y organización de turnos.
– Operación remota: las mejoras de software y la mayor fiabilidad y rapidez en las comunica-
ciones, permiten a los operadores situados en un lugar centralizado, el control de ordenado-
res situados en otro lugar lejano. Los mensajes más significativos pueden ser encaminados
y seleccionados de un ordenador a otro y los operadores pueden realizar las actividades ne-
cesarias para asegurar que todos los ordenadores bajo su atención realizan adecuadamente
sus propias funciones. Una variante de esta situación ocurre cuando el personal de servicio
se conecta al ordenador central desde un PC remoto y comprueba si es necesaria su actua-
ción en algún sistema. Si el operador tiene un localizador o dirección de correo, el software
de automatización puede avisarle cuando aparezca algún problema. Este método permite
dejar un servicio de urgencias disponible durante las noches y los períodos festivos.
– Operación desatendida: no hay operadores que atiendan al ordenador. Esto significa que
todas las funciones realizadas previamente por operadores son llevadas a cabo por el soft-
ware o por el usuario final. El software puede controlar el flujo de trabajo a través del pro-
cesador central (utilización de planificadores de trabajos y herramienta de automatización
de mensajes). El usuario final es responsable de lanzar trabajos desde servicios en línea e
imprimir las salidas generadas que se enviarían a impresoras cercanas. Muchos centros
están tratando de introducir las operaciones automatizadas como una oportunidad para me-
jorar el servicio ofrecido por el departamento de explotación a los usuarios finales. De todas
formas, alcanzar la automatización de manera que ningún operador sea necesario en ningún
momento, para la mayoría de las organizaciones está lejos de conseguirse.

3.2. RAZONES PARA LA AUTOMATIZACIÓN


La automatización de las operaciones del sistema son necesarias para la mayoría de los centros
por varias razones:
– Obtener beneficios financieros.
– Reducir la tasa de errores.
– Ofrecer un nivel de servicio mejorado.

450 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


EXPLOTACIÓN

En muchos sistemas el departamento de explotación trabaja bajo presión debido a:


– Incremento en la complejidad del Hardware, arquitectura y sistemas operativos.
– Incremento en la calidad en la ejecución de procesos solicitados por los usuarios.
– Incremento en la cantidad de trabajo, al aumentar el número de personas que utilizan los
sistemas informáticos.
– Incremento en la especialización del grupo de soporte, necesitándose la adecuada forma-
ción para desarrollar sus funciones.
Una política de automatización mejora la gestión del sistema de cara a futuros cambios incluyen-
do nuevas máquinas, plataformas, incremento de aplicaciones cliente-servidor y el aumento del uso
de las estaciones de trabajo.
La automatización de las operaciones del sistema debe ser planteado como un incremento de la
eficiencia y efectividad de la computación.
Existen diferentes razones para moverse hacia la automatización de las operaciones, que pueden
normalmente dividirse en:
– Presiones económicas:
* Presupuesto del departamento de Explotación.
* Política de reducción del coste por persona.
* Incremento del coste del grupo de empleados cualificados.
* Incremento del coste del tiempo perdido causado por los operadores.
* Mejoras en la fiabilidad del Hardware.
* Necesidad de mejorar la imagen, mejorando el servicio.
* Tendencia a la descentralización.
– Presiones tecnológicas: el gran número de tareas realizadas que se les exige a los ope-
radores hace que en ocasiones se produzcan errores. Cada componente software produce
mensajes para el operador en su propio formato y los operadores necesitan saber el formato
del comando de respuesta para cada sistema y subsistema y al crecer los sistemas la fre-
cuencia de envío de mensajes a la consola es mucho mayor.
– Presión Cultural: la principal causa de presión cultural es que hay poca gente que opera en
grandes ordenadores.

3.3. BENEFICIOS DE LA AUTOMATIZACIÓN


Los beneficios pueden ser expresados en un número de vías:
– Ahorro económico:
* Grupos más pequeños, menos horas extras a pagar.
* Lugares donde se puede ejecutar sin presencia de personal.
* El rendimiento del coste del hardware y software puede ser optimizado porque puede ser
usado al máximo todo el tiempo.
* Los ahorros en el coste debido a la mejora de la fiabilidad significan menos rearranques,
apagones, etc.
– Mayor disponibilidad:
* Más tiempo disponible para distribuir el trabajo.
* Mayor capacidad para realizar el trabajo. Mejora de la productividad.
* Menos errores, reducir tiempos muertos.
* Recuperación más rápida, lo que significa más tiempo de procesamiento disponible por
el usuario para los servicios en línea.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 451


EXPLOTACIÓN

– Aumento de la utilización de los equipos: el Hardware y Software se puede usar todo el


tiempo no sólo cuando los operadores u otros grupos están disponibles.
– Mejora del servicio:
* Servicio constante, sin interrupción por paradas nocturnas.
* Servicio de alta calidad.
* Mejora de la fiabilidad.
* Mejora de la velocidad de recuperación.
* Incremento de la precisión.
* Eliminación de la intervención y errores humanos.
* Respuesta rápida a mensajes de consola críticos.
* Respuesta estandarizada a problemas.
* Interpretación simplificada de mensajes.
– Mejora de la motivación del personal:
* Eliminación de trabajos manuales repetitivos.
* Mejora en el medioambiente de trabajo con la separación de salas de operación de la
de instalación de equipos.
– Aumento de la seguridad.
– Aumento de la flexibilidad/control del sistema:
* Entorno de trabajo más controlado y más estructurado.
* Poder ajustarse rápidamente a las necesidades. Cambio de parámetros dinámicos au-
tomatizados.
– Mejora de la eficiencia:
* Posibilidad de monitorización de varias máquinas desde un único terminal.
* Recuperación automática de cancelaciones de aplicaciones o subsistemas.
– Mejor utilización de recursos: utilización más efectiva del hardware, software y del perso-
nal informático.
– Mejora de la productividad de los usuarios: aumentar el nivel de conocimiento del perso-
nal no técnico para la resolución de pequeños problemas operativos, consultando a la base
de datos de problemas.

3.4. COSTOS DE LOS PROGRAMAS DE UTILIDAD


El coste económico se puede dividir en:
– Gastos iniciales: adquisición de paquetes de software, entrenamiento del personal (cur-
sos), inversión de tiempo empleado en reuniones de planificación, de proveedores, infor-
mación y consulta. Hay que contar con el tiempo y la utilización de recursos de la CPU para
ensayar y evaluar el paquete de software antes de la elección final. Además hay que tener
en cuenta los gastos de adquisición de nuevos elementos para el equipo del proyecto de
automatización (pantallas, PCs, etc.).
– Gastos de explotación: implican no solamente la inversión en software, sino los gastos
de instalación, elaboración de manuales para cada paso de la automatización. Todo esto
implica una bajada en la productividad durante el período de cambio. Un coste que se suele
olvidar es que el software automático se ejecuta en una CPU, con lo que reduce la capaci-
dad efectiva para hacer otro trabajo. Se ha estimado que hay un descenso de un 5% a un
8% en la disponibilidad de ejecución del procesador debido a la presencia del software de
automatización.

452 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


EXPLOTACIÓN

– Gastos ocultos: un factor difícil de evaluar es el coste de adaptación del software actual
para aprovechar las posibilidades de los nuevos productos de automatización. Otro coste
oculto puede ser que no todas las utilidades hayan sido probadas bajo todas las circunstan-
cias de trabajo; se pueden presentar problemas de puesta en producción.

3.5. DIFICULTAD DE LA AUTOMATIZACIÓN


Aparte de las dificultades de formación y reclasificación del personal, otros aspectos que se de-
ben tener en cuenta en la implantación son:
– Aplicaciones de difícil integración en un sistema centralizado de control: durante el
momento de la implementación de la automatización hay que estudiar qué aplicaciones y
subsistemas son susceptibles de integración y cuáles no disponen de la necesaria interfaz
para ello.
– Hardware viejo o inadecuado para el funcionamiento de la automatización: la imple-
mentación de la automatización es un buen momento para detectar hardware que debe
ser renovado. La adquisición de hardware costoso se puede recuperar con la mejora de la
eficiencia del sistema. Interesa que los equipos dispongan de dispositivos de activación re-
motos, por ejemplo, que su secuencia de encendido y apagado pueda ser gestionada desde
un sistema de control programable.
– Actividades relacionados con las cintas/cartuchos: esta es una de las actividades más
necesarias de automatización por los beneficios que aporta, especialmente en los centros
de gran capacidad de proceso. La introducción de cargadores automáticos es un pequeño
avance. Para una operación totalmente desatendida es necesario suprimir las cintas com-
pletamente, y ser sustituidas por la instalación de sistemas robotizados.
– Respuesta a los mensajes de consola: los mensajes de consola suelen ser de varios
tipos: información, requerimiento de actuación, avisos, errores, etc. La automatización debe
filtrar estos mensajes, priorizándolos y ordenándolos.
– Impresión: las aplicaciones siempre generan algún informe impreso. Tradicionalmente ha
sido parte del trabajo del operador la separación de listados y su clasificación. En el futuro,
aunque se simplifique y automatice la impresión, siempre tendrá que haber alguien encar-
gado de cargar y retirar el papel de la impresora y su distribución.
– Arranque de trabajos y planificación: tradicionalmente ha habido unas personas encar-
gadas del control de la ejecución de trabajos en el área de producción. Los operadores se
asegurarían de que los trabajos seguían un orden establecido de ejecución de acuerdo a la
planificación manual efectuadas en las llamadas hojas de planificación de trabajos, que
identificaba la secuencia de trabajos a procesar y sus recursos necesarios. Al no disponer
de una información completa de la situación del sistema, dicha planificación manual está
expuesta a situaciones conflictivas de compatibilidad entre trabajos y de disponibilidad de
recursos.
– Recuperación y rearranque: cuando ocurre un problema con el software, si es un traba-
jo batch o un entorno transaccional, se deben realizar diferentes pasos para recuperar la
situación, y si es irrecuperable reinicializar el trabajo o el subsistema. Si el operador está
bien formado y dispone de las instrucciones técnicas oportunas en un Manual de Opera-
ción interno adaptado, adoptará rápidamente la solución; pero si no lo está se producirán
retrasos o recuperaciones inadecuadas llegando a un mala disponibilidad de los servicios.
Los productos de automatización de operaciones y de planificación pueden asegurar que la
acción que se tome es la adecuada de forma inmediata.
– Monitorización del sistema: en muchos lugares la responsabilidad del operador es vigilar
la consola y el monitor del sistema asegurando que todo funciona correctamente, vigilando
el tiempo de respuesta de los servicios en línea y el consumo razonable de CPU de las apli-
caciones, y que cualquier problema se identifica y se corrige rápidamente. Actualmente se
están tomando los pasos necesarios para llegar a la automatización de operaciones insta-
lando software de monitorización y automatización de la operación.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 453


EXPLOTACIÓN

– Controladores de Redes: las redes han sido normalmente una fuente importante de erro-
res, no solamente por la variedad de software utilizados sino por los problemas de hardware.
Con el continuo crecimiento de las redes con conexiones remotas, es cada vez más impor-
tante asegurar la disponibilidad de la red, así como identificar y corregir cualquier error que
en ellas ocurra. Es deseable el rearranque automático de los recursos de las redes y auto-
matizar muchos aspectos que anteriormente requerían varios operadores de redes.
– Gestión de almacenamiento: hasta hace poco la única gestión de almacenamiento era asignar
a un grupo de usuarios un determinado grupo de discos identificados por un nombre. Reciente-
mente se han desarrollado software de gestión y almacenamiento de datos de forma automática.
Dichos productos se basan en definir unas reglas de creación y de manejo de ficheros de acuerdo
con la definición de unas políticas de manejo. La consecuencia más directa de estos métodos es
el ahorro de horas de trabajo en las actividades de gestión y administración en ficheros.
– Seguridad: antiguamente el responsable de la seguridad no disponía de herramientas de
control de accesos, éste era gestionado por el operador que los detectaba por los mensajes
que aparecían en consola. Actualmente existen diferentes programas software para controlar
el acceso y detectar los intentos de violación de la seguridad establecida.
– Costos de la automatización de las operaciones del sistema: estos costos son ini-
cialmente difíciles de justificar porque requerirán gastos adicionales en la contratación de
programas y equipos, así como el coste de formación del personal. Sin embargo, este coste
inicial se puede compensar por los ahorros que se obtienen a lo largo del tiempo y en la
calidad mejorada del servicio.

4. GESTIÓN DE CONSOLA

4.1. ACTIVIDADES A REALIZAR


Las actividades de automatización asociadas a la consola, son normalmente el primer paso hacia
la automatización. Los tipos de actividades asociadas a la automatización de la consola son:
– Gestión de mensajes.
– Respuestas automáticas.
– Gestión de respuesta a diversos eventos.
Una de las principales razones para automatizar las actividades de la consola es reducir el núme-
ro de errores del operador. Estos errores pueden ser:
– Comandos mal tecleados.
– Mensajes mal leídos.
– Mensajes mal interpretados.
– Acciones inapropiadas del operador.
Este tipo de errores se pueden reducir por:
– Creando una interfaz con mensajes claros.
– Reducir el número de mensajes.
– Incrementar el nivel de destreza de los operadores.
Los beneficios derivados de la automatización de la actividad de consola son:
– Mejora del servicio.
– Respuesta correcta a los mensajes de rutina.
– No se olvide ni ignore ningún mensaje importante.
– No se desperdicia tiempo en mirar el manual responden a los mensajes.
– Las respuestas de consola son más rápidas y seguros.
– Ahorro de dinero al reducir el numero de operadores.

454 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


EXPLOTACIÓN

4.2. GESTIÓN DE MENSAJES


Las operaciones de automatización de consola en principio van dirigidas a suprimir un gran número
de los mensajes que aparezcan en la consola. Un primer paso en la supresión de mensajes es:
– Recoger el trafico de mensajes a la consola.
– Recoger el trafico de mensajes desde otros interfaces.
– Analizar este trafico.
El trafico de mensajes se analizaría por:
– La frecuencia del mensaje.
– La identificación del mensaje.
– La pertenencia a un subsistema o tarea concretas criticas para la instalación.
– La distribución en el tiempo.
Esta información se utilizará para seleccionar los mensajes que serán suprimidos. Estos men-
sajes, aunque no aparezcan en consola, se recogerán en los ficheros de log (registro) para poder
analizarlos en caso de ser necesario.
Cuando se instala un gestor de mensajes puede ser útil dividir las acciones en aquellas que se
puedan basar en el contenido de un mensaje individual y aquellas en las que la acción depende de
informaciones adicionales. Esta división separa los sistemas más simples de otros más complejos.
Como consecuencia del análisis de mensajes se construye una tabla de mensajes importantes a
capturar y las acciones de automatización derivada de ellos para la gestión propia del sistema y de los
subsistemas críticos de la instalación, así como la planificación de captura de información a intervalos
regulares de tiempo y ante eventos concretos.

4.3. RESPUESTAS AUTOMÁTICAS


Los mensajes que aparecen en la consola requiriendo una respuesta del operador se pueden
dividir en tres categorías:
– Consistentes: que siempre va a requerir la misma respuesta y es fácilmente automatizable.
– De análisis o captura de información: requieren la búsqueda de información adicional.
Presentan más dificultad de automatización.
– Combinados: sus respuestas pueden variar en función de diferentes trabajos o diferentes
eventos que se deben analizar de forma conjunta para tomar la adecuada decisión. Su au-
tomatización es más compleja.
Uno de los beneficios de analizar el tráfico de mensajes es que es posible identificar qué tipo y
porcentaje de respuestas a mensajes se pueden y deben automatizar. El beneficio de esta automati-
zación es que las respuestas son consecuentes, rápidas y correctas, y el operador queda disponible
para otra actividad. El sistema de automatización debe tener la suficiente flexibilidad en el formato de
respuesta para las nuevas versiones del sistema o subsistema.

5. GESTIÓN DE SISTEMAS REMOTOS

5.1. AUTOMATIZACIÓN DE OPERACIONES REMOTAS


Las operaciones remotas son el proceso por el cual uno o más ordenadores principales pueden ser
controlados desde un punto situado en un lugar diferente a donde están instalados ellos mismos.
Las operaciones remotas cubren dos aspectos diferentes:
– Que un sistema puede ser controlado por personal de operación desde un ordenador cen-
tral situado en otro lugar.
– Que el ordenador central puede ser atendido temporalmente por un operador conectándose
al sistema mediante un PC que puede estar localizado en su propia casa (teletrabajo).

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 455


EXPLOTACIÓN

Las operaciones remotas ofrecen los siguientes beneficios:


– Mejora el servicio, la disponibilidad y la recuperación del sistema.
– Mejora la eficiencia.
– Reducción del gasto en personal de operación.
– Facilita la formación y reciclaje de tareas de operación de distintos sistemas.
– Flexibilidad en la localización del centro de computación.
La mejora en la recuperación del sistema puede ser llevada a cabo porque los programadores del
sistema pueden arreglar los problemas producidos en el sistema o subsistemas desde casa. Durante la
noche o los fines de semana, pueden ahorrarse el tiempo de viajar hasta el lugar o centro de cálculo.
Teniendo una sola unidad de control, centralizando los expertos, la probabilidad de encontrar so-
luciones a los problemas es mucho mayor. Para maximizar el ahorro de costes el hardware puede ser
instalado donde el suelo sea barato; en este centro las luces pueden estar apagadas, y la seguridad
física y medio ambiental puede ser mejor.
En el caso de que se produjera un evento de alarma, por ejemplo, un fuego, se pueden tomar las
acciones apropiadas inmediatamente y automáticamente, mediante el uso de los sistemas automáticos de
detección y control de incendios, pues no es necesario esperar para la evacuación de la sala de operación.
Las operaciones remotas pueden ser posibles en nuestros días mediante el uso conjunto de
alguno de los siguientes dispositivos y programas:
– Sistemas de comunicación que permiten tener conectados PCs al CPD.
– Mejora en la conexión de sistemas de comunicaciones. Las facilidades permiten tener una
pantalla multi-imagen de nodos.
– PCs y emulación 3270 para controlar grandes ordenadores.
– Sistema de respaldo (duplicidades) en caso de que los PCs u otros dispositivos fallen.
Cuando un lugar es pensado como de operaciones remotas, hay un número de consideraciones
adicionales a tener en cuenta:
– Concentración de la administración de problemas: si todo el grupo está en el mismo lugar
es mejor y más rápido para encontrar el problema, utilizando métodos apropiados y familiares
para identificar la fuente del problema y poder arreglarlo; además los miembros del grupo po-
drán aprender unos de otros, lo que no sucedería si estuvieran en lugares diferentes.
– Consolidación de los servicios de ayuda (helpdesk): si todos los servicios de ayuda es-
tán en un lugar es más fácil coordinar sus actividades, y asegura que los grupos de trabajo
están bien entrenados para atender cualquier tipo de llamada que recibe.
– Aplicaciones de operación estandarizada: procedimientos equivalentes o idénticos, según
los casos, se deben adoptar en el ordenador central y deben ser aplicados a todos los proce-
sadores que éste controla. Debe asegurarse que ningún procesador retrasa la gestión de las
operaciones, por lo tanto, todo el mantenimiento ha de estar altamente estandarizado.
– Posibilidad de incrementar el horario de servicio: a causa de un mayor agrupamiento
del personal. Esto implica un mayor número de horas de disponibilidad del sistema con los
operadores actuales.
– Generación de más necesidades y oportunidades para el trabajo especializado: el
control y la programación del propio sistema de automatización genera nuevos perfiles de
trabajo en el área de Explotación.

5.2. FACILIDADES DE ADMINISTRACIÓN (FACILITIES MANAGEMENT)


Para las compañías que ofertan facilidades de administración, las operaciones remotas son una
vía fácil para proporcionar servicios de soporte y diagnóstico de problemas de sus propios equipos,
mediante el uso de conexiones remotas y el uso de programas de almacenamiento de errores y de
chequeo del estado del sistema, desde centros de laboratorio propios.
La organización instalará el procesador en un lugar, mientras las facilidades de administración
posibilitan la colocación de las consolas en la sala del centro de control.

456 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


EXPLOTACIÓN

6. COPIAS DE SEGURIDAD
Este apartado se encuentra desarrollado en el tema 12.

7. LENGUAJES DE CONTROL

7.1. INTRODUCCIÓN Y CONCEPTOS


La utilización de los ordenadores ha ido evolucionado con el paso del tiempo, y todo gracias a la inclu-
sión de mejoras tanto el hardware como en el software. En los grandes sistemas los procesos por lotes se
gestionan mediante los de lenguajes de control de trabajos, que realizan la asignación de ficheros y recur-
sos. A las funciones de control del sistema, se les incorpora las rutinas de gestión de dispositivos de E/S.
Los primeros grandes ordenadores contaban con un dispositivo de entrada (lector de tarjetas per-
foradas) desde el cual se introducían los programas a ejecutar y los datos asociados a los mismos. El
dispositivo lector de tarjetas (Reader), inicialmente era el único medio de introducir la información
junto con el terminal de control del ordenador.
La secuencia de funciones que ejecutaba el programa del sistema que controlaba el dispositivo
lector se establecía mediante el uso de unos códigos que se especificaban en las fichas perforadas
y mediante la adecuada intercalación de las mismas. Existían fichas perforadas que, de acuerdo con
sus códigos, indicaban:
– Comienzo de un proceso.
– Comienzo de las fichas fuente de un programa.
– Final de las fichas fuente del programa.
– Invocación al compilador del lenguaje en el que estaba codificado el programa (COBOL,
FORTRAN, etc.).
– Ejecutar el programa cargador y lanzador del programa en código objeto generado en el paso
anterior.
– Lectura de las fichas de datos que venían a continuación.
– Final de las fichas de datos.
En esta forma de trabajo inicial de los ordenadores, el tiempo requerido para preparar y cargar
un programa en la memoria del ordenador para su ejecución, era superior al tiempo de ejecución de
los mismos; de modo que resultaba poco eficiente su utilización.
Por ello surgieron los sistemas operativos con el objetivo de optimar el uso de los recursos de
Hardware e incrementar el rendimiento de la CPU del ordenador, simplificando las operaciones para
su uso.
Se puede decir que un sistema operativo es un conjunto integrado de programas de control
que gobiernan toda la operación del sistema, supervisan la ejecución de los programas en proceso,
controlan la asignación, almacenamiento y localización de datos y seleccionan los trabajos para un
proceso optimizado y continuado del ordenador.
Desde este punto de vista, las funciones del sistema operativo son las siguientes:
– Planificación, carga, iniciación y supervisión de la ejecución de programas.
– Asignación de memoria, unidades de E/S y otros dispositivos del sistema.
– Iniciar y controlar todas las operaciones de E/S.
– Manejar errores y reiniciaciones.
– Coordinar las comunicaciones entre el operador y el sistema.
– Mantener un diario de las operaciones del sistema.
– Controlar las operaciones cuando se trabaja en los modos de multiprogramación, multipro-
ceso y tiempo compartido.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 457


EXPLOTACIÓN

De todas estas funciones, las dos primeras de ellas se realizan por el subsistema de E/S de tra-
bajos. Para clarificar definiremos unos conceptos:
– Un trabajo representa una unidad de operación ejecutada por el sistema operativo. Cada
trabajo consta de uno o más pasos, cada uno de los cuales solicita la ejecución de un pro-
grama del usuario o del sistema (Clasificación, copia de ficheros, etc.).
– Una cadena de trabajos de una aplicación es una secuencia ordenada y condicionada de
ejecución de trabajos para completar el proceso periódico de dicha aplicación.
– El trabajo Batch se diferencia de los procesos conversacionales o en línea en que el
número de mensajes o registros de entrada a procesar por cada programa asociado a cada
caso, es muy diferente, así como la forma de alimentación de los datos de entrada en cada
caso, y en la forma como se arrancan los programas dentro del sistema.
– En un sistema transaccional el mensaje se introduce desde un terminal y normalmente
sólo se procesa un mensaje por una unidad de trabajo. El número de ejecuciones del pro-
grama asociado a la transacción es muy alto. En este entorno en línea prácticamente no
se utiliza el subsistema de Entrada y Salida de trabajos, salvo para arrancar inicialmente el
gestor transaccional. Una vez activado es éste el encargado de seleccionar y planificar la
ejecución de los programas en respuesta a los mensajes de llegada.
Mientras que en los procesos Batch el número de mensajes (en realidad son registros leídos
de un fichero de entrada) a procesar en cada ejecución del programa es muy numeroso. El proceso
Batch se arranca desde la consola del sistema por operación, o desde un planificador arrancador de
trabajos (cadenas de JCL), utilizando el Subsistema de Entrada y Salida de Trabajos para cada paso
arrancado por la cadena. Para cada aplicación suele haber una sucesión de arranque de cadenas
condicionadas para completar la actualización de ficheros y la generación de informes.

7.2. FUNCIONES DEL CONTROL DE TRABAJOS


Una función importante que incorporan es la gestión de Entrada y Salida (E/S) en el fichero
de almacenamiento intermedio (SPOOL), de las sentencias de ejecución de los trabajos cuando
son leídas inicialmente y de las salidas enviadas a las impresoras durante la ejecución de cada
trabajo.
Con ello se incrementa el rendimiento del sistema, ya que los dispositivos lectores (readers) y los
equipos de salida (impresoras) tienen una velocidad de proceso mucho más lento y no hay muchos
conectados, con lo que al leerse los datos de ejecución desde el disco de SPOOL y al enviarse las
salidas en un primera instancia también al disco de SPOOL, el proceso del trabajo es más rápido y no
se producen encolamientos por los dispositivos lentos. El tratamiento diferido de las salidas permite
la utilización concurrente de el mismo dispositivo lógico en varios programas.
Es el propio Subsistema de Control de Trabajos el que gestionará de forma asíncrona el envío a
las impresoras de los datos de salida de cada trabajo, que están encolados y listos para su impresión,
a medida que se vayan quedando libres las impresoras a las cuales se envían los listados.
Otra función importante del subsistema de control de trabajos es asignar los recursos del
sistema necesarios y preparar los trabajos presentados al sistema para su ejecución; y su
liberalización en el proceso de finalización de los mismos.
Los servicios del control de trabajos se activan antes del comienzo de ejecución del paso inicial
del trabajo durante la transición entre pasos y a la terminación del trabajo.
Los servicios del control de trabajos están dirigidos por el programador mediante la codificación
de proposiciones facilitadas por el lenguaje de control de trabajos (JCL) o por el operador del sis-
tema mediante comandos específicos ejecutados desde la consola del sistema.
El JCL es un lenguaje que permite al usuario especificar los requerimientos de diversos recursos
esenciales para la ejecución de los programas y que proporciona un alto grado de independencia y
flexibilidad respecto de la localización física de los ficheros y de los programas entre los múltiples
discos conectados al sistema.

458 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


EXPLOTACIÓN

Una corriente de control es un grupo de proposiciones en secuencia, escritas en lenguaje


de control de trabajos del Sistema (JCL), que definen los procesos incluidos en un trabajo BATCH y
dirigen su ejecución. Gracias a la utilización de procedimientos catalogados, se reduce eficazmente
el esfuerzo normalmente requerido para codificar las sentencias de control de trabajos para procesar
trabajos de frecuente ejecución.
Las corrientes de control de trabajos especifican el orden en que se cargan y ejecutan los pro-
gramas, así como la disponibilidad y asignación de memoria principal y de los equipos periféricos
(discos, cartuchos, o cintas) necesarios. Los trabajos pueden entrar al sistema desde dispositivos
remotos o locales.
Las corrientes de control se leen desde el dispositivo de entrada del sistema (normalmente habrá
varios), y de acuerdo con la prioridad de planificación indicada por el programador se ponen en colas
de espera en discos (SPOOL), para su posterior recuperación y ejecución. Una corriente de control
puede contener datos que se requieran durante la ejecución del trabajo.
Entre los servicios realizados por el control de trabajos se incluyen:
– Gestión del fichero de Spool (almacenamiento intermedio de las corrientes de control de
entrada y de las salidas generadas por los trabajos).
– Planificación, selección e iniciación automática de los trabajos.
– Asignación automática de memoria principal.
– Asignación de dispositivos y ficheros de entrada y salida.
– Recuperación de corrientes de control catalogadas para su modificación y ejecución.
– Control de ejecución de los pasos de un trabajo.
– Reinicio de programas desde puntos de relanzamiento.
– Depuración de especificaciones de control previa a la ejecución de programas.
– Planificación de trabajos adicionales desde dentro del propio trabajo.
– Terminación y borrado de las colas asociadas a los trabajos a su finalización.

7.3. ESTRUCTURA DE UN LENGUAJE DE CONTROL

7.3.1. Sintaxis
Los lenguajes de control de trabajos se denominan mediante la abreviatura JCL (Job Control
Language). Como todo lenguaje tiene una determinada sintaxis, que incluye tres bloques:
– Una marca de comienzo del tipo y nombre de sentencia.
– Una palabra clave que indica al sistema la acción a realizar.
– Unos parámetros que particularizan dicha acción sobre un elemento concreto.
NOTA: en estos apartados utilizaremos como caso práctico el JCL del sistema
operativo MVS de IBM para explicar cada uno de los distintos tipos de sentencias
del JCL.
Cada sentencia de control se divide lógicamente en los cinco campos siguientes:
– Campo identificador: indica al sistema lector de entrada de trabajos el tipo de sentencia.
Tiene asignado la posición 1 y 2 de la ficha de entrada.
– Campo del nombre: viene a continuación del campo identificador de 8 posiciones y asigna
a dicha sentencia un nombre que permitirá al sistema poder referenciarla posteriormente. En
algunos casos, en este campo se le puede asignar cualquier nombre, mientras que en otros
serán nombres predeterminados por el programa que se vaya a ejecutar.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 459


EXPLOTACIÓN

– Campo de operación: sigue al campo de nombre y debe ir precedido y seguido por al me-
nos un espacio en blanco e indica la acción a realizar por el sistema.
Ejemplo:
//NOMTRAB JOB //PASO1 EXEC //ENTRADA DD
JOB indica que comienza las sentencias de control del trabajo NOMTRAB; EXEC in-
dica que comienza las especificaciones para la ejecución de un nuevo paso (programa)
dentro del trabajo; DD indica que es una sentencia de asignación física del fichero cuyo
nombre lógico es ENTRADA dentro del programa que se va a procesar en este paso.
– Campo de parámetros: sigue al campo de operación y continúa uno o más parámetros
separados por comas entre ellos. Se pueden codificar hasta la posición.

7.3.2. Sentencias
La mayoría de los sistemas operativos disponen de un subsistema para procesar instrucciones o
sentencias JCL, para que los programadores realicen alguna de las siguientes funciones:
– Solicitar la ejecución de un programa, asignando los recursos necesarios para su ejecu-
ción (ficheros, parámetros).
– Poner en ejecución trabajo o proceso de varios pasos. Por ejemplo: compilar un programa
fuente, generar los enlaces necesarios (linking), y ejecutarlo.
– Dirigir las salidas generadas en el proceso a unos destinos (ficheros en disco, impresoras
locales o remotas, etc.
– Crear procedimientos de JCl o Scripts. Un procedimiento es un proceso que consta de varias
tareas o pasos encadenados. Se invoca su ejecución con una sola instrucción, simplificando
la construcción del JCL asociado a un trabajo.
– Ejecutar tareas o pasos condicionados al resultado de ejecuciones de pasos anteriores.
Lista de sentencias de JCL:
– COMMAND: Indica la ejecución de un comando del sistema
– DD: Identifica y describe un fichero
– EXEC: Marca el comienzo de un paso de un trabajo
– IF/THEN/ELSE/ENDIF: Sentencias de control de secuencia de pasos
– JCLLIB: Para declarar librerias que contienen procedimientos de JCL para
este trabajo
– JOB: Marca el comienzo de un trabajo, asociandole un nombre
– OUTPUT: Especifica opciones de proceso para la impresión de ficheros de
salida al SPOOL (SYSOUT)
– PEND: Final de las sentencias que forman pare de un procedimiento en linea
– PROC: Marca el comienzo de un procedimiento en linea dentro del propio
JCL del trabajo

7.3.3. Grupos funcionales


Los comandos o sentencias de control de trabajos se subdividen en los siguientes grupos fun-
cionales:
a) Coordinación de los trabajos:
– Identificación y alcance de los trabajos.
– Prioridades de planificación y de ejecución de trabajos.
– Requerimientos de memoria principal.

460 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


EXPLOTACIÓN

– Planificación de un trabajo desde dentro de otro trabajo.


– Reinicio de un trabajo interrumpido.
– Modificación de corrientes de control catalogadas.
– Localización de módulos de código ejecutable.
b) Asignación de dispositivos y ficheros:
– Asignación de dispositivos.
– Identificación de ficheros lógicos con ficheros físicos.
– Liberalización de dispositivos periféricos.
– Creación y gestión de archivos.
c) Operación de los pasos del trabajo:
– Ejecución del programa. Memoria asignada.
– Especificación de datos y parámetros de ejecución para el programa.
– Salto de proposiciones de control. Ejecución de pasos condicionada.
d) Regulación de las características del trabajo:
– Opciones de un paso de trabajo.
– Modo de ejecución de tipo rastreo.
– Comunicaciones entre trabajo y operador.
– Cambio de variables simbólicas (fechas).
– Control de tiempo de ejecución.
– Selección de destinos y características de ficheros de salida.

A) Coordinación de los trabajos


Este grupo de proposiciones de control establece una relación que coordina la ejecución total de
los trabajos. Estas proposiciones pueden especificar información relativa a:
– Identificación y alcance de los trabajos: identifica unívocamente el trabajo e indica sus
puntos de comienzo y terminación.
– Prioridades de planificación: indica que se va a utilizar una de las siguientes prioridades
al planificar un trabajo:
* Normal: se utiliza para planificaciones normales dentro del sistema.
* Alta: para planificaciones rápidas.
* Preferente: para trabajos urgentes que requieren una planificación y ejecución.
* Inmediata.
Dentro de las prioridades, todos los trabajos se planifican para su ejecución sobre la base
del orden de entrada, asignándose memoria principal a los trabajos preferentes mediante la
capacidad de descarga/recarga de memoria (rollout/rollin).
– Requerimientos de memoria principal: el sistema puede calcular automáticamente los
requerimientos de memoria principal de un trabajo si todos los programas que va a ejecu-
tar éste residen actualmente en una librería de carga o están especificados por el usuario
mediante el lenguaje de control de trabajos. El usuario puede opcionalmente especificar un
valor mínimo y otro máximo. El valor mínimo es la memoria básica requerida para ejecutar,
de forma apropiada, todos los programas dentro del trabajo. El valor máximo especifica me-
moria adicional que, si está disponible, pueden utilizar dinámicamente los programas dentro
del trabajo para mejorar y acelerar la ejecución del mismo. Para explotar esta memoria prin-
cipal adicional, los programas deben estar específicamente diseñados para aprovechar las
ventajas de esta asignación, si se produjera.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 461


EXPLOTACIÓN

– Planificación de un trabajo desde dentro de otro trabajo: el JCL del sistema permite al
usuario procesar trabajos en serie. Un trabajo actualmente activo puede solicitar la ejecución
de otro trabajo que reside en la librería permanente. El trabajo solicitado se procesa e intro-
duce en la cola de espera de trabajos inmediatamente después de haberse cargado el pro-
cesador de corrientes de control. También se puede especificar un nuevo nivel de prioridad
para el trabajo llamado y no es preciso que sea el mismo indicado en el trabajo original.
– Reinicio de un trabajo interrumpido: el inicio de un trabajo desde un punto de relanza-
miento especificado en el programa se indica por medio del JCL, dando la información re-
querida del punto de relanzamiento y los recursos necesarios para los pasos recurrentes del
trabajo. El usuario debe establecer los datos del punto de inicio antes de solicitar al control
de trabajos la vuelta de ejecución del trabajo.
– Modificación de corrientes de control catalogadas: las corrientes de control catalogadas
pueden modificarse dinámicamente en tiempo de ejecución. El control de trabajos incorpora
los cambios indicados a la corriente de control recuperada desde la librería en cualquier
momento y puede cambiar las clases dinámicamente.

B) Asignación de dispositivos y ficheros


Este tipo de sentencias de control se utiliza para declarar los dispositivos y los nombres físicos de
los ficheros requeridos para la ejecución de un trabajo. Estas proposiciones pueden especificar:
– Asignación de dispositivos y nombres de fichero: permite, a nivel de cada paso, asignar
dispositivos a los volúmenes, y así crear ficheros en los volúmenes que nos interese.
– Identificación de ficheros lógicos con ficheros físicos: los programas son genéricos, no
se ligan a ficheros concretos. Permite fijar las características físicas de los fichero nuevos
antes de su apertura por parte del programa.
– Liberalización de dispositivos periféricos: al acabar la ejecución de un paso quedan
libres las unidades de cintas y cartuchos, para ser usados por otros trabajos. Puede usarse
retención de volúmenes de un paso a otro, si se va a volver a usar y evitar tiempo de rebo-
binado de cartucho.
– Creación y gestión de archivos: se decide si un fichero en disco se puede compartir con
otros trabajos o si se usa en exclusiva en el paso. Al acabar el paso se determina si el fichero
se da de alta en un directorio de ficheros, si se borra o si se mantiene para la ejecución de
pasos posteriores.

C) Operación de los pasos del trabajo


– Ejecución del programa. Memoria asignada: antes de comenzar a la ejecución del pro-
grama se asignan recursos (memoria, unidades de cartucho, tiempo máximo de ejecución
del programa).
– Especificación de datos y parámetros de ejecución para el programa: los datos de los
parámetros de ejecución del programa se pueden leer desde el propio JCL sin tener que usar
ficheros, mediante una lista de parámetros codificada al invocar al programa o mediante una
ficha de entrada de datos estándar (SYSIN).
– Salto de proposiciones de control. Ejecución de pasos condicionada: dependiendo del
resultado de la ejecución de pasos anteriores se decide si se ejecuta el paso actual antes de
la asignación de sus recursos.

D) Regulación de las características del trabajo


– Opciones globales para todos los pasos de un trabajo. Tales como: destino general de
ficheros de salida por defecto, memoria máxima, librerías de búsqueda de módulos ejecuta-
bles de los programas a ejecutar en cada paso, envío de mensajes de notificación al acabar
el trabajo, nodo de ejecución del trabajo, etc.
– Modo de ejecución de tipo rastreo: se puede especificar un fichero de volcado de infor-
mación para las situaciones de terminaciones anormales, con un identificativo de fichero
determinado (SYSABEND).

462 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


EXPLOTACIÓN

– Comunicaciones entre trabajo y operador: se envían mensajes a la consola del sistema


como consecuencia de solicitudes de recursos (montajes de cartuchos, cintas) identificando
el nombre del trabajo y paso solicitante. Se envía al LOG del sistema mensajes de fin de
ejecución de trabajos.
– Control de tiempo de ejecución: se puede asignar a cada paso un tiempo máximo de
ejecución.
– Selección de destinos y características de ficheros de salida: a los ficheros de im-
presión se les puede asignar distintas clases y formatos de listados así como especificar
destinos de impresión remota.

7.3.4. Procedimientos
Con un procedimiento del JCL se define un proceso que consta de uno o varios pasos. La carac-
terística principal de un procedimiento es el uso de parámetros simbólicos en las sentencias JCL de
dichos pasos o tareas. Con ello, el mismo procedimiento sirve para ejecutarse con diferentes ficheros
al ser asignadas las variables simbólicas por el sistema en el momento de su resolución. De la misma
manera, como un programa puede llamar a otro, un procedimiento de JCL puede llamar a otro del
mismo.

Parámetros simbólicos
Los procedimientos usan variables simbólicas, utilizadas para hacerlos genéricos. Serán sustitui-
das por los valores por omisión del procedimiento, o por los proporcionados por el usuario normal-
mente a la hora de invocarlos, en el momento de la resolución del JCL.
Se especifican en el procedimiento mediante un símbolo &. Por ejemplo &VAR1, &VAR2, etc., y
se codifican los valores por omisión en la sentencia PROC. La secuencia de asignación de valores a
los parámetros es de acuerdo al orden siguiente:
– Valor asignado al invocar al procedimiento.
– Valor especificado con la sentencia // SET.
– El valor por defecto especificado en el propio procedimiento.

Librerías de procedimientos
Las librerías pueden ser del sistema o del usuario. Estas últimas se pueden referenciar en el pro-
pio JCL para su uso, mediante la especificación al comienzo de la cadena de la sentencia // JCLLIB.
De esta forma el subsistema de entrada/salida de trabajos (JES) encargado de localizar los procedi-
mientos, además de buscarlos en las librerías de procedimientos del Sistema, también los busca en
la/s de usuario que se declaren el propio JCL del trabajo.

7.4. EL SUBSISTEMA DE E/S DE TRABAJOS


Para explicar este tipo de función, se va usar como referencia por su uso extendido el incluido
con el sistema operativo de IBM de gran difusión, como es el MVS. Las funciones en otros sistemas
son muy similares, si bien varía la forma de su implementación.

7.4.1. Enlace con el sistema operativo


El Sistema Maestro o Planificador de procesos realiza el arranque de este subsistema, que per-
manecerá permanentemente activado a la espera de recibir peticiones de arranques de trabajos. El
Subsistema descarga al Sistema Principal o Maestro de la gestión de la entrada de trabajos al mismo
y de controlar las salidas impresas producidas por los mismos.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 463


EXPLOTACIÓN

Para comunicarse con el sistema utiliza una interfaz preestablecida con tres componentes:
– Bloques de control, colocados en el núcleo del sistema operativo.
– Macros de definición del protocolo de comunicación interna.
– Rutinas en zonas comunes de memoria precargadas en el arranque del sistema, accesibles
desde cualquier programa.
La definición del subsistema normalmente se efectúa en un miembro de la librería de parámetros
del sistema operativo destinado para ello. El arranque del proceso del propio subsistema, lleva una
serie de parámetros que define los recursos con los cuales va a trabajar, tales como:
– Identificador del o de los ficheros de Spool.
– Clases de los procesos arrancadores de trabajos y su número (iniciadores).
– Impresoras definidas, tanto locales del propia sistema, como las remotas conectadas a
través de líneas.
– Las clases de salida de los trabajos y sus características (tamaño máximo de líneas, destinos
asociados a ellas, etc.).
– Otros nodos de la red con los cuales dialoga para transmitir el arranque de procesos a otra
CPU de sistema operativo IBM (MVS, VSE) y la recepción de la ejecución de dicho trabajo.
– Permitir trabajar en modalidad de fichero de Spool compartido en Sistemas con discos com-
partidos y enlaces vía canal entre ellos (Multi Access Spool). Esta función permite optimizar
los recursos.
También en el arranque se especifica qué librerías contendrán los procedimientos de JCL catalo-
gados, que pueden ser usados como modelos de ejecución parametrizables.
El arranque del Subsistema JES2 permite hacerse en modalidad en “caliente” en la cual se respetan
trabajos que estuviesen en las colas de entrada, o las colas de salidas de los trabajos ya ejecutados y
que no se han reencolado a dispositivos de salida al cerrarse el sistema. Estas colas residen en el fichero
Spool, además de en bloques de control propios del JES2 y de mensajes encolados entre uno y otro
miembro de una configuración compartida (Multi Acces Spool). Al ser un fichero muy accedido, debe
estar situado en discos con buen tiempo de respuesta y distribuirse entre las pistas de varios discos.
Hay algunas situaciones de cambios de parámetros que requieren el que se inicialicen dichas
colas de trabajos y de las tablas de salida; es una arranque en “frío” del Subsistema.
Existen mandatos propios del JES2 que permite hacer la descarga a cartuchos o discos, de las
colas de entrada y salida de trabajos, de forma que se puedan restaurar posteriormente después de
un arranque en frío.
También se le define el nombre del fichero de Checkpoint del JES2, que le sirve entre otras cosas
para hacer el rearranque del propio JES2 y para reenganche de trabajos, cuando se producen condi-
ciones de terminación anormales y el proceso hace uso de las facilidades de reenganche al comenzar
el mismo para reposicionamiento de ficheros en el punto del momento del error. También se utiliza
para comunicación entre distintos JES2 en un entorno compartido, para asegurar la independencia
de operación en el uso conjunto del Spool.
Por integridad se suele definir un fichero de Checkpoint alternativo, que lo utiliza el JES2 durante
el rearranque en caliente para reconstruir el archivo primario de checkpoint y las colas de trabajo en
caso de producirse un error en dicho fichero primario.
En el momento del arranque se le puede cargar una planificación horaria de ejecución de coman-
dos del sistema o de arranque de procesos a determinadas horas del día.

7.4.2. Fases del proceso de un trabajo


El susbsistema JES2 tiene un control continuo sobre los trabajos que se encuentren en el siste-
ma. Cada uno de estos trabajos puede encontrarse en alguno de los siguientes estados:
– Entrada (vía remota Remote Job Entry, o vía lectora local o Internal Reader).
– Conversión.

464 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


EXPLOTACIÓN

– Selección-interpretación-iniciación.
– Salida.
– Borrado (Purge).
Un trabajo a su vez tiene tres tipos de prioridades:
– En la selección.
– En el momento de planificación de la ejecución.
– En la salida.
El Subsistema de Entrada/Salida de Trabajos (JES) procesa un trabajo en varias fases. Cada una
de ellas está controlada por un procesador interno:
– Procesador de Entrada: responsable de leer los trabajos. Todos los trabajos que ingresan
en el sistema se colocan en una cola de lectura. Si el fichero ha de ser procesado por este
JES2, pasará a la cola de conversión, si no, pasará a la cola de transmisión para su posible
envío a otro nodo JES2.
También lee la entrada desde lectoras internas, locales o remotas, cinta o disco, así como detec-
ta y procesa información de contabilidad de trabajos, sentencias de control propias del JES2, y
las sentencias de datos, guarda el JCL del trabajo en el fichero de Spool, así como los mandatos.
Crea una entrada cronológica de trabajos y asigna un número único de trabajo. Asignan prioridad
de selección y coloca al trabajo en la cola de transmisión, conversión o salida.
Las lectoras locales o “READERS RDR” tienen asignadas unas clases de ejecución de traba-
jos y una prioridad máxima y un tiempo necesario estimado como máximo de ejecución.
Todos los trabajos que entrar por vía de internal reader deben comenzar por una sentencia
de comienzo de trabajo: // JOB y finalizar con una sentencia de final /*EOF de JES2, o el
comienzo de otro trabajo // JOB o el cierre del archivo de internal reader donde se coloca el
JCL cuando se genera desde un programa.
También la prioridad de ejecución de los trabajos se puede remplazar a la signada a la clase
de la lectora, por parámetros del propio JCL (fichas /*PRIORITY= o en la ficha JOB paráme-
tro PRTY). Otros parámetros de la definición general del JES2, JOBDEF, permiten definir una
prioridad alta para trabajos importantes, y una prioridad límite baja para trabajos poco prio-
ritarios. La cola de los internals readers se maneja siguiendo una estrategia de cola LIFO.
– Fase de conversión: los trabajos que se han leído se convierten en un formato de texto
interno reconocible por el intérprete y se almacena en el Spool. El JES2 luego invoca al
convertidor para explorar la sintaxis del JCL, pues no todos los errores se detectan en la
entrada.
El trabajo ya convertido queda en la cola de ejecución según su prioridad. Si el trabajo tenía
errores de JCL, se coloca junto con sus mensajes de diagnóstico en la cola de salida para
ser procesado. Durante la fase de conversión:
* Se seleccionan los trabajos.
* Se incluyen procedimientos expandidos en su interior.
* Se sustituyen los parámetros simbólicos.
* Se comprueba la sintaxis de todo el JCL.
* Se convierte el JCL a Texto Interno.
– Fase de ejecución: tras la conversión, los trabajos se encolan según su clase, prioridad,
tiempo en el sistema. Los trabajos se seleccionan de la cola de ejecución, y los no retenidos
se ordenan por prioridad dentro de cada clase. Se puede cancelar la ejecución de trabajos
que superen determinados límites de los datos enviados a la salida: SYSOUT (número de
líneas, páginas, o caracteres).
También, puede controlarse en cuanto al tiempo total transcurrido y por tiempo de CPU de
ejecución. El sistema asigna los recursos a los trabajos (memoria auxiliar, discos, cartuchos,
ficheros existentes) mediante la función Device Allocation.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 465


EXPLOTACIÓN

Las rutinas de asignación del MVS:


* Obtienen información sobre el lugar donde están los ficheros catalogados y reservan el
uso de los diferentes ficheros de trabajo.
* Asignan los dispositivos y/o piden su montaje si fuera necesario.
* Asigna espacio en disco para los ficheros nuevos.
* Llaman al programa como una subtarea.
* Cuando el trabajo está en ejecución va pidiendo diferentes funciones a componentes del
MVS como, por ejemplo:
• Al JES2 para leer o escribir datos en el SPOOL.
• A la gestión de Datos para abrir, cerrar o acceder a los ficheros.
• A la gestión de Programas para llamar a otros módulos.
• A la tarea de Comunicaciones para mandar mensajes o recibir datos desde la con-
sola del operador.
Cuando el programa devuelve el control al sistema, de forma normal o anormal, se produce
una terminación del paso del trabajo, en el cual:
* Se cierran los ficheros que estuvieran abiertos.
* Se liberan los ficheros que no se necesiten en los próximos pasos.
* Se liberan dispositivos usados.
* Se libera la memoria.
* Se registra en el fichero de contabilidad del sistema (SMF), el evento de finalización del paso.
* Se devuelve el control al iniciador que arrancó el proceso.
Al acabar el último paso del JOB se produce una terminación del trabajo y:
* Se liberan los recursos que quedaban asignados o retenidos.
* Se notifica al JES de la terminación del trabajo, para que cambie el estado del JOB.
Hay comandos de operación específicos del JES2 que permiten el manejo y gestión de los y
iniciadores, sus clases, y la retención de trabajos en colas de entrada, cambio de prioridades
de ejecución, cancelación de trabajos, etc.

7.5. GESTIÓN DE SALIDAS DE TRABAJOS

7.5.1. Fase de salida


En esta fase la rutina de WRITER del JES2 se encarga de escribir en las impresoras todas las
salidas SYSOUT del trabajo, así como los mensajes de asignación y desasignación o de diagnóstico
que se produjeron en fases anteriores.
La salida del JES2 puede constar de mensajes de operador, estadísticas del trabajo, mensajes
del MVS/ESA comunicando eventos, y archivos escritos por el programa de aplicación.
Los mensajes de consola se salvan en unos ficheros especiales (SYSLOG), las estadísticas de
cada trabajo se mantienen y actualizan durante la vida del trabajo en un bloque de control.
Se pueden declarar hasta 36 clases de salida, y el procesador de salida mantiene una cola de
salida distinta para cada clase. El procesador de salida analiza las salidas de los trabajos y construye
un conjunto de elementos que representan las peticiones de impresión. Estos elementos constituyen
las colas de salida de los trabajos. El operador puede en cualquier momento cambiar las clases diná-
micamente.
Cada ejecución del procesador de salida supone la transmisión de uno o más archivos residentes
en el Spool a un dispositivo específico.

466 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


EXPLOTACIÓN

Los dispositivos de salida reconocidos por el Subsistema JES2 se definen mediante parámetros
de inicialización a los que se le asigna un nombre lógico, y una dirección física que corresponde a un
dispositivo o emulador que maneja las salidas del Spool.
Tablas de salidas del JOB (JOT): esta tabla contiene todos los elementos de salida de cada
trabajo (JOE). Hay dos tipos de JOE’s:
– JOE de trabajo: representa a un grupo de archivos SYSOUT que pertenecen al mismo tra-
bajo. Están dirigido al mismo destino. Tienen la misma clase SYSOUT de salida. Tienen el
mismo modo de proceso. Están encadenados por prioridad dentro de un destino y de una
clase. La prioridad se adquiere según el número de registros que el JOE representa.
– JOE de características: representa a un conjunto único de características de salida:
* Formulario.
* Juego de caracteres.
* Control de carro.
Los JOEs son creados por el JES2 durante el control de salida, o durante la ejecución en el caso de
archivos Spinoff, que son los que están disponibles para impresión en el momento del cierre del archivo.
Prioridad de salida: la prioridad de salida se calcula según la cantidad de información de salida
generada.
Sentencias de control de salida: con las sentencias //OUTPUT de JCL y /*OUTPUT de JES2 se
fijan las características de impresión dirigidas a unos destinos, tales como número de copias, control
de caracteres, formatos, destino, etc.
El operador de consola dispone de comandos que permiten realizar el control de la impresión
física, funciones tales como: interrumpir la impresora, repetir la salida de un trabajo, asignación de
características, listar información de salida de colas, etc.

7.5.2. Fase de borrado


En esta fase el proceso de PURGE elimina del SPOOL todo lo relacionado con el trabajo, incluso
la entrada de SYSIN que aún permanecía por si se producía algún fallo, o hubiera que rearrancar el
trabajo en un punto determinado.
A continuación se graba en el fichero de actividad del sistema SMF, creando un registro de fin
de trabajo con información de contabilidad para el JOB, número de registros de SYSIN, de salida
SYSOUT, tiempo de proceso entre las diferentes fases del JES, etc.
Envía al LOG del sistema el mensaje de fin de trabajo.

7.6. ENTRADA REMOTA DE TRABAJOS


El componente de entrada remota de trabajos (RJE: Remote Job Entry) permite que esta-
ciones remotas utilicen los servicios del subsistema de control de trabajos (JES2). Hay dos tipos de
soporte remoto:
– Terminal remoto: no tiene procesador, sólo se permite la entrada de trabajos a un sistema
remoto y la recepción de datos de salida enviados por el JES.
– Estaciones remotas de trabajo: tienen un procesador incluido (con su sistema operativo),
en el que se ejecuta un programa generado por el subsistema JES2 que permite al procesa-
dor enviar trabajos y recibir datos de salida. Las estaciones de entrada remota de trabajos
RJE, se definen al sistema de comunicaciones VTAM como unidades lógicas (LU) y físicas
(PU). Se conectarán a través de una línea SNA. Así, pues, hay una conexión lógica que ges-
tiona el JES2 y una conexión física que gestiona el sistema de comunicaciones VTAM para
hacer el transporte de datos.
Para dar soporte a estos dispositivos se asignan unas tareas internas dentro del subsistema JES2
cuando se activan y no se liberan hasta que no se desconectan.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 467


EXPLOTACIÓN

Los ficheros de salida a enviar a estas impresoras remotas se seleccionan con sentencias de JCl
especiales para ello. La operativa de funcionamiento de estos destinos remotos, requiere que la línea
de teleproceso esté activa. También requiere que se ejecute un proceso de logon, con el arranque de
la interfaz entre el JES2 y el VTAM al dispositivo especificado.
Sentencias de control que afectan a los nodos remotos RJE son:
– /*OUTPUT, que define las características de proceso para los ficheros SYSOUT.
– /*ROUTE, que especifica destinos de salida o el nodo de ejecución remota del trabajo.
– /*XEQ, especifica el nodo de ejecución para un trabajo.
– /*XMIT, indica que el JOB o las sentencias de datos van a ser transmitidas a otro nodo JES2.
– /*NETACCT, asigna el identificador de contabilidad para el trabajo en la red.
Otra interfaz del JES2 que permite entrada de trabajos remotos es NJE (Network Job Entry). En
este caso se interconectan el SPOOL de dos sistemas operativos IBM, no siendo necesario que sean
los mismos, por ejemplo pueden ser un MVS y un VSE/ESA.
El enlace entre sistemas puede ser vía canal (Channel to Channel, o vía línea de comunicaciones,
en cuyo caso usa el protocolo de comunicaciones SDLC-SNA de IBM). En esta situación de conexión
en red se puede introducir un trabajo desde cualquier dispositivo remoto, o a través de cualquier inter-
faz interna de cualquier nodo en la red, de acuerdo con las especificaciones de destino del trabajo.
Los ficheros de salida SYSOUT’s se distribuyen de acuerdo al JCL (destinos de impresoras remotas).
Los mensajes y comandos de operador le permiten a éste:
– Localizar y suspender un trabajo en otro nodo.
– Liberar y cancelar un trabajo suspendido en otro nodo.
– Enviar mensajes y comandos a la consola del otro nodo.
EL NJE soporta hasta 999 nodos situados en procesadores repartidos geográficamente. Para
evitar que se produzcan desbordamientos de trabajos enviados por otros nodos, existen unos paráme-
tros llamados de resistencia de un Nodo (RESTNODE), que limita el flujo de trabajos en la red.
Una de las facilidades incorporadas con NJE, sería el que una aplicación de un Sistema local
generase un JCL de un trabajo para ejecutarse en un nodo remoto donde se encuentran los datos a
procesar, y generar un listado cuya salida se especificaría que fuera dirigida al Nodo local originante
para ser impreso en las propias impresoras locales.
Otra facilidad para las que se utiliza, con entornos remotos de sistemas operativos IBM, es para
distribución de listados, o implantación de cambios desde un nodo Central de desarrollo que envía la
solicitud de ejecución del proceso de implantación en el Nodo Remoto.

7.7. FUNCIONES AVANZADAS


7.7.1. Encadenamientos mejorados de pasos
Una mejora incorporada a las sentencias de control de trabajos ha sido la inclusión de un grupo
de sentencias: // IF/THEN/ELSE/ENDIF, que permite realizar anidamientos de secuencias de pasos de
ejecución para comprobar los códigos de condición de pasos anteriores de un mismo trabajo (hasta el
límite de 255 pasos dentro de un trabajo). Esta facilidad da más versatilidad para encadenamientos
de procesos y claridad mediante la estructuración de la secuencia de pasos condicionados.

7.7.2. Arranque de trabajos desde un planificador


La incorporación de un planificador de trabajos permite que el arranque de cadenas de trabajos
se mejore en varios aspectos; entre ellos cabe mencionar:
– Establecimiento de sucesores y predecesores de trabajos, creando lo que se llama un
esquema de planificación de una aplicación, sin que tenga que intervenir el operador,
revisando el resultado de la ejecución del trabajo predecesor para decidir qué trabajo va a
ejecutar a continuación; o incorporar cadenas de recuperación en caso de terminaciones
anormales de forma automática.

468 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


EXPLOTACIÓN

– Arranque automático de acuerdo con un calendario establecido para cada trabajo.


– Arranque condicionado a que se verifiquen unos determinados eventos, capturados de la
situación del sistema (disponibilidad de recursos, de subsistemas, etc.).
– Facilidad para revisar el resultado de la ejecución de procesos Batch, con la integración de
un fichero de seguimiento de entrada y salida de trabajos propios, a parte del SPOOL del
sistema.
– Gestión de incompatibilidades entre trabajos.
La forma de poder gestionar estas funciones, además de la propia estructura del planificador,
necesita interceptar la carga al fichero de SPOOL de las entradas de los trabajos así como recuperar
los códigos de condición de finalización de trabajos, para decidir sobre un trabajo planificado en qué
momento y bajo qué condiciones se envía a ejecución del Sistema y además la incorporación de
algún paso inicial o de terminación en los propios JCL de forma automática.

7.7.3. Appc: arranque de trabajos servidores batch


Esta forma de arrancar trabajos en el sistema MVS, consiste en la utilización de un protocolo de
diálogo programa, mediante el cual un programa local o remoto envía una petición de arranque de un
proceso servidor BATCH (ASCH), previamente parametrizado como tal servicio. Al finalizar la ejecución
del trabajo el sistema envía la contestación de la terminación normal o anormal del trabajo. El envío
de las salidas al destino remoto se podría gestionar mediante el uso de impresoras remotas.
La ventaja de este método es que el nodo solicitante del servicio no tiene por qué ser un sistema
IBM, sino otro cualquiera que soporte el protocolo “estandarizado” APPC.

7.7.4. Arranque de procesos batch desde servicios en línea


En este caso el arranque de trabajos en el sistema o gestión de salidas de ficheros del SPOOL
del sistema, se produce por alguno de los siguientes métodos:
– Por una interfaz propia entre el gestor transaccional y el subsistema de control de trabajos.
– Por la grabación sobre un fichero declarado al gestor transaccional como función de lectora
interna.
– Mediante el uso de interfaz externa del gestor transaccional.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 469


TEMA
12

Medidas de seguridad de una instalación


y de los soportes de información

Muchas organizaciones, públicas o privadas, confían el soporte de gran parte


de su actividad a los sistemas de información. El problema de la seguridad de los
Sistema de Información surge por la existencia de riesgos relativos a la pérdida o
exposición incontrolada de los datos que dichos sistemas almacenan.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 471


MEDIDAS DE SEGURIDAD DE UNA INSTALACIÓN Y DE LOS SOPORTES DE INFORMACIÓN

ESQUEMA INICIAL

1. Introducción y definiciones

2. Riesgos
2.1. Amenazas de la seguridad
2.2. Riesgos no intencionados
2.3. Riesgos intencionados
2.4. Análisis y gestión de riesgos

3. Plan de contingencia
3.1. Plan de Emergencia
3.2. Plan de Recuperación
3.3. Plan de Respaldo

4. Seguridad física
4.1. Prevención y detección de fuego
4.2. Fallos producidos por agua
4.3. Aspectos eléctricos
4.4. Acciones malintencionadas
4.5. Climatización
4.6. Dispositivos de seguridad física
4.6.1. Sistemas de Alimentación Ininterrumpida (SAI)
4.6.2. Centros de Respaldo
4.6.3. Tarjetas de seguridad
4.6.4. Mochilas

5. Seguridad lógica
5.1. Diseño y desarrollo de aplicaciones
5.2. Implantación y puesta a punto
5.3. Explotación regular
5.4. Controles lógicos de acceso
5.4.1. Identificación y autenticación
5.4.2. Roles o perfiles
5.4.3. Ubicación y horario
5.4.4. Transacciones
5.4.5. Limitaciones a los servicios
5.4.6. Modalidad de acceso
5.5. Control de acceso interno
5.5.1. Palabras clave
5.5.2. Encriptación
5.5.3. Diccionarios de seguridad
5.5.4. Límites sobre la interface de usuario
5.5.5. Etiquetas de seguridad

472 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


MEDIDAS DE SEGURIDAD DE UNA INSTALACIÓN Y DE LOS SOPORTES DE INFORMACIÓN

5.6. Control de acceso externo


5.6.1. Dispositivos de control de puertos
5.6.2. Firewalls o puertas de seguridad
5.7. Control de virus

6. Administración del personal


6.1. Organización del personal
6.2. Administración de usuarios

7. Criptografía
7.1. Introducción
7.2. Encriptado convencional
7.3. Algoritmos de encriptado
7.4. Localización del encriptado
7.5. Relleno de tráfico
7.6. Distribución de claves
7.7. Claves simétricas
7.8. Claves asimétricas
7.9. Firmas digitales

8. Seguridad en redes
8.1. Ataques pasivos
8.2. Ataques activos
8.3. Autentificación de mensajes y funciones de mezcla (hash)
8.4. Asociaciones de seguridad
8.5. Encapsulado de seguridad de la carga útil

9. Copias de seguridad
9.1. Necesidades
9.2. Tipos de backup
9.3. Proceso de recuperación
9.4. Planificación
9.4.1. Planificación mínima sin rotación
9.4.2. Rotación de mínima seguridad
9.4.3. Rotación de seguridad ligera
9.4.4. Rotación de seguridad media
9.4.5. Rotación de seguridad máxima
9.5. Dispositivos de almacenamiento

10. La metodología MAGERIT


10.1. Introducción y definiciones
10.2. Objetivos de MAGERIT
10.3. Tipos de proyectos
10.4. Estructura de MAGERIT
10.4.1. Submodelo de Elementos
10.4.2. Submodelo de Eventos
10.4.3. Submodelo de Procesos
10.5. Tipos de técnicas

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 473


MEDIDAS DE SEGURIDAD DE UNA INSTALACIÓN Y DE LOS SOPORTES DE INFORMACIÓN

1. INTRODUCCIÓN Y DEFINICIONES
Por Seguridad Informática se entiende un conjunto de técnicas y procedimientos que garantiza:
– Disponibilidad de la información: evitar pérdidas de datos o la imposibilidad de procesarlos.
– Integridad del sistema: utilización de la información más actualizada, exacta, autorizada y
completa.
– Confidencialidad de los datos: garantizar el acceso de cada persona a la información que
le corresponde, manipulándola según restricciones preestablecidas.
– Responsabilidad: asociación positiva de un proceso con su fuente de autorización, de
modo que los usuarios sean los responsables de las acciones que realizan.
– Auditabilidad: estadísticas sobre aspectos como entradas al sistema, uso de recursos,
acciones de los usuarios, etc.
– Usabilidad: no deben existir restricciones inaceptables a los usuarios, ni afectar negativa-
mente a la eficiencia del sistema de información.
Otros servicios más avanzados y específicos sobre documentos y transacciones son:
– Servicios de no-repudio: impiden que una persona niegue haber recibido un documento
electrónico. Estos servicios sustituyen la firma manuscrita, pero de forma mucho más segura.
– Reclamación de origen: contrapartida del servicio anterior. Permite probar quién es el crea-
dor de un determinado documento.
– Reclamación de propiedad: determina la propiedad de un determinado documento. Se
usa en transacciones mercantiles, donde la posesión de un documento concede ciertos
derechos a su poseedor.
– Intercambio equitativo de valores: muy importante en aquellas operaciones comerciales
o mercantiles en las que la cesión de un documento por una de las partes supone la recep-
ción de otro documento a cambio, como en el intercambio de contratos y en la realización
de pagos. El servicio garantiza que la transacción se realiza en los términos acordados o que,
en caso contrario, la parte en desacuerdo recuperará los documentos que haya entregado.
– Certificación de fechas: en las comunicaciones electrónicas este servicio es el equivalente
al certificado de fecha y/u hora a la que se ha realizado o entregado un determinado docu-
mento.
La seguridad informática se puede estudiar bajo dos aspectos, ambos muy relacionados y com-
partiendo objetivos y presupuestos:
– Seguridad física: conjunto de mecanismos y normas encaminados a la protección de las
personas, las instalaciones, los equipos y los elementos de comunicaciones contra daños
eventuales.
– Seguridad lógica: conjunto de operaciones y técnicas orientados a la protección de la informa-
ción contra la destrucción, la modificación, la divulgación indebida o el retraso en su gestión.
Actualmente se aborda la seguridad de los sistemas de información de forma integral, teniendo
en cuenta la variedad de los servicios ofrecidos por estos sistemas y la complejidad de las comunica-
ciones. La actividad en el campo normalizador es intensa y está destinada a combatir las amenazas
a la seguridad de la información y agilizar la compartición de datos y recursos. El análisis de riesgos
es un elemento principal de los estudios relativos a la seguridad: identifica los factores de riesgo y su
impacto en la organización.
A continuación se exponen las tareas necesarias para alcanzar una buena política de seguridad:
– Análisis de riesgos: consiste en la determinación exhaustiva y cuantitativa de los riesgos
a que está expuesta una organización identificando además sus tipos. El análisis de riesgos
es una estimación de la probabilidad de ocurrencia de cada uno de los riesgos detectados,
teniendo en cuenta que no existen riesgos y probabilidad asociados de modo estándar, sino
que éstos dependen de las características de cada instalación. Para determinar esta proba-
bilidad de ocurrencia de riesgos, se establecen unos niveles relativos de probabilidad o se
recurre a las estadísticas de la instalación.

474 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


MEDIDAS DE SEGURIDAD DE UNA INSTALACIÓN Y DE LOS SOPORTES DE INFORMACIÓN

– Análisis de criticidad: define un ranking de elementos críticos (aplicaciones, bases de ba-


tos, software de base, equipos centrales, periféricos, comunicaciones) según el impacto que
su malfuncionamiento causaría en la operatividad general del sistema.
Este análisis se realiza para distintos valores crecientes en una escala de tiempos, quedan-
do ordenados dichos elementos conforme al tiempo máximo durante el que pueden estar
inoperables a causa de un fallo. Algunos de estos elementos no son uniformemente críticos,
existiendo fechas concretas en las que es esencial disponer de ellos.
– Niveles aceptables de seguridad: equilibrio entre las técnicas a emplear y su coste frente
a los beneficios a obtener. Por tanto, para cada riesgo hay que cuantificar:
* Los daños que puede ocasionar y sus costes.
* Los costes de implantación y mantenimiento de las técnicas apropiadas para evitar el
riesgo.
– Elección de medidas: selección de las medidas de seguridad que permitan alcanzar los
objetivos fijados, con dos aspectos fundamentales:
* Prevención: minimizan la probabilidad de ocurrencias de incidentes.
* Corrección: reducen los daños cuando ocurre un riesgo.

2. RIESGOS

2.1. AMENAZAS DE LA SEGURIDAD


Existen cuatro categorías generales de agresión a la seguridad de un sistema informático:
– Interrupción: un recurso del sistema se destruye o no llega a estar disponible o se inutiliza.
Esta es una agresión de disponibilidad. Ejemplos: destrucción de un disco duro, ruptura de
una línea de comunicación, etc.
– Intercepción: un sujeto no autorizado consigue acceder a un recurso. Esta es una agresión
a la confidencialidad. El ente no autorizado puede ser una persona, un programa o un orde-
nador. Ejemplos: intervención de las líneas, copia ilícita de ficheros o programas, etc.
– Modificación: un sujeto no autorizado no sólo gana acceso, sino que deteriora el recurso.
Esta es una agresión a la integridad. Ejemplos: cambios de valores en un fichero de datos,
alteración de un programa para que funcione de una forma diferente, etc.
– Fabricación: una parte no autorizada inserta objetos falsos en el sistema. Esta es una agre-
sión a la autenticidad. Ejemplos: inclusión de mensajes espurios en una red o incorporación
de registros a un fichero.

2.2. RIESGOS NO INTENCIONADOS


– Desastres naturales e incendios.
– Averías en los equipos informáticos.
– Averías en las instalaciones eléctricas o interrupciones en el suministro.
– Averías de climatización.
– Perturbaciones electromagnéticas.
– Errores en la introducción, transmisión y utilización de los datos.
– Errores de explotación.
– Errores de diseño y realización de las aplicaciones (errores lógicos).

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 475


MEDIDAS DE SEGURIDAD DE UNA INSTALACIÓN Y DE LOS SOPORTES DE INFORMACIÓN

2.3. RIESGOS INTENCIONADOS


– Fraudes.
– Sabotajes.
– Sustracción de algún elemento del Sistema.
– Huelga y marcha de personal estratégico.
– Difusión o salida incontrolada de información al exterior.
Frente a los riesgos potenciales expuestos se pueden adoptar las siguientes posturas:
– Aceptar el riesgo.
– Transferir el riesgo contratando seguros.
– Evitar el riesgo mediante la elaboración y puesta en marcha de un Plan de Seguridad Infor-
mática.

2.4. ANÁLISIS Y GESTIÓN DE RIESGOS


El análisis de riegos es un elemento fundamental para determinar las medidas de seguridad de
un sistema de información, ya que identifica los riesgos de dicho sistema y estima el impacto poten-
cial que supone su propia destrucción o la pérdida de disponibilidad, confidencialidad e integridad de
la información que almacena. Implica:
– La evaluación del impacto de violación de seguridad sobre la organización.
– La identificación de amenazas que podrían afectar el sistema informático.
– La determinación de la vulnerabilidad del sistema a dichas amenazas.
La gestión de riesgos es un proceso separado que utiliza los resultados del análisis de riegos
para seleccionar e implantar las medidas de seguridad adecuadas para controlar los riesgos, amena-
zas y vulnerabilidades identificados en el sistema, de manera que los medios de seguridad puedan
ser distribuidos eficazmente para reducir al mínimo las posibles pérdidas.
Un análisis de riesgos proporciona a los responsables de la organización la información sobre la
cual basar sus decisiones. Existen diversos métodos para realizar un análisis de riesgos, pero todos
pueden clasificarse en:
– Análisis de riesgos cuantitativo: sus características son la sistemática cuantificación de
las vulnerabilidades y la determinación del diseño de las contramedidas que reducen las ex-
posiciones. Permite establecer una valoración objetiva del impacto (económico, porcentaje
de fallos, etc.).
– Análisis de riesgos cualitativo: más informal que el anterior y, por tanto, requiere menos
tiempo y recursos. Se efectúa en casos donde no es posible una cuantificación del valor
de la información. Establecer una valoración subjetiva del impacto (p. ej.: un impacto alto,
medio o bajo).
El análisis de riesgos es una tarea que se realiza periódicamente con el fin de tener al día los
cambios en amenazas, instalaciones, material y demás cambios organizativos. Como recurso más
importante se requiere personal altamente cualificado. Por esta razón, el primer análisis de riesgos
para una organización será el más caro. Posteriores actualizaciones pueden basarse, en parte, en el
trabajo previamente realizado y por consiguiente el tiempo y recursos necesarios se reducen.
Es importante que el responsable del equipo o algunos de los miembros tengan experiencia
previa en la realización de análisis de riesgos. En caso contrario, como alternativa existen empresas
con experiencia en estos análisis. Por otro lado, existen instrumentos automatizados de análisis de
riesgos sobre PCs. Tienen la ventaja de un fácil registro, manipulación y acceso de la información
recopilada; capacidad de ver los efectos de las combinaciones de las contramedidas sobre la pérdida
de existencias físicas y de información; y capacidad de introducir cambios rápidos en el entorno de
riesgos e identificar cambios en la situación de riesgo de la organización.

476 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


MEDIDAS DE SEGURIDAD DE UNA INSTALACIÓN Y DE LOS SOPORTES DE INFORMACIÓN

El éxito de un análisis de riesgos depende, en gran medida, del papel que desempeñan en el
proyecto los directivos, que deberá consistir en:
– Apoyo al proyecto, expresado a todos los niveles de la organización.
– Explicación por parte de la Dirección del objetivo y alcance del análisis de riesgos.
– Selección de un equipo cualificado y delegación formal en él de la autoridad y responsabilidad.
– Examen y aprobación por la Dirección de los hallazgos del equipo encargado del análisis de
riesgos.
El producto final de un análisis de riesgos es una lista de contramedidas de seguridad (planes
de contingencias) recomendadas para dotar de una protección adecuada al SI. Siempre existirá
algún riesgo remanente: situación de riesgo sin ningún tipo de contramedida o control, ya sea por
razones técnicas (imposibilidad práctica) o de índole económica (el coste del control es mayor que el
coste del posible daño que evita).

3. PLAN DE CONTINGENCIA
Las medidas de corrección se plasmarán en un Plan de Contingencia, con los siguientes objetivos
principales:
– Minimizar las interrupciones en la operación normal.
– Limitar la extensión de las interrupciones y de los daños que originen.
– Posibilitar una vuelta al servicio rápida y sencilla.
– Ofrecer a los empleados unas normas de actuación frente a emergencias.
– Dotar de medios alternativos de proceso en caso de catástrofe.
Para garantizar la validez del Plan y que no quede obsoleto, debe ser revisado periódicamente. Además,
para que sea efectivo, es necesario entrenar al personal encargado de su realización efectuando situaciones
simuladas. En la elaboración del Plan debe participar personal de distintos niveles de la Organización:
– Dirección.
– Técnicos de Explotación.
– Técnicos de Desarrollo.
– Personal de Mantenimiento.
– Usuarios.
– Proveedores.
El Plan de Contingencia recoge, en forma de planes unitarios, las respuestas a los diferentes
problemas que se pueden plantear. Los planes unitarios se estudian a continuación.

3.1. PLAN DE EMERGENCIA


Guía que recoge las normas de actuación durante o inmediatamente después de cada fallo o
daño. Para cada incidente, leve o grave, se determinarán:
– Acciones inmediatas:
* Seguridad física: parar equipos, dar aviso y/o activar o desactivar alarmas, emplear
extintores, llamar a mantenimiento, etc.
* Seguridad lógica: parar el ordenador central, periféricos o comunicaciones, llamar al
jefe de sala, lanzar salvaguardas, etc.
– Acciones posteriores:
* Seguridad física: acciones de salvamento, valoración de daños, elaboración de infor-
mes, etc.
* Seguridad lógica: relanzar procesos, relanzar el sistema operativo, valorar los daños
causados, usar copias de seguridad en soportes alternativos, saltar procesos, etc.
– Asignación de responsabilidades: se asignarán responsabilidades tanto para las acciones
primarias como para la coordinación de tareas.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 477


MEDIDAS DE SEGURIDAD DE UNA INSTALACIÓN Y DE LOS SOPORTES DE INFORMACIÓN

3.2. PLAN DE RECUPERACIÓN


Desarrolla las normas para reiniciar todas las actividades del proceso en el propio Centro de
Proceso de Datos o en un Centro de Respaldo. Para la recuperación en el propio centro se incluyen
normas referentes a:
– Activación de equipos duplicados o auxiliares (si no es automática).
– Uso de soportes de procesamiento alternativos.
– Acciones de mantenimiento y/o sustitución de equipos dañados.
– Uso de las copias de seguridad.
Para la recuperación en un centro de respaldo, se incluyen:
– Definición de procedimientos, según si la caída del sistema sea debida a errores de datos,
del operador, del equipo, del sistema operativo, de las aplicaciones, o por daños físicos.
– Política de traslados al centro de respaldo y vuelta al centro inicial.
– Recuperación del sistema operativo.
– Relanzamiento de la operación, reanudando el proceso desde la última salvaguarda, si es
necesario.
– Revisión de la planificación de la operación, incluyendo los programas de pruebas interme-
dios que sean necesarios.

3.3. PLAN DE RESPALDO


En esta parte del Plan de Contingencias se especifican todos los elementos y procedimientos preci-
sos para operar en el centro de respaldo (si existe), y mantener en él la seguridad de la información:
– Configuración del equipo y las comunicaciones.
– Sistema operativo y opciones.
– Soporte humano: operadores, programadores, analistas, etc.
– Soporte técnico: equipos auxiliares, de proceso, administrativos, etc.
– Inventario de suministros: documentación, formularios, etc.
– Modo de generar el sistema operativo.
– Reglas específicas de operación.
– Conexionado y utilización de los servicios de telecomunicación y periféricos.
– Mantenimiento o modificación de las restricciones de accesos lógicos directos o indirectos.
– Gestión de la seguridad, con especial hincapié en las modificaciones de palabras de paso,
identificación de usuarios, etc.

4. SEGURIDAD FÍSICA
Las medidas que garantizan la seguridad física son las siguientes:

4.1. PREVENCIÓN Y DETECCIÓN DE FUEGO


– Instalación de equipos de control de temperatura.
– Disposición estratégica de extintores y detectores de humos.
– Tabicado de hormigón, con mamparas y puertas ignífugas.
– Separación estratégica de productos inflamables. Por ejemplo, evitar almacenamiento de
papel en la sala de ordenadores.

478 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


MEDIDAS DE SEGURIDAD DE UNA INSTALACIÓN Y DE LOS SOPORTES DE INFORMACIÓN

– Instalación y visualización de, al menos, una puerta de emergencia.


– Corte automático del aire acondicionado.
– Ubicación de las copias de backup en compartimentos ignífugos.
– Disponer de un plan de evacuación de personas.
– Prohibición estricta de fumar.

4.2. FALLOS PRODUCIDOS POR AGUA


– Detectores de agua.
– Existencia de un trazado de salida de agua.
– Instalación de cableado impermeabilizado.
– Instalación de equipos de bombeo de agua autónomos.
– Supresión de tuberías que pasen por el techo de la sala.

4.3. ASPECTOS ELÉCTRICOS


– Contar con dos acometidas independientes.
– La iluminación debe tener una acometida diferente a la de los equipos.
– Disponer de generadores propios y estabilizadores de corriente.
– Enterramiento del cableado.
– Alumbrado de emergencia.

4.4. ACCIONES MALINTENCIONADAS


– Disponer de un servicio de seguridad.
– Instalar sistemas de televisión y alarmas.
– Establecer criterios de acceso del personal a las instalaciones, la sala de ordenadores y
ciertos dispositivos.
– Identificación fiable de las personas.

4.5. CLIMATIZACIÓN
– Sistemas independientes en la sala de ordenadores del resto del edificio.
– Control de humedad y temperatura.
– Protección contra el polvo.

4.6. DISPOSITIVOS DE SEGURIDAD FÍSICA

4.6.1. Sistemas de Alimentación Ininterrumpida (SAI)


Los dispositivos eléctricos y electrónicos que protegen de las anomalías del suministro eléctrico son:
– Estabilizadores de tensión: fijan el valor de la tensión eléctrica dentro de unos márgenes.
– Filtros: eliminan los ruidos eléctricos, seleccionando la energía de la frecuencia deseada
rechazando la de frecuencias indeseadas.
– Transformadores-separadores de aislamiento: suprime los picos de tensión.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 479


MEDIDAS DE SEGURIDAD DE UNA INSTALACIÓN Y DE LOS SOPORTES DE INFORMACIÓN

Ninguna de estas soluciones resuelve totalmente el problema. Una solución global para todas
las deficiencias de la red son los Sistemas de Alimentación Ininterrumpida (SAI), que construyen una
onda de alimentación con unas características de precisión y distorsión mínimas, independiente del
comportamiento de la red eléctrica. Además disponen de baterías que aseguran el suministro durante
el tiempo necesario para hacer un apagado lógico del SI y evitar cualquier corrupción de éste. Se trata
pues de una interfaz entre la red eléctrica comercial y el sistema que debe proteger.
Existen fundamentalmente dos tipos de SAI:
– SAI on-line: la línea principal de alimentación pasa por la máquina SAI, que suministra la
intensidad de corriente necesaria para el correcto funcionamiento del equipo físico.
– SAI off-line: el SAI está conectado a una línea alternativa de alimentación. Cuando el SAI detec-
ta un fallo, la línea principal queda sin servicio y entra en funcionamiento la línea alternativa.
La diferencia más significativa es que los SAI off-line permanecen más tiempo en período de carga.
Ya que no aprovechan la línea de alimentación principal para recargarse, como hacen los SAI on-line.
Ultimamente han evolucionado los SAI con características inteligentes: posibilidad de comunicar-
se con el equipo al que dan servicio, desconexión automática si se corrige la situación que disparó
su funcionamiento, etc.

4.6.2. Centros de Respaldo


Son instalaciones de una organización (independientes de sus propios CPDs) que aseguran la
capacidad de proceso suficiente en caso de desastre en algún CPD. Si ocurre un desastre, el personal
podrá desplazarse al CPD de respaldo y continuar trabajando mientras se soluciona el problema.
La utilización de los centros de respaldo debe determinarse en el plan de contingencias. Estas ins-
talaciones pueden ser propiedad de la organización o proporcionarlos una empresa de servicios. Cada
organización debe decidir, una vez realizado el análisis de riesgos, una de las dos modalidades.

4.6.3. Tarjetas de seguridad


Son dispositivos físicos similares a las tarjetas de crédito que se utilizan como parte del control de
acceso a las instalaciones donde residen los sistemas de información de una organización.
Las tarjetas de seguridad inteligentes merecen una mención especial, ya que incorporan circuitos
electrónicos avanzados (en tecnología planar), donde se guardan ciertos procesos y algoritmos e in-
formación del usuario (horario de trabajo, niveles de acceso y otros). Además almacenan un conjunto
de códigos o claves que dependen del número de identificación del empleado y que dificultan la
duplicación o suplantación de la tarjeta. Muchos sistemas de seguridad actuales están incorporando
este tipo de dispositivos debido a su flexibilidad y bajo coste.

4.6.4. Mochilas
Es la combinación de un dispositivo físico de reducidas dimensiones, que se coloca en los co-
nectores de E/S de los PCs o estaciones de trabajo, y una utilidad de equipo lógico. Su objetivo es
obstaculizar la copia ilegal de software, evitando que las copias funcionen.
Internamente una mochila está formada por circuitos electrónicos que utilizan cifrados y compli-
cados algoritmos. El dispositivo físico y la utilidad están comunicándose en todo momento, de manera
que impide el funcionamiento de la copia ilegal si no se dispone del dispositivo físico.

5. SEGURIDAD LÓGICA
La seguridad lógica se estudia en las diferentes fases del ciclo de vida de un sistema informático:
– En fase de diseño y desarrollo de aplicaciones.
– En fase de implantación y puesta a punto.
– En fase de explotación regular.

480 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


MEDIDAS DE SEGURIDAD DE UNA INSTALACIÓN Y DE LOS SOPORTES DE INFORMACIÓN

5.1. DISEÑO Y DESARROLLO DE APLICACIONES


– Adecuada selección, formación y motivación del personal informático.
– Adecuado grado de calidad y detalle en toda la documentación necesaria.
– Introducir controles de protección en los programas y ficheros de datos, para evitar la modi-
ficación accidental de éstos durante algún proceso.
– Borrado de memorias y ficheros de trabajo, de datos y programas confidenciales tras su
procesamiento.
– Incluir en la programación controles que prevean errores en la introducción y captura de
datos.

5.2. IMPLANTACIÓN Y PUESTA A PUNTO


– Realización de pruebas exhaustivas con todos los programas, utilizando juegos de ensayo
completos.
– Normalizar los procedimientos de paso de las aplicaciones a explotación, utilizando librerías
independientes.

5.3. EXPLOTACIÓN REGULAR


– Controlar el estricto cumplimiento de la normativa y procedimientos de operación establecidos.
– Realizar copias de backup protegiéndolas de acciones perjudiciales.
– Establecer y controlar los canales de distribución de documentación.
– Limitar el acceso del personal al Centro según sus tareas.
– Definir los niveles de importancia de los datos para establecer el acceso a librerías y Bases
de Datos:
* Fundamentales. Información vital para la organización.
* Importantes. Información que puede ser regenerada pero que generaría un gran trastorno.
* Complementaria. Información fácilmente reproducible y de poca incidencia.
– Preparar procedimientos automáticos de explotación que reduzcan al máximo la intervención
de los operadores.
– Mantener actualizado un registro de incidencias derivadas del uso del sistema.

5.4. CONTROLES LÓGICOS DE ACCESO


Estos controles proveen medidas técnicas para encauzar la información a la que los usuarios
pueden acceder, los programas que pueden ejecutar y las modificaciones que pueden realizar sobre
los datos que almacena el sistema de información.
La implementación de este tipo de controles permitirá restringir los accesos de acuerdo con los
requerimientos de procesamiento de los usuarios de las distintas áreas de la organización (quién
puede acceder a qué datos), indicando el tipo de acceso permitido.
Los controles lógicos de acceso pueden implementarse en el sistema operativo, sobre los siste-
mas de aplicación, en otros programas como el administrador de base de datos, o bien podrían estar
incluidos en un paquete específico de seguridad.
Constituyen una importante ayuda para proteger al sistema operativo de la red, al sistema de
aplicación y demás software de la utilización o modificaciones no autorizadas, para mantener la in-
tegridad de la información, restringiendo la cantidad de usuarios y procesos con acceso permitido, y
para resguardar la información confidencial de accesos no autorizados.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 481


MEDIDAS DE SEGURIDAD DE UNA INSTALACIÓN Y DE LOS SOPORTES DE INFORMACIÓN

5.4.1. IDENTIFICACIÓN Y AUTENTICACIÓN


Para la mayoría de los sistemas constituye la primera línea de defensa y permite prevenir el
ingreso de personas no autorizadas a un sistema informático. Es la base para la mayor parte de los
controles de acceso y para el seguimiento de las actividades de los usuarios.
Se denomina identificación al momento en que el usuario se da a conocer en el sistema, y au-
tenticación a la verificación que realiza al sistema sobre esta identificación.
Existen tres tipos de técnicas que permiten realizar la autenticación de la identidad del usuario,
las cuales pueden ser utilizadas individualmente o combinadas:
– Algo que solamente el individuo conoce: por ejemplo, una clave secreta de acceso o pas-
sword, una clave criptográfica, un número de identificación personal, etc.
– Algo que la persona posee: por ejemplo, una tarjeta magnética.
– Algo que el individuo es y que lo identifica unívocamente: por ejemplo, las huellas digitales,
los patrones de escritura o de la voz, etc.

5.4.2. Roles o perfiles


El acceso a la información también puede controlarse a través del perfil o rol del usuario que re-
quiere el acceso a la información. Algunos ejemplos de roles serían los siguientes: programador, líder
de proyecto, gerente de un área usuaria, administrador del sistema, etc. En este caso los derechos
de acceso pueden agruparse de acuerdo con el rol de los usuarios.

5.4.3. Ubicación y horario


El acceso a determinados recursos del sistema puede estar basado en la ubicación física o ló-
gica. Además se pueden asociar accesos a dichas ubicaciones físicas en función de un determinado
horario, limitando la entrada de los usuarios a determinadas horas del día o días de la semana.

5.4.4. Transacciones
También pueden implementarse controles a través de las transacciones, por ejemplo solicitando
una clave al requerir el procesamiento de una transacción determinada.

5.4.5. Limitaciones a los servicios


Restricciones dependientes de la utilización de una aplicación o preestablecidos por el adminis-
trador del sistema. Un ejemplo podría ser la posesión de licencias para la utilización simultánea de
una aplicación por cinco personas, donde exista un control a nivel sistema que no permita el acceso
a un sexto usuario.

5.4.6. Modalidad de acceso


Modo de acceso que se permite al usuario sobre la información. Esta modalidad puede ser:
– Lectura: el usuario puede leer o visualizar la información pero no puede alterarla. Debe
considerarse que la información puede ser copiada o impresa.
– Escritura: permite agregar datos, modificar o borrar información.
– Ejecución: otorga al usuario el privilegio de ejecutar programas.
– Borrado: eliminar recursos del sistema (programas, campos de datos o archivos).
Además existen otras modalidades de acceso especiales, que generalmente se incluyen en los
sistemas de aplicación:

482 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


MEDIDAS DE SEGURIDAD DE UNA INSTALACIÓN Y DE LOS SOPORTES DE INFORMACIÓN

– Creación: permite al usuario crear nuevos archivos, registros o campos.


– Búsqueda: permite listar los archivos en in directorio.
Seleccionar las medidas de seguridad lógica a implantar requiere considerar el equilibrio entre
los intereses referidos a la seguridad, los requerimientos operacionales y la “amigabilidad” para el
usuario. Existen varios mecanismos para proveer controles de acceso internos y externos, que se
diferencian significativamente en términos de precisión, complejidad y costos. Estos métodos no son
excluyentes y usualmente se utilizan en forma combinada.

5.5. CONTROL DE ACCESO INTERNO


5.5.1. Palabras clave
Generalmente se utilizan para realizar la autenticación del usuario y sirven para proteger los datos
y aplicaciones. Los controles implementados a través de la utilización de palabras clave resultan de
muy bajo costo. Sin embargo, cuando el usuario se ve en la necesidad de utilizar varias palabras clave
para acceder a diversos sistemas, encuentra dificultoso recordarlas y probablemente las escriba o
elija palabras fácilmente deducibles, con lo que se ve disminuida la utilidad de esta técnica.
– Sincronización de passwords: consiste en permitir que un usuario acceda con la misma
password a diferentes sistemas interrelacionados, y su actualización automática en todos
ellos en caso de ser modificada. Podría pensarse que esta característica es negativa para la
seguridad, ya que una vez descubierta la clave se podría acceder a múltiples sistemas. Sin
embargo, estudios hechos muestran que las personas normalmente suelen manejar una
sola password para todos los sitios a los que acceden, y que si se los fuerza a elegir diferen-
tes passwords tienden a guardarlas escritas para no olvidárselas, lo cual significa un riesgo
aun mayor. Para implementar la sincronización de passwords entre sistemas es necesario
que todos ellos tengan un alto nivel de seguridad.
– Caducidad y control: este mecanismo controla cuándo pueden cambiar sus passwords los
usuarios, insertando un valor en el archivo de passwords después de la palabra clave encrip-
tada. Este valor define el período mínimo transcurrido para que los usuarios puedan cambiar
sus passwords y el período máximo para que éstas caduquen.
– Técnicas biométricas: las técnicas más avanzadas utilizan características biométricas como
el reconocimiento de la voz, medidas de retina ocular, huellas digitales, rasgos faciales, etc.
Por otra parte, se está investigando la utilización de sistemas expertos que “aprenden” el com-
portamiento del usuario, creando patrones de comportamiento. El sistema experto avisa cada vez que
encuentra desviaciones de dicho patrón.

5.5.2. Encriptación
La información encriptada solamente puede ser desencriptada por quienes posean la clave apro-
piada. La encriptación puede proveer de una potente medida de control de acceso.

5.5.3. Diccionarios de seguridad


En una modalidad sencilla, existen listas de control de acceso que registran los usuarios que
obtuvieron el permiso de acceso a un determinado recurso del sistema, así como la modalidad de
acceso permitido. Este tipo de listas varían considerablemente en su capacidad y flexibilidad.
A nivel más avanzado encontramos bases de datos que almacenan los privilegios de acceso de
los usuarios a los sistemas de información. La gestión y los procesos de estas bases de datos deben
ser sólo accesibles por el administrador de seguridad, siendo recomendable que esta información
esté altamente protegida, incluso cifrada. Las principales entidades de esta BD son:
– Usuario.
– Perfil de usuario.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 483


MEDIDAS DE SEGURIDAD DE UNA INSTALACIÓN Y DE LOS SOPORTES DE INFORMACIÓN

– Grupos de usuarios al que pertenece.


– Palabras clave (ocultas para el administrador).
– Sistemas a los que tiene acceso.
Los programas de aplicación harán uso de esta base de datos, controlando los accesos al sis-
tema de información, gestión de ficheros y dispositivos, y los permisos de acceso a la información
elaborada producto de otros sistemas.

5.5.4. Límites sobre la interface de usuario


Generalmente son utilizadas en conjunto con las listas de control de accesos, y restringen el
acceso de los usuarios a funciones específicas. Básicamente pueden ser de tres tipos: menús, vistas
sobre la base de datos y límites físicos sobre la interface de usuario (como por ejemplo los cajeros
automáticos donde el usuario sólo puede ejecutar ciertas funciones presionando teclas específicas).

5.5.5. Etiquetas de seguridad


Designaciones otorgadas a los recursos (como por ejemplo un archivo) que pueden utilizarse
para varios propósitos como control de accesos, especificación de medidas de protección, etc. Estas
etiquetas no son modificables.

5.6. CONTROL DE ACCESO EXTERNO

5.6.1. Dispositivos de control de puertos


Estos dispositivos autorizan el acceso a un puerto determinado. Pueden estar físicamente sepa-
rados o incluidos en otro dispositivo de comunicaciones, como por ejemplo un módem.

5.6.2. Firewalls o puertas de seguridad


Permiten bloquear o filtrar el acceso entre dos redes, usualmente una privada, como por ejemplo
Internet. El firewall permite que los usuarios internos se conecten a la red exterior al mismo tiempo
que prevenir la intromisión de hackers o virus a los sistemas de la organización.

5.7. CONTROL DE VIRUS


Los antivirus son aplicaciones informáticas cuyo objetivo es detectar e inutilizar los virus. En el
mercado existen productos de fiabilidad comprobada, que protegen contra la mayoría de los virus
conocidos, y que al igual que éstos están en constante evolución.
Virus es un concepto que incluye aplicaciones que alteran permanente o momentáneamente el
funcionamiento del equipo donde se introducen. El concepto de virus es aplicable principalmente a
PCs o estaciones de trabajo, funcionando en monopuesto o en red. Existen distintos tipos:
– Virus de equipo lógico: aplicación que se adhiere a otras funciones ejecutándose cuando
se realiza su portadora. No tiene identidad diferenciada. Se extiende cuando la portadora se
copia en medio magnético o se instala en otros equipos físicos. Tienen capacidad de copiar-
se a sí mismos.
– Gusano: aplicación que se desplaza por la memoria de equipos conectados en red. Tiene
identidad propia. Está diseñada para buscar zonas de memoria desocupadas donde autoco-
piarse repetidas veces, hasta que consigue desbordar la memoria. Se extiende aprovechán-
dose de facilidades de red tales como el correo electrónico.
– Bomba lógica: aplicación dañina que necesita una condición lógica para activarse, momen-
to hasta el cual permanece inactiva.

484 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


MEDIDAS DE SEGURIDAD DE UNA INSTALACIÓN Y DE LOS SOPORTES DE INFORMACIÓN

– Caballo de Troya: programa hostil disimulado dentro de un programa amistoso. Cuando


se ejecuta el programa amistoso, el programa hostil actúa. Puede que las primeras veces
su acción no sea aparente, hasta que se advierten las consecuencias. No es autocopiable
(diferencia con los virus).
– Virus crucero. Se introducen por los medios habituales en una red pero, una vez en ella,
sólo infectan a los equipos para los cuales el virus ha sido programado. El propósito de estos
virus generalmente no es la destrucción indiscriminada de datos, sino su copia donde pue-
dan ser accedidos por el intruso.
En la práctica, los virus reales pueden tener varias de las características descritas, siendo su
objetivo principal el sistema operativo, los programas de aplicación y las bases de datos.

6. ADMINISTRACIÓN DEL PERSONAL

6.1. ORGANIZACIÓN DEL PERSONAL


Este proceso lleva generalmente cuatro pasos:
– Definición de puestos: debe contemplarse la máxima separación de funciones posibles, y
el otorgamiento del mínimo permiso de acceso requerido por cada puesto para la ejecución
de las tareas asignadas.
– Determinación de la sensitividad del puesto: es necesario determinar si la función re-
quiere permisos con riesgo que le permitan alterar procesos, perpetrar fraudes o visualizar
información confidencial.
– Elección de la persona para cada puesto: consideración de los requerimientos de
experiencia y conocimientos técnicos necesarios para cada puesto. Asimismo, para los
puestos definidos como críticos, puede requerirse una verificación de los antecedentes
personales.
– Entrenamiento inicial y continuo del empleado: el individuo debe conocer las disposicio-
nes organizacionales, su responsabilidad en cuanto a la seguridad informática y lo que se
espera de él.

6.2. ADMINISTRACIÓN DE USUARIOS


La seguridad informática se basa en gran medida en la efectiva administración de los permisos
de acceso a los recursos informáticos. Esta administración se apoya en la identificación, autentica-
ción y autorización de accesos y abarca:
– El proceso de solicitud, establecimiento, manejo y cierre de las cuentas de usuarios y el
seguimiento o rastreo de usuarios.
– Las revisiones periódicas sobre la administración de las cuentas y los permisos de acceso
establecidos.
– La detección de actividades no autorizadas.
– Nuevas consideraciones relacionadas con cambios en la asignación de funciones del em-
pleado.
– Procedimientos a tener en cuenta en caso de desvinculaciones de personal con la organiza-
ción, llevadas a cabo en forma amistosa o no.
– Políticas de Seguridad.
– Permisos de Acceso del Personal Contratado o Consultores.
– Accesos Públicos.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 485


MEDIDAS DE SEGURIDAD DE UNA INSTALACIÓN Y DE LOS SOPORTES DE INFORMACIÓN

7. CRIPTOGRAFÍA

7.1. INTRODUCCIÓN
La criptografía consiste en modificar los datos de un fichero o los que se transmiten por módem,
radio, etc., para evitar que los puedan leer personas no deseadas. Esta técnica ha tenido su principal
aplicación en los ejércitos y en la diplomacia. Pero con el auge de los ordenadores, y la gran canti-
dad e importancia de la información que en ellos se almacena, está convirtiéndose en un tema muy
importante para la informática, sobre todo en las redes (especialmente en Internet) y el comercio a
través de ellas.

7.2. ENCRIPTADO CONVENCIONAL


La técnica universal para proporcionar privacidad en los datos transmitidos es el encriptado
convencional.
El mensaje original inteligible, conocido como texto nativo (plaintext), se convierte en un mensaje
aparentemente aleatorio y sin sentido, conocido como texto cifrado. El proceso de encriptado se
realiza con un algoritmo y una clave. La clave es un valor independiente del texto nativo que controla
el algoritmo.
Una vez producido el texto cifrado, éste se transmite. Cuando se recibe, se transforma en el
texto nativo original utilizando un algoritmo de desencriptado y la misma clave que se utilizó para el
encriptado.
La seguridad del encriptado convencional depende de varios factores: el algoritmo de encriptado
debe ser bastante potente, además, la seguridad del encriptado convencional depende del secreto
de la clave y no del secreto del algoritmo. Esta característica la hace factible para un uso amplio.
El principal problema de seguridad con el uso del encriptado convencional es mantener la clave en
secreto.

7.3. ALGORITMOS DE ENCRIPTADO


El cifrado es uno de los métodos de protección de datos más fiables, cuyo objetivo es hacer
ininteligibles los datos a usuarios no autorizados capaces de acceder a ellos. Existen numerosos
métodos de cifrado o criptográficos. Los sistemas más antiguos y conocidos usan una clave privada
(normalmente un número) para, mediante ciertas transformaciones matemáticas, mantener oculto
el significado de los datos.
Los algoritmos de encriptado utilizados mas comúnmente son los encriptadores de bloque. Un
encriptador de bloque procesa una entrada de texto nativo en bloques de tamaño fijo, y produce un
bloque de texto cifrado de igual tamaño para cada bloque de texto nativo.
– DES (Data Encryption Standard): uno de los sistemas de cifrado mediante clave privada
más sofisticados. El cifrado de datos se efectúa insertando bits clave y ejecutando una serie
de permutaciones no lineales. Es el más utilizado mundialmente. Fue adoptado en 1977 por
el NIST (National Institute of Standards and Technology).
– DES Triple: propuesto por primera vez en 1979 y constituyó la primera normalización para
aplicaciones comerciales. Triple utiliza dos claves y tres ejecuciones del algoritmo DES.
– One-time Pad: el sistema de cifrado con clave privada más seguro es el denominado one-
time pad, consistente en una clave de cifrado tan grande como el propio mensaje: se utiliza
un byte clave para cifrar cada byte del archivo. Este sistema resulta absolutamente indes-
cifrable. De todos modos, esta técnica puede resultar difícil de manejar, ya que claves tan
largas deben trasmitirse de forma segura entre las partes interesadas.
– Funciones hashing: una variante de los sistemas de clave privada la constituyen las funcio-
nes aleatorias o de hashing, seguras desde el punto de vista de la criptografía. Cuando se
aplican a un archivo se obtiene un número que se asocia a dicho archivo. Esto impide que

486 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


MEDIDAS DE SEGURIDAD DE UNA INSTALACIÓN Y DE LOS SOPORTES DE INFORMACIÓN

nadie introduzca modificaciones indeseadas en el archivo, ya que en caso afirmativo el núme-


ro obtenido variaría. Estas funciones aleatorias también son capaces de resistir los intentos
de crear un archivo ficticio que genere el mismo número. Esta técnica resulta muy eficaz para
detectar la presencia de virus y evitar modificaciones no autorizadas de un archivo.
– Sistemas públicos de cifrado: a finales de los 70 aparecieron sistemas públicos de cifrado
que utilizaban dos claves. La primera se hacía pública, incluyéndola en unos listados, mien-
tras que la segunda se mantenía en secreto. Los datos cifrados con una de las dos claves
sólo se pueden descifrar utilizando la otra clave. Una persona podría enviar correo cifrado
a todos los destinatarios. En el momento de recibir la correspondencia, los destinatarios
podrían emplear su clave privada para descifrar el correo.
– RSA: algoritmo de encriptado de clave pública. Es un acrónimo de Rivest, Shamir y Adelman,
los inventores de esta técnica. Está basado en el hecho de que no existe una forma eficiente
de factorizar un número muy grande, por lo que averiguar una clave RSA requiere un esfuerzo
de computación casi imposible.
RSA se ha convertido en el estándar de la industria, sobre todo para transmisiones por inter-
net. Está incluida en paquetes software tan populares como Netscape o Internet Explorer.
NOTA: RSA es tan eficiente que el Gobierno de los Estados Unidos ha prohibido
su exportación a otros países aduciendo que se resentiría su seguridad nacional.
– Cifrado endeble: válidos para niveles medios de seguridad, pero vulnerables ante potentes
sistemas de descifrado. Las claves utilizadas permiten un número de combinaciones de 240.
– Sistemas correctos de gestión de claves: requieren que el usuario divida en varias partes
la clave de descifrado y haga entrega de esas claves a personas de su confianza. La clave
sólo puede reconstruirse en caso de que los depositarios de todas las partes se pongan de
acuerdo.

7.4. LOCALIZACIÓN DEL ENCRIPTADO


El enfoque más potente y más común contra las amenazas a la seguridad de red es el encriptado.
Necesitamos decidir dónde se va a situar la máquina de encriptado. Hay dos alternativas fundamentales:
– Encriptado de enlace: cada enlace de comunicación vulnerable se equipa en ambos extre-
mos con un dispositivo de encriptado. Una desventaja es que el mensaje debe ser desen-
criptado cada vez que entra un paquete en un conmutador (ya que el conmutador debe leer
la dirección en la cabecera del paquete para encaminarlo). De esta forma, el mensaje es
vulnerable en cada nodo. Si la red es pública el usuario no tiene control sobre la seguridad
en los nodos.
– Encriptado extremo-a-extremo: el proceso de encriptado se realiza en los sistemas fina-
les. El ordenador o terminal de origen encripta los datos y los transmite a través de la red
hasta el destino. El destino comparte una clave con el origen y es por tanto capaz de desen-
criptar los datos. Este método sólo puede encriptar la parte de datos de usuario y no la parte
de cabecera, ya que ésta debe ser leída por la red.
Para alcanzar un mayor grado de seguridad se pueden combinar ambos tipos de encriptado.
Los dispositivos de cifrado pueden estar basados en equipos físicos, en equipos lógicos, o en
una combinación de ambos. En cualquier caso, las tareas requeridas por estos procesos consumen
una gran cantidad de recursos, disminuyendo el rendimiento de los sistemas de información en los
que operan.

7.5. RELLENO DE TRÁFICO


Con el uso del encriptado de enlace, las cabeceras de los paquetes se encriptan, reduciendo
la oportunidad de análisis de tráfico. Sin embargo, es posible que un agresor calcule la cantidad de
tráfico en la red y observe la cantidad de tráfico que entra y sale de cada sistema final. Una contra-
medida efectiva es el relleno de tráfico.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 487


MEDIDAS DE SEGURIDAD DE UNA INSTALACIÓN Y DE LOS SOPORTES DE INFORMACIÓN

El relleno de tráfico es una función que produce salida de texto cifrado continuamente, incluso
en ausencia de texto nativo. Se genera un flujo de datos aleatorio de forma continua. Cuando hay
disponible texto nativo, se encripta y se transmite. Cuando el texto nativo no está presente, los datos
aleatorios se encriptan y transmiten. Esto hace muy difícil que un agresor distinga entre flujo de datos
verdaderos y ruido, siendo imposible deducir la cantidad de tráfico.

7.6. DISTRIBUCIÓN DE CLAVES


Para que sea válido el encriptado convencional, las dos partes que intercambian datos deben
tener la misma clave y ésta debe ser protegida para que no la conozcan otros. Además es deseable
realizar cambios periódicos de la clave. La distribución de claves se puede conseguirse de varias
formas para dos partes A y B:
– A puede seleccionar una clave y entregarla físicamente a B.
– Una tercera parte selecciona la clave y la entrega físicamente a A y a B. Tanto esta opción
como la anterior están indicadas para el encriptado de enlace.
– Si A y B han utilizado previa y recientemente una clave, una de las partes podría transmitir
la nueva clave a la otra encriptada utilizando la clave previa.
– Si A y B tienen cada una una conexión encriptada a una tercera parte C, C podría entregar
una clave a través de los enlaces encriptados a A y a B. Esta opción es la preferible para
proporcionar claves de encriptado extremo-a-extremo.

7.7. CLAVES SIMÉTRICAS


Se trata del mecanismo clásico: estas técnicas usan una clave K que es conocida por el remiten-
te de los mensajes y por el receptor, y con la que cifran y descifran respectivamente el mensaje. Para
mantener la seguridad del cifrado, deben mantener esta clave en secreto.
Las ventaja del uso de estas claves es la existencia algoritmos muy rápidos y eficientes para
su cálculo. Si K es lo bastante larga (típicamente se usan valores de 56 a 128 bits), es imposible
descubrir la clave usando el método de fuerza bruta (consiste en probar secuencialmente todas las
posibles combinaciones de claves).
El principal inconveniente estriba en la necesidad de que todas las partes conozcan K, lo que lleva
a problemas en la distribución de las claves. Esta debilidad ha hecho que sea poco utilizada por ejemplo
en los mecanismos de pago electrónico, a no ser que vaya combinada con otro tipo de técnicas.

7.8. CLAVES ASIMÉTRICAS


Existen también sistemas asimétricos de cifrado, siendo los más populares los de clave pública.
Estas técnicas se basan en la existencia de parejas de claves, una secreta (Ks), conocida únicamente
por su propietario, y una pública (Kp), libremente distribuida por su propietario en toda la red. El co-
nocimiento de una de las claves no permite averiguar la otra. Un mensaje es cifrado con una de las
claves y descifrado con la otra.
Los algoritmos de cifrado que utilizan estas claves son usualmente muy lentos, por lo que no
se suelen utilizar para cifrar datos. Lo más habitual es que las partes elijan una clave simétrica y la
compartan mediante mecanismos de clave pública. Una vez compartida la clave se aplican técnicas
simétricas de alta velocidad.

7.9. FIRMAS DIGITALES


Una firma digital es un bloque de caracteres que acompaña a un documento (o fichero), acredi-
tando quién es su autor (autenticación) y que no ha existido ninguna manipulación posterior de los
datos (integridad).

488 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


MEDIDAS DE SEGURIDAD DE UNA INSTALACIÓN Y DE LOS SOPORTES DE INFORMACIÓN

Para firmar un documento digital, su autor utiliza su propia clave secreta, a la que sólo él tiene
acceso, lo que impide que pueda después negar su autoría (no revocación). De esta forma, el
autor queda vinculado al documento que firma. Cualquier persona puede verificar la validez de una
firma si dispone de la clave pública del autor.
Técnicamente una firma digital se implementa mediante criptosistemas con claves asimétricas,
basados en que cada uno de los operadores tiene dos claves, una privada que sólo él conoce y una
pública, que conocen o pueden conocer todos los intervinientes en el tráfico. Cuando el operador A
quiere emitir un mensaje aplica al mismo su clave privada. Cuando B recibe el mensaje le aplica la
clave pública de A para descifrarlo.
Además, y esto es lo esencial, el sistema es calificado de unidireccional, en el sentido de que, a
través de la clave pública de A utilizada por B para descifrar el mensaje cifrado con la clave privada de
A, no es posible que B acceda a la clave privada de A, garantizándose el secreto de la clave privada de
éste. Además, un tercero no puede alterar el mensaje enviado por A, ya que si se introduce en la comu-
nicación y altera el mensaje cifrado, cuando B aplique al mismo la clave pública de A el mensaje será
ininteligible. De la misma manera una vez recibido el mensaje cifrado por B, éste no puede alterarlo.

8. SEGURIDAD EN REDES
La introducción de los sistemas distribuidos, de tiempo compartido, multiusuarios y la utilización
de redes para transportar datos hacen necesarias herramientas automáticas para proteger ficheros
y otras informaciones almacenadas en los equipos. Esta necesidad es especialmente sensible en
sistemas accesibles desde teléfonos públicos o redes de datos públicas.
Las medidas de seguridad en red son necesarias para proteger los datos du-
rante su transmisión y garantizar que los datos transmitidos son auténticos.
La tecnología esencial subyacente en todas las redes automáticas y en las aplicaciones de se-
guridad en computadores es el encriptado. Hay dos técnicas fundamentales en uso: encriptado con-
vencional, también conocido como encriptado simétrico, y el encriptado con clave pública, también
conocido como encriptado asimétrico.
Las redes locales tienen problemas de seguridad particulares y especialmente complejos, basa-
dos en su propia filosofía de permitir la libre comunicación entre los usuarios conectados. Los produc-
tos de seguridad de red (a menudo integrados con el sistema operativo de la red) deben incorporar
las siguientes funcionalidades:
– Facilidades de auditoría de accesos a la red.
– Controles para disparar procedimientos de recuperación y reinicio de red.
– Facilidades de copias de seguridad remotas.
– Protección de mensajes.
– Seguimiento de la ejecución de procesos de usuario.
– Informes estadísticos de tráfico, operación y fallos.

8.1. ATAQUES PASIVOS


En las agresiones pasivas la meta del oponente es obtener información que está siendo transmi-
tida. Existen dos tipos de agresiones:
– Divulgación del contenido de un mensaje: una conversación telefónica, un mensaje de co-
rreo electrónico, un fichero transferido pueden contener información sensible o confidencial.
– Análisis del tráfico: la técnica más común para enmascarar el contenido es el encriptado.
Aun así, el oponente podría ser capaz de observar los modelos de estos mensajes, determi-
nando la localización e identidad de los ordenadores que se comunican y la longitud de los
mensajes intercambiados.
Las agresiones pasivas son muy difíciles de detectar ya que no implican la alteración de los datos.
El énfasis está en la prevención antes que en la detección.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 489


MEDIDAS DE SEGURIDAD DE UNA INSTALACIÓN Y DE LOS SOPORTES DE INFORMACIÓN

8.2. ATAQUES ACTIVOS


Estas agresiones suponen la modificación del flujo de datos o la creación de flujos falsos. Son
difíciles de detectar y se subdivide en cuatro categorías:
– Enmascaramiento: tiene lugar cuando una entidad pretende ser otra entidad diferente.
– Repetición: supone la captura pasiva de unidades de datos y su retransmisión subsecuente
para producir un efecto no autorizado.
– Modificación de mensajes: alguna porción de un mensaje legítimo se altera, se retrasa o
se reordena para producir un efecto no autorizado.
– Denegación de un servicio: impide o inhibe el uso o gestión normal de las facilidades de
comunicación. Otro tipo de denegación de servicios consiste en la perturbación sobre una
red completa, deshabilitándola o sobrecargándola con mensajes de forma que se degrada
su rendimiento.

8.3. AUTENTIFICACIÓN DE MENSAJES Y FUNCIONES DE MEZCLA (HASH)


El encriptado protege de las agresiones pasivas (escuchas). La protección contra las agresiones
activas (falsificación de datos y transacciones) se conoce como autentificación de mensajes.
Los dos aspectos más importantes son verificar que el contenido del mensaje no se ha alte-
rado y que el origen es auténtico. También estaremos interesados en verificar que los datos son
oportunos y la secuencia relativa a otros mensajes que fluyen entre dos partes. Existen varias
técnicas:
– Autentificación de mensajes sin encriptado de mensajes: estas técnicas generan una
etiqueta de autentificación que se incorpora al mensaje para su transmisión. El mensaje
mismo no está encriptado.
– Código de autentificación de mensajes: uso de una clave secreta que genera un pequeño
bloque de datos, conocido como código de autentificación de mensaje, y que se incorpora
al mensaje.
– Función mezcla (hash) de un solo sentido: una función hash acepta un mensaje de
longitud variable M como entrada y produce como salida una etiqueta de tamaño fijo H(M)
llamada resumen del mensaje. El resumen del mensaje se envía junto al mensaje, de tal
forma que se puede utilizar en el receptor para autentificado.
– Encriptado de clave pública y firmas digitales: el encriptado de clave pública tiene la
misma importancia que el encriptado convencional, y se utiliza en la autentificación de men-
sajes y en la distribución de claves.
El algoritmo de clave pública se basa en funciones matemáticas en lugar de sustituciones y
permutaciones. La criptografía de clave pública es asimétrica y supone el uso de dos claves indepen-
dientes.
Todos los participantes tienen acceso a las claves públicas y las claves privadas se generan lo-
calmente por cada participante y por tanto nunca se distribuyen. Un sistema puede cambiar su clave
privada en cualquier instante de tiempo y publica la clave pública compañera para reemplazar la clave
pública obsoleta.
Los pasos esenciales son los siguientes:
1. Cada sistema final en una red genera el par de claves que se van a utilizar para encriptar los
mensajes a emitir y desencriptar los mensajes que se recibirán.
2. Cada sistema publica su clave de encriptado situándola en un registro o fichero público. Esta
es la clave pública. La clave compañera se mantiene privada.
3. Si A desea enviar un mensaje a B, encripta el mensaje utilizando la clave pública de B.
4. Cuando B recibe el mensaje, lo desencripta utilizando la clave privada de B. Ningún otro
destino puede desencriptar el mensaje ya que sólo B conoce la clave privada.

490 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


MEDIDAS DE SEGURIDAD DE UNA INSTALACIÓN Y DE LOS SOPORTES DE INFORMACIÓN

8.4. ASOCIACIONES DE SEGURIDAD


Un concepto clave en internet es la asociación de seguridad: una asociación es una relación en
un solo sentido entre un emisor y un receptor. Si se necesita una relación paritaria, para un intercam-
bio seguro en dos sentidos, entonces se requieren dos asociaciones de seguridad.
Una asociación de seguridad está identificada unívocamente por una dirección de internet y un
índice de parámetro de seguridad.
El mecanismo de gestión de claves que se utiliza para distribuir éstas está acoplado a los meca-
nismos de autentificación y de privacidad sólo a través del índice de parámetros de seguridad. Así, la
autentificación y la privacidad se especifican independientemente de cualquier mecanismo de gestión
de claves.

8.5. ENCAPSULADO DE SEGURIDAD DE LA CARGA ÚTIL


El uso del encapsulado de seguridad de la carga útil proporciona privacidad e integridad de los
datos de los paquetes de información que circulan por internet (paquetes IP).
– Modo transporte ESP: el modo de transporte ESP se utiliza para encriptar datos transpor-
tados por IP.
La operación en modo transporte proporciona privacidad para cualquier aplicación que la
use. Este modo de operación es también razonablemente eficiente, añadiendo poco a la
longitud total del paquete IP. Un inconveniente es que es posible hacer un análisis de tráfico
con los paquetes transmitidos.
– Modo túnel ESP: el modo túnel ESP se utiliza para encriptar el paquete IP entero. Para este
modo, el ESP se incorpora como prefijo al paquete y después el paquete más una parte final
de la cabecera ESP se encripta. Este método se puede utilizar para imposibilitar el análisis
de tráfico.
Los dos mecanismos de seguridad de IP se pueden combinar para transmitir un paquete IP que
tenga autentificación y privacidad.

9. COPIAS DE SEGURIDAD

9.1. NECESIDADES
El éxito de una compañía depende entre otros factores de la disponibilidad continua de su siste-
ma de información. Se deben afrontar inversiones apropiadas para tratar con los inevitables fallos de
sistemas, tanto hardware como software, desastres naturales o cualquier otro. Una de las medidas
más importantes son la planificación de copias de seguridad, salvaguardias o backups y procedi-
mientos de recuperación apropiados.
De acuerdo con el IEEE (Institute of Electrical and Electronics Engineers, pronunciado IE-cubo),
los fallos se clasifican en tipos, que pueden ser agrupados en las siguientes categorías:
– Físicos: causados generalmente por fallos hardware, como fallos del medio o un fallo en la CPU.
– De diseño (errores software): causados por fallos o errores de los programas.
– De operación: causados por la intervención humana. Algunos ejemplos de fallos de opera-
ción son los atribuidos a la inexperiencia de los administradores de datos, errores de usuario,
configuraciones inadecuadas del sistema o procedimientos inapropiados de backup.
– De entorno: debido a cuestiones del entorno exterior, como terremotos, sobretensiones de
energía eléctrica o condiciones anormales de temperatura.
La persona encargada de realizar la planificación de las copias de seguridad es
el administrador del sistema. La persona encargada de realizarlas generalmente
es un operador.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 491


MEDIDAS DE SEGURIDAD DE UNA INSTALACIÓN Y DE LOS SOPORTES DE INFORMACIÓN

Las copias de seguridad son actividades básicas en la seguridad de un sistema de información.


Muchos de los fallos mencionados pueden causar un desastre en cualquier organización que no dis-
ponga de un sistema de salvaguardia adecuado.
Se debe utilizar un soporte de almacenamiento barato y fácilmente manejable. Existen complejos
sistemas capaces de almacenar cientos de miles de cintas magnéticas, con robots recuperadores
que alcanzan velocidades de hasta 96 Km/h, raíles para vagonetas de cintas, equipo lógico de control
y otros dispositivos (armarios ignífugos, etc.).
Sea cual sea el nivel de almacenamiento, deben realizarse copias de seguridad. No existe ningu-
na razón para no realizar una copia de seguridad en todo tipo de sistema de información.
Debe existir un procedimiento operativo que define la forma de realizar las copias. Entre otros
factores detalla lo siguiente:
– Niveles de periodicidad y tipos de copias (incrementales o totales).
– Procedimiento de recuperación.
– Registro de las incidencias y recuperaciones que se han efectuado.
– Soporte físico de la copia (disquete, disco duro, cinta, cartucho, etc.).
– Control del almacén de copias.
El administrador puede ejercer la mayor parte del control sobre los fallos de operación. Aunque
no sea capaz de predecir problemas físicos, de diseño o de entorno, debe estar preparado para los
fallos que él mismo pueda provocar. El administrador debe planificar un procedimiento de backup
sólido, probándolo periódicamente para actualizarlo según vaya creciendo el volumen de datos. Tam-
bién se puede preparar para hacer frente a los fallos, practicando métodos de recuperación con fallos
simulados en sistemas de prueba.

9.2. TIPOS DE BACKUP


Básicamente existen cuatro tipos de backup:
– Backup completo: salvaguardia de todos los ficheros del sistema.
– Backup selectivo: salvaguardia de determinados ficheros y directorios.
– Backup incremental: sólo selecciona los ficheros que han cambiado desde el último backup
completo o bien desde el último backup incremental. Reduce el espacio de almacenamiento
pero complica las recuperaciones de ficheros. Para recuperar un fichero es preciso utilizar la
última salvaguarda completa y todas las incrementales posteriores hasta el momento. Los
ficheros y directorios tienen un bit denominado archive bit que indica si el fichero o directorio
ha cambiado desde el último backup.
– Backup diferencial: sólo selecciona los ficheros que han cambiado desde la última salva-
guardia completa. Para recuperar un fichero es preciso utilizar la última salvaguarda comple-
ta y la última diferencial.
Estos tipos de backup suelen combinarse a la hora de realizar una planificación. Suelen combi-
narse el backup completo con el backup diferencial o bien el backup completo con el backup
incremental, pero nunca diferencial e incremental entre sí, ya que pueden perderse cambios desde
el último backup completo.

TIPO DE BACKUP
COMPLETO INCREMENTAL DIFERENCIAL
DISPOSITIVOS A USAR Mayor número Menor número Menor que la completa
VELOCIDAD DE BACKUP Menor Mayor Mayor que la completa
VELOCIDAD DE RECUPERACIÓN Mayor Menor Mayor que la incremental

Comparación entre velocidad y dispositivos a usar según el tipo de backup

492 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


MEDIDAS DE SEGURIDAD DE UNA INSTALACIÓN Y DE LOS SOPORTES DE INFORMACIÓN

TIPO DE BACKUP
COMPLETO E INCREMENTAL COMPLETO Y DIFERENCIAL
DISPOSITIVOS A USAR Menor número Mayor número
VELOCIDAD DE BACKUP Mayor Menor
VELOCIDAD DE RECUPERACIÓN Menor Mayor
Comparación utilizando combinaciones entre tipos de backup

Cada backup diferencial usa más dispositivos y es más lento que un backup incremental porque
almacena generalmente más ficheros. Sin embargo, el proceso de recuperación es más rápido.

9.3. PROCESO DE RECUPERACIÓN


– Recuperación tras un backup incremental: si se ha realizado un backup completo y
backups incrementales y se necesita restaurar datos tras un fallo, se precisa la última salva-
guardia completa y todas las incrementales realizadas hasta el momento.
– Recuperación tras un backup diferencial: si se ha realizado un backup completo y bac-
kups diferenciales y se necesita restaurar datos, se precisa la última salvaguardia completa
y la última diferencial realizada.

9.4. PLANIFICACIÓN
A la hora de realizar la planificación de las copias de seguridad es preciso definir el siguiente
concepto:
Periodo de retención: período de tiempo del que se pretende salvaguardar
la información. Este periodo determina la tasa de reutilización de los soportes de
almacenamiento.
Por ejemplo, si se dispone de una única cinta y diariamente se reutiliza, el período de retención
es muy corto. La existencia de diferentes sistemas, usuarios y necesidades origina la existencia de
diferentes sistemas de salvaguardia. Se deben tener en cuenta numerosos factores, entre ellos es
muy importante el dispositivo de almacenamiento.
El uso de un mayor número de dispositivos de almacenamiento proporciona un mayor tiempo
de retención, lo cual proporciona mayor protección ante fallos. También aumenta la vida media del
dispositivo ya que se reutilizará con menor frecuencia.
Los factores a tener en cuenta a la hora de realizar un planificación son:
– Periodo de retención.
– Protección contra fallos en el medio (fiabilidad del dispositivo).
– Coste del dispositivo.
– Tiempo de restauración (restaurar de una salvaguardia incremental requiere más tiempo que
de una total).

9.4.1. Planificación mínima sin rotación


Consiste en un único dispositivo de salvaguardia que diariamente se reescribe. Aunque este sis-
tema es algo más que nada, si se produce una caída del sistema durante la salvaguardia se pierde
todo la información.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 493


MEDIDAS DE SEGURIDAD DE UNA INSTALACIÓN Y DE LOS SOPORTES DE INFORMACIÓN

9.4.2. Rotación de mínima seguridad


El sistema de planificación mínima consiste en dos dispositivos y rotarlos alternativamente, diaria
o semanalmente. Proporciona más seguridad que el anterior pero el período de retención es muy
bajo. Si el tiempo entre una salvaguardia y otra es muy largo se corre el riesgo de perder los datos
que han cambiado desde la última salvaguardia.
En algunos casos una copia semanal con este esquema puede ser suficiente, mientras que en
otros una salvaguardia diaria tiene más sentido. De cualquier modo es un esquema de salvaguardia
muy limitado.

9.4.3. Rotación de seguridad ligera


Proporciona más seguridad y período de retención que el anterior manteniendo un pequeño nú-
mero de dispositivos de almacenamiento etiquetados como lunes, miércoles, viernes 1 y viernes 2.
Se comienza el primer viernes y se realiza un backup completo que se etiqueta viernes 1 y se guarda
aparte. El lunes siguiente se realiza una salvaguarda incremental etiquetada lunes, ídem el miércoles.
El segundo viernes se empieza de nuevo, se realiza una salvaguardia completa que se etiqueta viernes
2 y se guarda. Se recupera la cinta viernes 1 que se vuelve a reutilizar.

Secuencia:
– Lunes, Miércoles, Viernes 1.
– Lunes, Miércoles, Viernes 2.
– Lunes, Miércoles, Viernes 1.
– Lunes, Miércoles, Viernes 2.

Este método es bastante económico y proporciona alguna redundancia. Sin embargo, existe el
riesgo de perder el trabajo de una semana. Sólo se recomienda en sistemas de uso ligero.

9.4.4. Rotación de seguridad media


Adecuado para sistemas con un uso razonable que precisa salvaguardias diarias (por ejemplo un
servidor). Las salvaguardias se realizan en cinta o en unidades removibles con suficiente capacidad
para hacer una salvaguardia total en una unidad.
Utiliza dos grupos diferentes de dispositivos de almacenamiento. El primer grupo para las sal-
vaguardias diarias, el segundo para las semanales. Por ejemplo, cuatro cintas etiquetadas lunes,
martes, miércoles y jueves para las salvaguardias diarias y un segundo grupo de cintas semanales
etiquetadas viernes 1, viernes 2...
Los viernes se realizan salvaguardias completas que se guardan aparte; mientras mayor sea el
número de este grupo de cintas de que se disponga mayor será el período de retención.
Las cintas de salvaguardia diaria pueden ser bien completas, bien incrementales. Las salva-
guardias incrementales ahorran tiempo de backup, pero si hay un problema el jueves se deberá
recuperar de la completa del viernes anterior y de cada una de las incrementales siguientes hasta
el día del fallo.

Secuencia (mensual):
– Lunes, Martes, Miércoles, Jueves, Viernes 1 completa.
– Lunes, Martes, Miércoles, Jueves, Viernes 2 completa.
– Lunes, Martes, Miércoles, Jueves, Viernes 3 completa.
– Lunes, Martes, Miércoles, Jueves, Viernes 4 completa.

El período de retención con cuatro cintas semanales es de un mes.

494 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


MEDIDAS DE SEGURIDAD DE UNA INSTALACIÓN Y DE LOS SOPORTES DE INFORMACIÓN

9.4.5. Rotación de seguridad máxima


Recomendado para sistemas con grandes cantidades de datos críticos y variables. Precisan que
el tiempo de retención sea alto y un gran número de dispositivos de salvaguardia por lo cual deben
ser baratos, generalmente cintas de 8 mm. Todos los backups son completos.
Se utilizan dos grupos distintos de dispositivos. El primer grupo es para los backups rotacionales
diarios, el segundo para los mensuales y anuales permanentes. El número de cintas a utilizar depen-
de del período de retención que se desee. Si se usan 10 cintas para backups diarios harán un total
de 22 mensuales y 5 anuales. Esto permite hacer una salvaguardia diaria durante dos semanas (5
días excluyendo el fin de semana), una mensual que se almacena durante 2 años y una anual que se
guarda durante 5 años. El total de cintas sería de 37 (20 días + 1*12 meses + 1*5 año).
El periodo de rotación de las cintas diarias es cada 10 días. Una vez al mes utilizo una cinta
permanente y al final del año una anual. El período de rotación de la cinta anual es 5 años y el de la
mensual 12 meses.
En algunos sistemas no se reciclan las cintas anuales, sin embargo es preciso tener en cuenta
que el período de vida del dispositivo es limitado. Las cintas de rotación diarias deben reemplazarse
cada dos años para evitar el desgaste (cada dos años con este sistema se han debido utilizar unas
50 veces).
Debe realizarse un log de backups con las fechas de realización que a su vez deben etiquetar
cada cinta. Las cintas deben almacenarse en sitios seguros, por ejemplo en armarios ignífugos, y
algunas de las cintas en otro lugar (por ejemplo las mensuales y anuales en otro edificio).

9.5. DISPOSITIVOS DE ALMACENAMIENTO


– Cintas DAT: acrónimo de Digital Audio Tape, es un tipo de cinta magnética que se utiliza
para guardar datos. Un DAT cartridge es un poco mayor que una tarjeta de crédito y contiene
una cinta magnética que puede almacenar entre 2 y 40 Gigabytes de datos. Puede soportar
tasas de transferencia (velocidad de escritura de datos) de 2 Mbps. Son como otros tipos de
cintas dispositivos de acceso secuencial. El formato más común de DAT cartridges es DDS
(Digital Data Storage).

TIPOS CAPACIDAD
Media pulgada 60 MB to 400 MB
Un cuarto 40 MB to 5 GB
4-mm 2 GB to 24 GB
8-mm 5 GB to 40 GB

Comparativa de las unidades DAT más usuales

– Unidad Jaz: unidad de disco removible de acceso aleatorio desarrollada por Iomega. Tiene
un tiempo de acceso de 12 ms (tiempo en acceder a un dato) y una velocidad de trans-
ferencia de datos de 5,5 Mbps (millones de bits por segundo). Puede almacenar hasta 2
GigaBytes de datos (1 GigaByte = 1024 MegaBytes). La alta tasa de transferencia de datos,
así como su gran capacidad de almacenamiento, lo convierten en una alternativa bastante
buena para su uso como sistema de almacenamiento de backups.
– Otros: los CD-R, CD-RW podrían utilizarse también como dispositivos de backup. La tenden-
cia actual y el auge de los dispositivos ópticos es algo a tener en cuenta en el futuro (en la
actualidad son caros), ya que los DVD por ejemplo pueden alcanzar hasta 15 GB de informa-
ción y se tienen ya prototipos de DVD regrabables, aunque por el momento no constituyen
una solución viable.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 495


MEDIDAS DE SEGURIDAD DE UNA INSTALACIÓN Y DE LOS SOPORTES DE INFORMACIÓN

10. LA METODOLOGÍA MAGERIT

10.1. INTRODUCCIÓN Y DEFINICIONES


La Metodología de Análisis y Gestión de Riesgos de los Sistemas de Información de las
Administraciones Públicas, MAGERIT, es un método formal para investigar los riesgos que soportan
los Sistemas de Información, y para recomendar las medidas apropiadas que deberían adoptarse para
controlar estos riesgos.
MAGERIT ha sido elaborada por un equipo interdisciplinar del Comité Técnico de Seguridad de
los Sistemas de Información y Tratamiento Automatizado de Datos Personales, SSITAD, del Consejo
Superior de Informática. MAGERIT toma como referencia:
– Los criterios ITSEC (Information Technologies Security Evaluation Criteria), objeto de una
recomendación del Consejo de la Unión Europea de 7/4/1995.
– Los Criterios Comunes de Evaluación de la Seguridad de los Productos y Sistemas de Infor-
mación, criterios elaborados por la Unión Europea, EE.UU. y Canadá.

10.2. OBJETIVOS DE MAGERIT


Estudiar los riesgos que soporta un sistema de información y el entorno asociado a él. MAGERIT
propone la realización de un análisis de los riesgos que implica la evaluación del impacto que una
violación de la seguridad tiene en la organización; señala los riesgos existentes, identificando las
amenazas que acechan al sistema de información, y determina la vulnerabilidad del sistema de pre-
vención de dichas amenazas, obteniendo unos resultados.
Los resultados del análisis de riesgos permiten a la gestión de riesgos recomendar las medidas
apropiadas que deberían adoptarse para conocer, prevenir, impedir, reducir o controlar los riesgos
identificados y así reducir al mínimo su potencialidad o sus posibles perjuicios.
La aplicación de MAGERIT permite:
– Aportar racionalidad en el conocimiento del estado de seguridad de los Sistemas de Informa-
ción y en la introducción de medidas de seguridad.
– Ayudar a garantizar una adecuada cobertura en extensión, de forma que no haya elementos
del sistema de información que queden fuera del análisis, y en intensidad, de forma que se
alcance la profundidad necesaria en el análisis del sistema.
– Paliar las insuficiencias de los sistemas vigentes.
– Asegurar el desarrollo de cualquier tipo de sistemas, reformados o nuevos, en todas las fases
de su ciclo de desarrollo, desde la planificación hasta la implantación y mantenimiento.

10.3. TIPOS DE PROYECTOS


MAGERIT responde a las necesidades de un espectro amplio de intereses de usuarios con un en-
foque de adaptación a cada organización y a sensibilidades diferentes en Seguridad de los Sistemas
de Información. Las diferencias residen en tres cuestiones fundamentales:
– Situación dentro del “ciclo de estudio”: marco estratégico, planes globales, análisis de
grupos de múltiples activos, gestión de riesgos de activos concretos, determinación de me-
canismos específicos de salvaguarda.
– Envergadura: complejidad e incertidumbre relativas del sistema estudiado, tipo de estudio
más adecuado a la situación: corto, simplificado, etc.
– Problemas específicos a solventar: seguridad lógica, seguridad de redes y comunicacio-
nes, planes de emergencia y contingencia, estudios técnicos para homologación de siste-
mas o productos, auditorías de seguridad.

496 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


MEDIDAS DE SEGURIDAD DE UNA INSTALACIÓN Y DE LOS SOPORTES DE INFORMACIÓN

10.4. ESTRUCTURA DE MAGERIT


El modelo normativo de MAGERIT se apoya en tres submodelos: el submodelo de elementos propor-
ciona los componentes que el submodelo de eventos va a relacionar entre sí, mientras que el submodelo
de procesos será la descripción funcional (el esquema explicativo) del proyecto de seguridad a construir.

10.4.1. Submodelo de Elementos


El submodelo de elementos de MAGERIT comprende seis entidades básicas caracterizadas por
ciertos atributos y relacionadas entre sí:
1. Activos.
2. Amenazas.
3. Vulnerabilidades.
4. Impactos.
5. Riesgos.
6. Salvaguardas (funciones, servicios y mecanismos).

10.4.2. Submodelo de Eventos


Una vez que el submodelo de elementos ha proporcionados los componentes para el análisis y
gestión de riesgos, el submodelo de eventos será el encargado de relacionarlos entre sí. MAGERIT
ofrece tres vistas de este último submodelo para ayudar a automatizar la metodología:
– Vista estática relacional: relaciones generales entre las entidades reseñadas en el submo-
delo de elementos.
– Vista dinámica de tipo organizativo: funcionamiento detallado de la interactuación de los
elementos de MAGERIT
– Vista dinámica de tipo físico: funcionamiento de los elementos a un nivel de detalle inter-
medio entre las dos vistas anteriores.

10.4.3. Submodelo de Procesos


Comprende 4 etapas:
– Planificación del Proyecto de Riesgos: objetivos a cumplir, ámbito que abarcará, planifi-
cando los medios materiales y humanos para su realización, etc.
– Análisis de riesgos: se identifican y valoran las diversas entidades, obteniendo una evalua-
ción del riesgo.
– Gestión de riesgos: identificación de funciones y servicios de salvaguarda.
– Selección de salvaguardas: plan de implantación de los mecanismos de salvaguarda ele-
gidos y los procedimientos de seguimiento para la implantación. Se recopilan los documen-
tos del Análisis y Gestión de Riesgos (AGR) para obtener los documentos finales del proyecto
y realizar las presentaciones de resultados a diversos niveles.
Para poder construir proyectos específicos de seguridad, MAGERIT posee interfaces de enlace
con MÉTRICA VERSIÓN 2.1.

10.5. Tipos de técnicas


MAGERIT consta de siete guías:
– Guía de Aproximación: presenta los conceptos básicos de seguridad de los sistemas de
información, con la finalidad de facilitar su comprensión por personal no especialista y ofrece
una introducción al núcleo básico de MAGERIT, constituido por las Guías de Procedimientos
y de Técnicas.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 497


MEDIDAS DE SEGURIDAD DE UNA INSTALACIÓN Y DE LOS SOPORTES DE INFORMACIÓN

– Guía de Procedimientos: representa el núcleo del método, que se completa con la Guía
de Técnicas. Ambas constituyen un conjunto autosuficiente, puesto que basta su contenido
para comprender la terminología y para realizar el Análisis y Gestión de Riesgos de cualquier
sistema de información.
– Guía de Técnicas: proporciona las claves para comprender y seleccionar las técnicas más
adecuadas para los procedimientos de análisis y gestión de riesgos de seguridad de los
sistemas de información.
– Guía para Responsables del Dominio: explica la participación de los directivos “responsables
de un dominio” en la realización del análisis y gestión de riesgos de aquellos sistemas de infor-
mación relacionados con los activos cuya gestión y seguridad les están encomendados.
– Guía para Desarrolladores de Aplicaciones: está diseñada para ser utilizada por los de-
sarrolladores de aplicaciones, y está íntimamente ligada con la Métrica v2.1.
– Arquitectura de información y especificaciones de interfaz para el intercambio de
datos: la interfaz para intercambio de datos posibilita que un usuario de MAGERIT establezca
la comunicación con otras aplicaciones y sistemas facilitando la incorporación de sus pro-
ductos a la herramienta MAGERIT y viceversa.
– Referencia normativa: lista de normas en materia de seguridad a fecha 31 de diciembre
de 1996.
En su primera versión, MAGERIT consta de dos herramientas de apoyo sobre plataforma PC:
– Herramienta 1, Introductoria: primera aproximación al Análisis y Gestión de Riesgos y
constituye un apoyo en la identificación de riesgos menores. Se apoya en el uso de técnicas
matriciales y no requiere que el usuario tenga necesariamente un nivel avanzado de espe-
cialización en seguridad de los sistemas de información.
– Herramienta 2, Avanzada: permite realizar un Análisis y Gestión de riesgos detallado y
afrontar así proyectos de complejidad media o alta en materia de seguridad. Se apoya en
el uso de técnicas algorítmicas, de lógica difusa y de Bayés. Permite un análisis detallado
de los activos del dominio y de sus dependencias, de sus relaciones y las amenazas, las
funciones y los mecanismos de seguridad, y de los riesgos. Requiere que el usuario tenga un
cierto nivel de especialización en seguridad de los sistemas de información.

498 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


TEMA
13

Microinformática. Conceptos básicos.


Periferia. Sistemas operativos de
microordenadores

Uno de los fenómenos más importantes en la historia de la informática fue la


aparición del primer ordenador personal a principios de la década de los ochenta.
La utilización de ordenadores personales ha extendido ampliamente las fronte-
ras tradicionales de la informática; el abanico de aplicación cubre ahora ámbitos
educativos, domésticos, empresariales, etc. La microinformática ha supuesto una
verdadera revolución tanto a nivel personal como profesional.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 499


MICROINFORMÁTICA

ESQUEMA INICIAL

1. Evolución histórica

2. Los primeros PCs


2.1. Nacimiento del PC
2.2. El PC XT
2.3. El PC AT
2.4. El PS/2

3. Arquitectura del PC
3.1. Unidad Central de Proceso
3.2. Unidad Aritmético-Lógica (UAL)
3.3. Unidad de Control (UC)
3.4. Reloj

4. El procesador
4.1. 4004 y 8008
4.2. 8086 y 8088
4.3. 80286
4.4. 80386
4.5. 80486
4.6. Pentium
4.7. Pentium Pro y Pentium II
4.8. Tecnología MMX
4.9. Celeron
4.10. Pentium III
4.11. Arquitecturas de procesadores: CISC/RISC
4.12. El futuro de los microprocesadores

5. La placa base
5.1. Zócalo del microprocesador
5.1.1. PGA
5.1.2. ZIF
5.1.3. Slot 1
5.1.4. Otros
5.2. Ranuras de memoria
5.3. El chipset
5.4. La BIOS
5.5. Conectores externos
5.6. Conector eléctrico
5.7. Pila
5.8. Elementos integrados variados

500 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


MICROINFORMÁTICA

6. Buses
6.1. ISA
6.2. MCA
6.3. EISA
6.4. VL-Bus
6.5. PCI
6.6. NUBUS
6.7. AGP

7. Sistemas de memoria

8. Dispositivos de almacenamiento

9. Comunicaciones
9.1. Interfaz serie RS-232
9.2. Interfaz Paralelo
9.3. Interfaz USB
9.4. PCMCIA

10. Periféricos

11. Sistemas operativos de microordenadores


11.1. Introducción
11.2. Evolución
11.3. DOS
11.4. DR-DOS
11.5. OS/2
11.6. Macintosh System 7 de Apple
11.7. Linux
11.8. Banyan Vines
11.9. Novell Netware
11.10. Microsoft Windows
11.11. Generaciones de Windows
11.11.1. Windows 95
11.11.2. Windows 98
11.11.3. Windows NT

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 501


MICROINFORMÁTICA

1. EVOLUCIÓN HISTÓRICA
La evolución de los ordenadores personales, desde la aparición del primer ordenador personal
hasta hoy, puede resumirse en los siguientes hitos:
– En 1977 surge el Apple II, primer ordenador personal con prestaciones adecuadas y éxito en
el mercado.
– En 1979 aparece la primera aplicación ofimática para los ordenadores personales: la hoja
de cálculo Visicalc para Apple II.
– Es a partir de 1981, fecha de lanzamiento del PC (Personal Computer) de IBM y del sistema
operativo DOS (Disk Operating System) y la posterior adopción de sus componentes más
esenciales por otros fabricantes, cuando los ordenadores personales adquieren las dimen-
siones de productos de venta y utilización masiva.
– En 1982 se comercializa la primera hoja de cálculo para los ordenadores personales IBM o
compatibles, denominada Lotus 1-2-3.
– En 1984 aparece el ordenador personal Macintosh, diferente en concepción y arquitectura
al ordenador personal IBM y compatibles.
– En 1987 surge la segunda generación de ordenadores personales IBM, los PS/2. Los fabri-
cantes de compatibles no secundan esta segunda generación.
– En 1990 se comercializa el sistema operativo Windows versión 3.0, primer entorno operativo
con éxito comercial que incorpora interfaz gráfica de usuario y capacidades de multitarea,
aunque limitada, para ordenadores personales IBM o compatibles.
– En 1991 se anuncia el sistema operativo System 7, actual sistema operativo de los ordena-
dores personales Macintosh.
– En 1992 se lanza el sistema operativo OS/2 versión 2.0 para los ordenadores personales
IBM o compatibles, que es el primer sistema operativo con capacidades reales de multi-
tarea.
– En 1993 aparece el sistema operativo Windows NT para ordenadores personales IBM o
compatibles, que ofrece servicios avanzados tales como conectividad a redes o multipro-
ceso simétrico.
– En 1994 Apple comercializa el primer ordenador personal, modelo Macintosh, empleando un
procesador con tecnología RISC (Reduced Instruction Set Computer).
En la actualidad existen dos familias de ordenadores personales netamente diferenciadas, la
primera de las cuales está constituida por los productos fabricados por IBM y sus compatibles, mien-
tras que la segunda corresponde a los equipos que forman la gama Macintosh. Para diferenciarlas
dentro de esta guía técnica cuando sea necesario, se denominará a la primera de ellas como PC y a
la segunda como Macintosh.
Los ordenadores personales han permitido cambiar el tradicional enfoque de sistemas centrali-
zados hacia el actual modelo de arquitectura cliente/servidor, convirtiéndose en el cliente o puesto
de trabajo universal de cualquier estructura organizativa. Por tanto, los ordenadores personales han
dejado de ser elementos aislados para transformarse en un componente esencial de cualquier mode-
lo de sistemas, lo que ha producido un importante auge en las comunicaciones entre ordenadores.
Su actual importancia estratégica queda reflejada por el volumen económico que representan en el
conjunto de las adquisiciones, que ha supuesto en 1993 el 35% del total de las adquisiciones de
equipos informáticos en Europa.
NOTA: Los ordenadores personales se denominan también PC (por Personal
Computer).
Tradicionalmente los ordenadores personales han constituido la gama más baja de todos los
tipos de ordenadores en lo referente a capacidad de proceso, pero las últimas unidades centrales
de proceso aparecidas en el mercado proporcionan prestaciones cercanas o incluso superiores a las
estaciones de trabajo de gama baja.

502 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


MICROINFORMÁTICA

2. LOS PRIMEROS PCS


2.1. NACIMIENTO DEL PC
El IBM PC, presentado en agosto de 1981, fue un equipo cuyo único objetivo era el mercado do-
méstico. Externamente estaba integrado por tres unidades: la unidad central (de sobremesa y de gran
tamaño), el monitor (monocromo y exclusivamente de modo texto) y un teclado. Opcionalmente se po-
día adquirir una impresora de 9 agujas, de marca IBM pero fabricada por la empresa japonesa Epson.
Este equipo contaba con un microprocesador Intel 8088, versión del 8086 con el bus recortado a
la mitad de ancho. Esta CPU supuso un gran avance respecto a los microordenadores comercializados
en esa época, todos de 8 bit. Aunque el 8088 no funcionaba externamente a 16 bit, este recorte
estaba justificado por el abaratamiento que causaba conectar otros chips compatibles de 8 bits.
NOTA: Una excepción a lo expuesto era el Olivetti M20, que incluía una CPU
Zilog 8000 de 16 bits.
Si se hubiera empleado la CPU Intel 8086, como hicieron de inmediato otras empresas (como
Olivetti en su M24), todos los chips periféricos tendrían que haber sido de 16 bits, suponiendo un
precio muy elevado en aquella época.
IBM buscó fabricar un equipo novedoso limitando al máximo el precio de sus componentes. Su
primer PC supuso un producto de calidad relativamente alta, con elevadas prestaciones frente a los
productos de la competencia, y a un precio que le permitió mantener los grandes márgenes comer-
ciales característicos de IBM.
La siguiente tabla resume la configuración básica del primer PC:

CONFIGURACIÓN DEL IBM PC (1981)


CPU Intel 8088 a 4.77 MHz
640 kb RAM
Controladora de vídeo modo texto
Controladora de impresora (Centronics)
Monitor exclusivamente de modo texto
Cinta de casette para almacenar datos y programas
Lenguaje BASIC en ROM
Teclado reducido, de 84 teclas

Verdaderamente la primera versión del PC no llegó a comercializarse, pues inmediatamente se


sustituyó la unidad de casete por una unidad de disco flexible de 160 Kb con su controladora corres-
pondiente. Simultáneamente se introdujo el sistema operativo PC-DOS 1.0, proporcionado por una
incipiente Microsoft.
NOTA: Microsoft en aquella época sólo era conocida por haber creado el len-
guaje BASIC para IBM.
Uno de los factores de mayor éxito de este equipo fue su facilidad de ampliación, debida principal-
mente a los slots o zócalos de expansión de que disponía. Estas posibilidades de expansión causó que
un gran número de empresas independientes crearan tarjetas de circuito impreso adaptables a estos
“slots”, que realizaban funciones no disponibles en el PC original o que mejoraban las existentes.
Estos zócalos constituyen el BUS de expansión del PC, que daría lugar posteriormente al BUS AT,
estándar también conocido como Bus ISA.
Las especificaciones técnicas de este sistema fueron hechas públicas por IBM, permitiendo que
muchas empresas diseñaran tarjetas adaptables al bus. Entre ellas, por ejemplo, tarjetas con un reloj
con batería (el PC perdía la hora cuando se apagaba), tarjetas de vídeo con posibilidades gráficas y
colores, tarjetas de comunicaciones tipo Módem o Telex y otras muchas posibilidades.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 503


MICROINFORMÁTICA

El éxito de este equipo fue muy superior al previsto por IBM, de hecho este primer PC no estuvo
disponible en Europa hasta casi dos años después de su lanzamiento en Estados Unidos. Este éxito
se debió en parte a la gran fama de la que gozaba IBM, pues en esa época había equipos superiores
en el mercado (como el antes citado de Olivetti).

2.2. EL PC XT
IBM reaccionó presentando algunas mejoras en su siguiente ordenador: el IBM PC XT (XT de
eXTended), que incorporaba un disco duro de 20 Mb con interface MFM (actualmente desaparecida
del mercado) y su controladora correspondiente, y una controladora de vídeo que soportaba monito-
res en color y gráficos, pero con una baja resolución de tan sólo 640x200 puntos. El PC XT incluyó
disqueteras para disquetes de 360 kb de capacidad.
Simultáneamente aparecieron los primeros microordenadores clónicos y compatibles. En EE UU,
Olivetti Docutel presentó el Olivetti PC, copia casi idéntica del IBM PC XT, aunque con mejores pres-
taciones y precio más bajo. En Europa aparece el Olivetti M24, con CPU Intel 8086 y buses de 16
bits, muy superior al XT de IBM. Este ordenador fue un gran éxito a nivel mundial y se comercializó
con las siguientes marcas: AT&T, Toshiba, Logabax, Xerox, Hermes y otras. Por otra parte, La francesa
Bull presentó un clónico del IBM PC XT, copia exacta, aunque con prestaciones inferiores.
De esta forma fueron apareciendo equipos que intentaban superar a los de IBM, pero aún no
había comenzado la época de los clónicos a bajo precio montados con componentes fabricados en
países asiáticos.
La gran difusión de los equipos compatibles hizo que aparecieran gran cantidad de programas a
nivel mundial, tratando los más diversos temas. Este fue otro factor decisivo que reforzó el liderazgo
de la arquitectura PC y PC XT.
En aquellos días IBM desarrolló el primer ordenador portable (no portátil), bastante voluminoso
para trasladarlo de un sitio a otro, sin autonomía eléctrica y con una pantalla de tubo de rayos cató-
dicos de pequeñas dimensiones. Este equipo no era muy asequible ni en precio ni en portabilidad;
otras empresas intentaron mejorarlo, con este propósito surgió Compaq, empresa que actualmente
es líder a nivel mundial en el mercado de portátiles, microordenadores y servidores.

2.3. EL PC AT
Para combatir la competencia que otras empresas ocasionaban ofreciendo equipos mejores, más
baratos y totalmente compatibles, IBM diseñó una versión mejorada de sus PCs, que denominó AT
(de Advanced Technology, Tecnología Avanzada).
El PC AT incluía el procesador 80286 de Intel de 16 bits auténticos, cuya principal diferencia
respecto a la 8086 era el bus de direcciones de 20 bits, en vez de 16 del 8086, que le permitía
direccionar mucha más memoria. A su vez la frecuencia de reloj pasó a ser de 6 u 8 MHz, frente a
los 4.77 del PC original.
Otra diferencia fundamental era que los slots de expansión disponían de un bus de 16 bits, lo
cual permitía utilizar las antiguas tarjetas de los XT (8 bits) y las nuevas que se crearan específica-
mente para él. Este BUS AT se ha convertido en un estándar (Bus ISA) ampliamente utilizado hasta
hace muy poco tiempo.
Intel concedió licencias para que sus CPU’s fueran fabricadas por otras empresas (Fujitsu, Sie-
mens, AMD, Harris...), abaratando mucho los costes, lo que a su vez causó la aparición de los clóni-
cos tal como los conocemos actualmente.
Esta política perjudicó en gran manera a IBM, pues el mercado ahora no sólo se distribuía entre
las grandes marcas de prestigio (Olivetti, Bull, Compaq, Xerox, AT&T, Philips, NCR y algunas otras),
sino que empresas pequeñas con pocos medios podían ofrecer equipos clónicos a precios imbatibles.
Estas empresas además tenían unos gastos nulos en investigación pues gran parte del producto lo
copiaban ilegalmente.

504 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


MICROINFORMÁTICA

CONFIGURACIÓN DEL IBM PC AT


Fuente de alimentación conmutada
Placa base o placa madre, que incorpora:
CPU Intel 80286 desde 6 hasta 20 MHz
Memoria RAM de 1 Mb. ampliable
Conjunto de chips (ChipSet), que gestionan el sistema
Tarjeta controladora de vídeo, gráfico y color (640*200)
Tarjeta comunicaciones RS 232C
Tarjeta controladora impresora (Centronics)
Tarjeta controladora de dos discos duros MFM y dos disqueteras
Tarjeta para ampliación de memoria
Bus con los “slots” de expansión
Reloj en tiempo real, con batería
Teclado mejorado de 104 teclas

Algunos fabricantes incluyeron en la placa base varias de las tarjetas indicadas, dejando así más
slots libres en el BUS AT para posteriores ampliaciones.

2.4. EL PS/2
Ante la situación de fuerte competencia en el mercado, IBM actuó de dos formas: la primera fue
exigir a todos los fabricantes que le habían copiado sus productos el pago de los “royalties” corres-
pondientes; por otra parte creó una nueva línea de equipos muy difícil de copiar y con gran detalle de
patentes. De esta forma nacieron los IBM PS/2 (Personal System 2).
Una de las grandes innovaciones de estos equipos fue el procesador Intel 386, con mejoras
significativas frente a sus predecesores, además de un bus a 32 bits de diseño completamente
nuevo denominado Microchannel, que dio lugar a los equipos con arquitectura MCA (Arquitectura
Microcanal).
Otra novedad fue el cambio del tipo de monitores, y por lo tanto de controladora. Se introdujeron
los monitores analógicos, con una resolución superior a los previamente empleados (digitales) y con
una variedad de colores muy superior. Estas dos innovaciones supusieron desechar completamente
los diseños anteriores con objeto de que los clónicos se viesen desplazados del mercado.
La arquitectura MCA fue comercializada por algunos fabricantes aparte de IBM, como por ejem-
plo Olivetti, pero con muy poco éxito. Además, estos equipos, incluso los de IBM, se difundieron poco
y las tarjetas de ampliación diseñadas para ellos eran muy caras, lo cual hacía de esta arquitectura
un producto poco atractivo.
Simultáneamente a la aparición de estos equipos se comercializó un nuevo sistema operativo
denominado OS/2, desarrollado por Microsoft para IBM en principio, y posteriormente por la propia
IBM. El éxito del OS/2 fue muy escaso.
IBM tuvo que reconocer el fracaso de la arquitectura MCA, pues una nueva generación de equi-
pos que comercializó posteriormente para uso doméstico, los PS/1, ya no incluían esta arquitectura.
Además IBM no lograba frenar el avance de los clónicos, decidiendo unirse a este mercado comercia-
lizando ella misma clónicos. Los clónicos de IBM se fabricaban en países asiáticos con la marca Am-
bra, que acabó en fracaso al poco tiempo. Actualmente IBM se está planteando cerrar las divisiones
de PC domésticos en varios países, debido a la baja cuota de mercado que alcanzan.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 505


MICROINFORMÁTICA

3. ARQUITECTURA DEL PC
Un ordenador está formado por un conjunto de subsistemas o componentes:

 
 




 
     
  

 
 
 

 
#  !"



 

         
  
 

Esquema general de los componentes de un ordenador PC

3.1. UNIDAD CENTRAL DE PROCESO


Es el componente encargado de llevar a cabo el proceso de la información y regular la actividad
de todo el sistema del ordenador. Está formada por una unidad de control que lee, interpreta y realiza
las instrucciones del programa en ejecución, una unidad aritmético-lógica que ejecuta las operacio-
nes lógicas y aritméticas, y una zona de registros o zonas de almacenamiento donde se guardan los
datos que se están procesando.
La unidad central de proceso suele denominarse procesador o microprocesador o con las siglas
CPU (Central Process Unit) o UCP (Unidad Central de Proceso). Las unidades centrales de proceso se
caracterizan principalmente por la tecnología empleada (CISC o RISC), la longitud de la palabra de
datos en bits, la utilización de coprocesadores y por la frecuencia de reloj en MHz.
Longitud de la palabra de datos: La longitud de la palabra de datos determi-
na la cantidad de información que es capaz de procesar simultáneamente la unidad
central de proceso en cada pulso de reloj. Se mide en bits. A mayor longitud de
palabra mayor complejidad y circuitería necesaria en la UCP, pero mayor potencia
de proceso.
Las unidades centrales de proceso empleadas en los PC pertenecen mayoritariamente a la fami-
lia Intel o compatibles (IBM, AMD o Cyrix). La familia Intel constituye el punto de referencia obligado
para los otros fabricantes cuyos productos deben demostrar su compatibilidad con Intel. Todas ellas
se basan en tecnología CISC y poseen una longitud de palabra de datos de 32 bits.

506 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


MICROINFORMÁTICA

3.2. UNIDAD ARITMÉTICO-LÓGICA (UAL)


La unidad aritmética y lógica, llamada también unidad de cálculo, es la encargada de efectuar
el conjunto de operaciones con las que está dotado el ordenador. Se compone de registros y de un
conjunto de circuitos lógicos responsables de realizar las operaciones lógicas y aritméticas prefijadas
desde la etapa de diseño del ordenador.

3.3. UNIDAD DE CONTROL (UC)


La unidad de control es la encargada de gobernar el funcionamiento del ordenador, recibiendo
e interpretando cada instrucción a ejecutar por el ordenador, para posteriormente transformarla
en una serie de microinstrucciones a muy bajo nivel, particulares para cada arquitectura de orde-
nador.
La UC dispone de la circuitería necesaria para leer la dirección de memoria que contiene la ins-
trucción a ejecutar, localizar dicha instrucción y escribirla en un registro destinado para tal fin en la
UC (registro de instrucción). Posteriormente otro elemento de la unidad de Control (Decodificador)
transforma la información de este registro en una información más amplia e inteligible para el se-
cuenciador.
El secuenciador analiza e interpreta la salida del decodificador, y en función de esta información
ejecuta un microprograma contenido en la memoria de control, que produce las microinstrucciones
necesarias para que se ejecute la instrucción.
Esta forma de ejecutar las instrucciones (por firmware) es propia de las UC programadas que son
las más extendidas. Existen otro tipo de UC, llamadas UC cableadas donde las instrucciones están
implementadas por hardware.
Al finalizar la ejecución de la instrucción en curso, el registro contador de programa contiene
información sobre la dirección de memoria en que se encuentra la siguiente instrucción que debe
ejecutarse. Por tanto, una vez finalizada la ejecución de una instrucción, la circuitería de la UC lee de
este registro contador de programa la dirección de la instrucción siguiente para su ejecución, volvien-
do nuevamente a comenzar el ciclo.
Si la instrucción es compleja, generará muchas microinstrucciones y algunas de ellas necesitarán
varios ciclos de reloj para completarse. Como la ejecución de la instrucción se dará por terminada
cuando se hayan ejecutado todas las microinstrucciones, esta instrucción compleja necesitará varios
ciclos de reloj para su finalización.

3.4. RELOJ
El ordenador posee un funcionamiento síncrono gobernado por un reloj, de tal manera que el
tratamiento de la información se realiza con arreglo a una secuencia ordenada de operaciones en el
tiempo. El reloj genera los impulsos eléctricos que permiten sincronizar estas operaciones. El número
de impulsos generados se mide en Megahertzios (MHz) que indica el número de millones de pulsos
generados por el reloj en un segundo.
La frecuencia de reloj determina la velocidad en la transferencia de un dato entre dos dispo-
sitivos conectados al mismo bus (por ejemplo, lectura de una palabra de memoria por parte de la
UCP). Para la transferencia completa de un dato pueden ser necesarios varios ciclos de reloj, en
cada uno de los cuales son ejecutadas las operaciones más elementales que conforman dicha
transferencia.
El incremento de la velocidad de proceso en los ordenadores personales se ha conseguido gra-
cias a la utilización de los últimos avances tecnológicos.
La tecnología VLSI (Very Large Scale Integration, Integración a Escala Muy Grande) disminuyen
los costes asociados a todos los circuitos electrónicos.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 507


MICROINFORMÁTICA

4. EL PROCESADOR

4.1. 4004 Y 8008


El primer procesador presentado por Intel en el mercado en noviembre de 1971, llamado 4004,
poseía unas características únicas para su tiempo. La velocidad de reloj sobrepasaba los 100 KHz,
disponía de un ancho de bus de 4 bits y podía manejar un máximo de 640 bytes de memoria.
Poco tiempo después, en abril de 1972, Intel anunciaba una versión mejorada de su procesa-
dor. Se trataba del 8008, que contaba como principal novedad con un bus de 8 bits, y la memoria
direccionable se ampliaba a los 16 Kb. Además, llegaba a la cifra de los 3.500 transistores, casi el
doble que su predecesor. Se le considera como el antecedente del procesador del primer ordenador
personal de esta compañía.
Justo dos años después, Intel anunciaba ese tan esperado primer ordenador personal, de nom-
bre Altair, con un coste de unos 400 dólares de la época. El procesador multiplicaba por diez el
rendimiento del anterior gracias a sus 2 MHz de velocidad (por primera vez se utiliza esta medida), y
a su memoria de 64 Kb. En unos meses logró vender decenas de miles de unidades. Era la aparición
del primer ordenador que la gente podía comprar y no simplemente utilizar.

4.2. 8086 Y 8088


Sin embargo el ordenador personal no tuvo verdadera difusión hasta que IBM entró en el mer-
cado. Mientras Intel seguía mejorando sus procesadores, en los meses de junio de 1978 y de 1979
aparecían respectivamente el 8086 y 8088, procesadores del IBM PC que vendió millones de unida-
des a lo largo y ancho del mundo. El éxito fue tal que Intel fue nombrada por la revista Fortune como
uno de los mejores negocios de los años setenta.
El más potente de estos procesadores era el 8086, con un bus de 16 bits, velocidades de reloj
de 5, 8 y 10 MHz, 29.000 transistores usando la tecnología de 3 micras y hasta un máximo de 1
Mb de memoria direccionable. El rendimiento se había vuelto a multiplicar por diez con respecto a
su antecesor, lo que suponía un avance revolucionario. El procesador 8088 era exactamente igual a
éste, salvo la diferencia de que poseía un bus de 8 bits en lugar de uno de 16, siendo más barato y
obteniendo mejor respaldo en el mercado.

4.3. 80286
En febrero de 1982, Intel daba un nuevo vuelco a la industria con la aparición de los primeros
80286. Como principal novedad, cabe destacar el hecho de que por fin se podía utilizar la denomina-
da memoria virtual, que en el caso del 286 podía llegar hasta 1 Gb, tenía un bus de 16 bits, 134.000
transistores usando una tecnología de 1.5 micras, un máximo de memoria direccionable de 16 Mb y
unas velocidades de reloj de 8, 10 y 12 MHz.
En términos de rendimiento había multiplicado entre tres y seis veces la capacidad del 8086. Fue
el procesador de los primeros ordenadores que no fabricaba IBM en exclusiva; muchas otras compa-
ñías, alentadas por los éxitos del pasado, se decidieron a crear sus propias máquinas. En seis años
se vendieron en torno a los 15 millones de ordenadores 286 en todo el mundo.

4.4. 80386
El año de 1985 es clave en la historia de los procesadores. El 17 de octubre Intel anunciaba la apa-
rición del procesador 80386DX, el primero en poseer una arquitectura de 32 bits, lo que suponía una
velocidad a la hora de procesar las instrucciones realmente importante con respecto a su antecesor.
El 80386 contenía cerca de 275.000 transistores, más de 100 veces los que tenía el primer
4004 después de tan sólo 14 años. El reloj llegaba ya hasta un máximo de 33 MHz, y era capaz de
direccionar 4 Gb de memoria, tamaño que todavía no se ha superado por otro procesador de Intel
dedicado al mercado doméstico.

508 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


MICROINFORMÁTICA

En 1988 Intel desarrollaba un sistema sencillo de actualizar los antiguos 286, era el 80386SX,
que sacrificaba el bus de datos recortándolo a 16 bits y adaptándose a la arquitectura de los ante-
riores 80286.
Estos procesadores coincidieron con el desarrollo del entorno gráfico Windows, desarrollado
por Microsoft unos años antes, pero que no había tenido la suficiente aceptación por parte de los
usuarios. También había habido algunos entornos que no habían funcionado mal del todo, como por
ejemplo el Gem 3. No es hasta este momento cuando este tipo de entornos gráficos se popularizan,
facilitando la tarea de enfrentarse a un ordenador. Windows vino a ser una revolución para la industria
informática, pues permitió que personas de cualquier condición pudieran manejar un ordenador con
unos requerimientos técnicos mínimos.

4.5. 80486
Y si esto parecía la revolución, no tuvimos que esperar mucho para que el 10 de abril de 1989
apareciera el Intel 80486DX, de nuevo con tecnología de 32 bits y como novedades principales, la
incorporación del caché de nivel 1 (L1) en el propio chip, lo que aceleraba enormemente la transfe-
rencia de datos de este caché al procesador, así como la aparición del coprocesador matemático,
también integrado en el procesador, dejando por tanto de ser una opción como lo era en los anterio-
res 80386.
Dos cambios que unido al hecho de que por primera vez se sobrepasaban el millón de transis-
tores usando la tecnología de una micra (aunque en la versión de este procesador que funcionaba
a 50 MHz se usó ya la tecnología 0,8 micras), hacía posible la aparición de programas de calidad
sorprendente, entre los que los juegos ocupan un lugar destacado.
Se había pasado de unos ordenadores en los que prácticamente cualquier tarea compleja reque-
ría del intérprete de comandos de MS-DOS para poder ser realizada, a otros en los que con mover
el cursor y pinchar en la opción deseada simplificaba en buena medida las tareas más comunes. Por
su parte, Intel volvió a realizar, por última vez hasta el momento, una versión de este procesador dos
años después. Se trataba del 80486SX, idéntico a su hermano mayor salvo que no disponía del co-
procesador matemático, lo que suponía una reducción del coste para aquellas personas que querían
entrar en el mundo de la informática sin necesidad de pagar una suma elevada.
El procesador 486DX2 es equivalente al 486DX pero se caracteriza por incorporar una tecnología
que duplica la frecuencia interna de reloj, esto es, la unidad central de proceso realiza las operaciones al
doble de velocidad que el resto de componentes del sistema aumentando notablemente las prestaciones
del ordenador. La unidad central de proceso 486DX4 es análoga al 486DX pero internamente triplica la
frecuencia de reloj, es decir, los componentes externos a la unidad central de proceso trabajan tres veces
más lento que ésta. En la práctica constituye el procesador más rápido de la gama 486.
NOTA: Un coprocesador es un microprocesador especializado en la ejecución
de cálculos matemáticos, que descargan de estas funciones a la unidad central de
proceso. Su necesidad depende de la complejidad de las aplicaciones que van a
ser ejecutadas.
El procesador 486SL es una versión del 486DX que se caracteriza por haber sido específicamen-
te diseñado para su utilización en ordenadores portátiles, cuidando sus necesidades especiales de
baja potencia y ahorro de energía.

4.6. PENTIUM
Intel anunció que en breve estaría en el mercado una nueva gama de procesadores que multi-
plicaría por cinco los rendimientos medios de los 80486. Se trataba de los Pentium. Estos proce-
sadores pasarán a la historia, entre otras cosas, por ser los primeros a los que Intel bautizó con una
palabra en vez de un número.
NOTA: El hecho de que se utilizase una palabra para denominar el nuevo
procesador, se debía a que es imposible patentar un número como marca, y otras
compañías se estaban aprovechando de esto para hacer competencia a Intel.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 509


MICROINFORMÁTICA

Estos procesadores que partían de una velocidad inicial de 60 MHz, han llegado hasta los 2400
MHz en la actualidad, aunque las versiones recientes nada tienen que ver con los primeros proce-
sadores de la gama, los cuales contaban con una arquitectura real de 32 bits y tecnología de 0,8
micras.
Los resultados no se hicieron esperar y las compañías empezaron, aunque de forma tímida, a
lanzar programas, como juegos, exclusivamente para el Pentium. Esta política se extendió a Micro-
soft cuando lanzó Windows 95, que aunque funciona en equipos dotados de un procesador 486, se
diseño para el procesador Pentium.

4.7. PENTIUM PRO Y PENTIUM II


La aparición en marzo de 1995 del procesador Pentium Pro supuso para los servidores de
red y las estaciones de trabajo un aire nuevo, tal y como ocurriera con el Pentium en el ámbito
doméstico.
La potencia de este nuevo procesador no tenía comparación hasta entonces, gracias a la arqui-
tectura de 64 bits y el empleo de una tecnología revolucionaria como es la de 0,32 micras, incluyen-
do cinco millones y medio de transistores en su interior. El procesador contaba con un segundo chip
en el mismo encapsulado que se encargaba de mejorar la velocidad de la memoria caché, lo que
resultaba en un incremento del rendimiento sustancioso. Las frecuencias de reloj se mantenían como
límite por arriba en 200 MHz, partiendo de un mínimo de 150 MHz.

4.8. TECNOLOGÍA MMX


La tecnología MMX es uno de los mayores pasos que ha dado Intel en la presente década, y
según ellos mismos, todos los procesadores que fabriquen llevarán incorporada esta arquitectura.
Para su desarrollo se analizaron un amplio rango de programas para determinar el funciona-
miento de diferentes tareas: algoritmos de descompresión de vídeo, audio o gráficos, formas de
reconocimiento del habla o proceso de imágenes, etc. El análisis dio como resultado que numerosos
algoritmos usaban ciclos repetitivos que ocupaban menos del 10% del código del programa, pero que
en la práctica suponían el 90% del tiempo de ejecución.
La tecnología MMX, compuesta por 57 instrucciones y 4 tipos de datos nuevos, se encarga de
realizar esos trabajos cíclicos consumiendo mucho menos tiempo de ejecución. Antes, para mani-
pular 8 bytes de datos gráficos requería 8 repeticiones de la misma instrucción; ahora, con la nueva
tecnología, se puede utilizar una única instrucción aplicada a los 8 bytes simultáneamente, obtenien-
do de este modo un incremento del rendimiento en un factor de 8.

4.9. CELERON
Los chips Celeron de Intel son una alternativa económica a los Pentium II. Este procesador ha
tenido una existencia bastante accidentada debido a los continuos cambios de planes de Intel.
Debemos distinguir entre dos empaquetados distintos. El primero es el SEPP que es compatible
con el Slot 1 y que viene a ser parecido al empaquetado típico de los Pentium II (el S.E.C.) pero sin
la carcasa de plástico.
El segundo y más moderno es el PPGA, idéntico al que utilizan los Pentium y Pentium Pro, pero
con distinto zócalo. En este caso se utiliza el Socket 370, incompatible con los anteriores socket 7 y
8 y con los actuales Slot 1. Existen unos adaptadores que permiten montar procesadores Socket 370
en placas Slot 1 (aunque no al revés).
También debemos distinguir entre los modelos que llevan caché y los que no, ya que las dife-
rencias en prestaciones son realmente importantes. Justamente los modelos sin caché L2 fueron
muy criticados porque ofrecían unas prestaciones que en algunos casos eran peores que las de los
Pentium MMX a 233.

510 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


MICROINFORMÁTICA

La caché optimiza aplicaciones de 32 bits, y se comercializa en versiones que van desde los 266
hasta los 466 Mhz. La caché L2 trabaja a la misma velocidad que el procesador (en los modelos en
los que la incorpora). La velocidad a la que se comunica con el bus (la placa base) sigue siendo de
66 Mhz. Posee el juego de instrucciones MMX.

4.10. PENTIUM III


Este nuevo procesador, bautizado originalmente con el nombre código Katmai, es casi idéntico al
Pentium II en cuanto a arquitectura y todavía sigue perteneciendo a la sexta generación de procesa-
dores x86 de Intel (la misma generación del Celeron y Pentium II). Esto quiere decir que las mejoras
son notables pero no revolucionarias.
La mejora más significativa del nuevo Pentium III con respecto a su predecesor, es el conjunto de
70 instrucciones nuevas (denominado KNI y que se está popularizando como MMX-2). Aunque MMX
efectivamente aceleraba todas las aplicaciones multimedia, los diseñadores de Intel cometieron un
grave error al no permitir que las aplicaciones pudieran usar simultáneamente MMX y el coprocesador,
por lo que la mayoría de las aplicaciones con gráficos 3D (las cuales utilizan intensos cálculos de
coma flotante) no podían aprovechar plenamente las instrucciones MMX.
Todo esto cambia con el Pentium III. Las extensiones KNI permiten que las aplicaciones puedan
utilizar paralelamente MMX-2 y el coprocesador matemático.
Las aplicaciones que más se benefician de las mejoras del Pentium III son:
– Todas las aplicaciones que requieran codificación/decodificación de MPEG2 en tiempo real,
más que todo aplicaciones que involucren reproducción y edición de imágenes.
– Juegos en 3D.
– Reconocimiento de voz.
– Diseño gráfico.
– Cualquier otra aplicación que adapten para tomar ventaja de las instrucciones MMX-2.
Al igual que el Pentium II, el Pentium III dispone de 512k de caché nivel 2 (L2) y una arquitectura
de 32 bits. El tamaño es igual al del Celeron (.25 micras) pero consume menos energía, de hecho
utiliza sólo 1,8V, eliminando la necesidad de un disipador de calor en el procesador.

4.11 ARQUITECTURAS DE PROCESADORES: CISC/RISC


La arquitectura CISC (Complex Instruction Set Computer) se caracteriza por disponer de un grupo
muy amplio de instrucciones muy complejas y potentes. Es más antigua que la arquitectura RISC y
por tanto su diseño está marcado por la tecnología existente en los años sesenta.
En las primeras arquitecturas los ordenadores tendían a aumentar su potencia a base de ampliar
su repertorio de instrucciones y de añadir instrucciones más potentes. El hecho de que el tiempo
de ejecución de una instrucción fuera de varios ciclos de reloj no representaba un problema puesto
que las velocidades de la memoria de control eran muy superiores a las velocidades de la memoria
principal. Así, aunque el proceso de las microinstrucciones se completase en un ciclo de reloj, no se
podría continuar con el proceso de la siguiente instrucción inmediatamente, ya que estaría alojada en
la memoria principal, de velocidad mucho más lenta que la memoria de control.
En los años setenta, las mejoras tecnológicas permitieron tener velocidades en la memoria prin-
cipal similares a la memoria de control, lo que hizo posible trabajar con instrucciones simples (que se
completan en un ciclo de reloj) y por tanto acelerar considerablemente la ejecución de instrucciones
(nada más terminar la ejecución de todas las microinstrucciones se empieza con la ejecución de la
siguiente instrucción).
Esta arquitectura, denominada RISC (Reduced Instruction Set Computer), se caracteriza por po-
seer un juego de instrucciones lo más reducido posible con un porcentaje alto de ellas que se comple-
tan en un ciclo de reloj. Si hubiese que ejecutar alguna instrucción compleja, necesitaría más de un
ciclo de reloj, pero la mayor parte de ellas se pueden realizar a partir de operaciones fundamentales.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 511


MICROINFORMÁTICA

Por otra parte, es una constatación estadística que la potencia práctica de un ordenador reside en un
conjunto pequeño de su repertorio de instrucciones, con lo cual si se reduce dicho repertorio se sigue
conservando la potencia del ordenador, y disminuye la complejidad del diseño y el coste.
Para ejecutar una tarea se necesitan más instrucciones en RISC que en CISC, ya que en RISC las
instrucciones son más elementales. Pero el hecho de tener actualmente unos mecanismos rápidos
de acceso a memoria, buses de alta velocidad y compiladores especializados en estas arquitecturas,
hace que los ordenadores RISC obtengan en general unos mejores rendimientos.
Ahora bien, algunas de las formas tradicionales de medir el rendimiento, como es el número de
MIPS, no son adecuadas para comparar el rendimiento de máquinas CISC y RISC. Esto se debe a que
los MIPS dan la cantidad de millones de instrucciones por segundo que desarrolla una máquina, pero
no tienen en cuenta la potencia de esas instrucciones. Por el propio diseño de la arquitectura RISC,
estas máquinas tienden a desarrollar más MIPS que las CISC.

4.12. EL FUTURO DE LOS MICROPROCESADORES


La evolución que están sufriendo los procesadores es algo que no parece escapar a la atención
de millones de personas, cuyo trabajo depende de hasta dónde sean capaces de llegar los ingenieros
de Intel a la hora de desarrollar nuevos chips.
El último paso conocido ha sido la implementación de la nueva arquitectura de 0,25 micras, que
viene a sustituir de forma rotunda la empleada hasta el momento, de 0,35 micras en los últimos
modelos de procesador. Esto va a significar varias cosas en un futuro no muy lejano. Para empezar,
la velocidad se incrementará una media del 33 por ciento con respecto a la generación anterior. Es
decir, el mismo procesador usando esta nueva tecnología puede ir un 33 por ciento más rápido que
el anterior. Además podremos disfrutar de una tecnología de 0,07 para el año 2011, lo que supondrá
la introducción en el procesador de mil millones de transistores y alcanzando una velocidad de reloj
cercana a los 10.000 MHz, es decir, 10 GHz.
La ley de Moore
El Dr. Gordon Moore, uno de los fundadores de Intel Corporation, formuló en el
año 1965 una ley que se ha venido a conocer como la Ley de Moore. La citada ley
nos viene a decir que el número de transistores contenidos en un microprocesador
se dobla más o menos cada dieciocho meses.
Esta afirmación, que en principio estaba destinada a los dispositivos de memo-
ria, se aplica también con éxito a los microprocesadores. Esta ley significa que cada
dieciocho meses, de forma continua, tenemos disponible una tecnología mejor.
La ley se ha venido cumpliendo durante los últimos 30 años, y se espera siga
vigente en los próximos quince o veinte. Queda claro que en los próximos años nos
espera una auténtica revolución en lo que a rendimiento de los procesadores se
refiere, como ya predijera Moore hace más de treinta años.

5. LA PLACA BASE
La placa base es el circuito básico del ordenador, donde se conectan todos los componentes que
lo forman. En este apartado veremos las características más importantes de estas placas.

5.1. ZÓCALO DEL MICROPROCESADOR


Es el lugar donde se inserta el “cerebro” del ordenador. Veamos en detalle los tipos más comunes
de zócalo, o socket:

5.1.1. PGA
Modelo clásico usado en el 386 y el 486; consiste en un cuadrado de conectores donde se
insertan las patitas del chip por pura presión.

512 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


MICROINFORMÁTICA

5.1.2. ZIF
Zero Insertion Force (socket), es decir, zócalo de fuerza de inserción nula. Eléctricamente es
como un PGA, aunque gracias a un sistema mecánico permite introducir el micro sin necesidad de
fuerza alguna, con lo que el peligro de estropear el chip por romperle un conector desaparece.
Apareció en la época del 486 y sus distintas versiones (sockets 3, 5 y 7, principalmente) se han
utilizado hasta que surgió el Pentium II. Actualmente se fabrican dos tipos de zócalos ZIF:
– Socket 7 o Super 7: Variante del Socket 7 que se caracteriza por poder usar velocidades
de bus de hasta 100 MHz.
– Socket 370 o PGA370: Físicamente similar al anterior, pero incompatible con él por utilizar
un bus distinto.

5.1.3. Slot 1
Es un invento de Intel para conectar los Pentium II, aunque se sospecha que las intenciones de
esta empresa son dejar fuera del mercado a su competencia, AMD y Cyrix.
Físicamente no se parece a nada de lo anteriormente existente. En vez de un rectángulo con aguje-
ritos para los conectores del chip, es un slot, una especie de conector alargado como los ISA o PCI.
Técnicamente no tiene muchas ventajas frente a los ZIF o PGA (e incluso puede que al estar los
conectores en forma de “peine” den lugar a más interferencias). Intel lo tiene registrado y no piensa
licenciarlo, aunque algunas empresas como Cyrix han conseguido ciertos pactos.

5.1.4. Otros
En ocasiones no existe zócalo en absoluto, sino que el chip está soldado a la placa, en cuyo
caso a veces resulta hasta difícil de reconocer. Es el caso de muchos 8086, 286 y 386SX, o chips
todavía más antiguos (8086 o 80286), que tienen forma rectangular alargada (parecida a la del chip
de BIOS) y patitas planas en vez de redondas. En estos casos el zócalo pertenece al modelo usado
para multitud de chips electrónicos de todo tipo.

5.2. RANURAS DE MEMORIA


Son los conectores de la memoria principal del ordenador. Ver tema 6 para más información.

5.3. EL CHIPSET
El chipset es el conjunto (set) de chips que se encargan de controlar determinadas funciones del
ordenador, como la forma en que interacciona el microprocesador con la memoria o la caché, o el
control de puertos PCI, AGP, USB...
Antiguamente estas funciones eran relativamente sencillas de realizar, por lo que el chipset era
el último elemento al que se concedía importancia, sin embargo la llegada de micros más complejos
como los Pentium o los K6, además de nuevas tecnologías en memorias y caché, le ha hecho cobrar
protagonismo. Los chipset más famosos son los siguientes:
– 430 FX (Tritón clásico): Un chipset bastante apropiado para los Pentium “normales” (no
MMX) con memorias tipo EDO. Hoy en día desfasado y descatalogado.
– 430 HX (Tritón II): La opción profesional del anterior. Mucho más rápido y con soporte para
placas duales (con 2 Pentium). Anticuado actualmente.
– 430 VX: Algo más lento que el HX, pero con soporte para memoria SDRAM. Se puede decir
que es la revisión del FX, o bien una versión económica del HX.
– 430 TX: Soporte MMX, SDRAM, UltraDMA... Sin embargo, carece de AGP y de bus a 100
MHz, por lo que se está quedando algo desfasado.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 513


MICROINFORMÁTICA

– 440 FX: Fabricado para el extinto Pentium Pro.


– 440 LX: Primer y muy eficiente chipset para Pentium II.
– 440 BX: Igual que el anterior pero con bus de 100 MHz.
– 440 EX: Basado en el LX pero de características recortadas. Sólo válido para procesadores
Celeron.

5.4. LA BIOS
Ver tema 3.

5.5. CONECTORES EXTERNOS


Se trata de los conectores para periféricos externos: teclado, ratón, impresora... En las placas base
tipo Baby-AT los conectores se sitúan en la carcasa del ordenador, y se unen con la placa base mediante
cables. La única excepción es el conector de teclado, que se incluye en la propia placa. En las placas
ATX los conectores están todos agrupados entorno al de teclado y soldados a la placa base.
Los principales conectores son:
– Teclado: Dos modalidades:
* Clavija DIN ancha propio de las placas Baby-AT
* Mini-DIN presentes en placas ATX y en muchos diseños propietarios
– Puerto paralelo: También llamado LPT1. Es un conector hembra de unos 38 mm, con 25
pines agrupados en 2 hileras. Generalmente sirve para conectar la impresora.
– Puertos serie: También denominados COM o RS232. Suelen ser dos, uno estrecho de unos
17 mm, con 9 pines agrupados en 2 hileras (habitualmente COM1), y otro ancho de unos
38 mm, con 25 pines agrupados en 2 hileras (generalmente COM2), como el paralelo, pero
macho, con los pines hacia fuera. Internamente son iguales, sólo cambia el conector exterior.
– Puerto para ratón PS/2: En realidad es un conector mini-DIN como el de teclado; el nom-
bre proviene de su uso en los ordenadores PS/2 de IBM.
– Puerto de juegos: O puerto para joystick o teclado midi. De tamaño algo mayor que el
puerto serie estrecho, de unos 25 mm, con 15 pines agrupados en 2 hileras.
– Otros: en las placas más modernas (ni siquiera en todas las ATX) pueden existir otros tipos
de puerto, de los cuales el más común es el USB, de forma estrecha y rectangular.
Actualmente los teclados y ratones tienden hacia el mini-DIN o PS/2, y se supone que en unos
años casi todo se conectará al USB.

5.6. CONECTOR ELÉCTRICO


Es donde se conectan los cables para que la placa base reciba la alimentación proporcionada
por la fuente. En las placas Baby-AT los conectores son dos, si bien están uno junto al otro, mientras
que en las ATX es único.
Cuando se trata de conectores Baby-AT, deben disponerse de forma que los cuatro cables negros
(2 de cada conector), que son las tierras, queden en el centro.
Una de las ventajas de las fuentes ATX es que permiten el apagado del sistema por software.

5.7. PILA
La pila del ordenador se encarga de conservar los parámetros de la BIOS cuando el ordenador
está apagado. Sin ella, cada vez que encendiéramos tendríamos que introducir las características del
disco duro, del chipset, la fecha y la hora...

514 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


MICROINFORMÁTICA

Se trata de un acumulador, pues se recarga cuando el ordenador está encendido. Sin embargo,
con el paso de los años pierde poco a poco esta capacidad (como todas las baterías recargables)
y llega un momento en que hay que cambiarla. Esto, que ocurre entre 2 y 6 años después de la
compra del ordenador, puede vaticinarse observando si la hora del ordenador “se retrasa” más de
lo normal.

5.8. ELEMENTOS INTEGRADOS VARIADOS


Las placas base modernas pueden incluir ciertos componentes en vez de ir en forma de tarjetas
de expansión. Los más comunes son:
– Controladoras de dispositivos: En general todas las placas Pentium y algunas 486
disponen de unos chips en la placa base que se encargan de manejar los discos duros,
disqueteras y puertos serie (puertos COM); algunas de alta gama incluso tienen controla-
doras SCSI integradas.
– Tarjeta de sonido: Actualmente una tarjeta de 16 bits puede consistir en un único chip en
la placa base.
– Controladoras de vídeo: Las que incorporan las placas base no suelen ser de una potencia
excepcional, pero sí suficiente para trabajos de oficina.
Sobre la conveniencia o no de que las placas base tengan un alto grado de integración de com-
ponentes hay opiniones para todos los gustos. Indudablemente, salen más baratas y es más cómodo,
ya que el interior de la caja está limpio de cables y tarjetas; sin embargo, no siempre son componen-
tes de alta gama (sobre todo en tarjetas de sonido y vídeo).

6. BUSES
El bus constituye el medio físico a través del cual se comunican entre sí todos los componentes
de un ordenador. Su capacidad y rendimiento deben estar en correspondencia con la demanda de
servicio que realizan los componentes a él conectados, tales como la unidad central de proceso, la
memoria, etc.
Un bus se puede caracterizar desde el punto de vista tecnológico por varios factores, de los cua-
les los más significativos son su longitud de palabra de datos, el protocolo de arbitrio y su velocidad
de transferencia en MegaBytes/s. Estos factores definen las arquitecturas que vamos a estudiar a
continuación:

6.1. ISA
ISA: Industry Standard Architecture
Bus de datos original de los primeros PC. Maneja palabras de 16 bits a una velocidad de trans-
ferencia de 10 MB/s. Esta arquitectura constituye la base de la mayoría de los equipos instalados
hasta mediados de los noventa. Puede ocasionar cuellos de botella cuando se trata de dar servicio
a periféricos de alta velocidad como por ejemplo al sistema gráfico. La solución a este problema ha
sido abordada desde varias alternativas.

6.2. MCA
MCA: Micro Channel Architecture
Bus de 32 bits con velocidad de transferencia de 40 MB/s. Su principal inconveniente es la in-
compatibilidad absoluta con la arquitectura ISA. Ello significa una amenaza potencial a las inversiones
realizadas previamente en tarjetas de ampliación. En la actualidad su utilización es residual en la línea
de equipos PS/2 de IBM.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 515


MICROINFORMÁTICA

6.3. EISA
EISA: Extended Industry Standard Architecture
Dado que la arquitectura MCA era muy cerrada, un grupo de fabricantes de microordenadores,
AST Research, Compaq Computer, Epson, Hewlett-Packard, NEC, Olivetti, Tandy, WYSE, and Zenith
Data Systems, decidieron crear un bus con prestaciones superiores al ISA, pero que a su vez fuera
compatible con él, esto dio origen al bus EISA (ISA Extendido). Sus características eran: 32 bits,
ancho de banda de 33 MB/s y frecuencia de reloj 8 MHz.
EISA sólo se ha usado en los microordenadores de gama alta y ha tenido poca difusión, a pesar
de sus ventajas sobre ISA y a ser compatible con las tarjetas de expansión existentes, lo cual ha re-
percutido en que no se abarataran los precios.
Aun siendo tres veces más rápida que la arquitectura ISA, su rendimiento es inferior a la deman-
da de servicio realizada por el sistema gráfico, por lo que su presencia prácticamente se reduce a
servidores de red de área local como segundo bus de baja velocidad.
De forma que en el año 1992 la situación era la siguiente:
– Bus ISA: Generaba un auténtico cuello de botella
– Bus MCA: Muy restringido y sin difusión al gran público
– Bus EISA: Sólo usado en equipos de gama alta
La demanda de mayor ancho de banda hizo inevitable la aparición de nuevas arquitecturas de bus.

6.4. VL-BUS
VL-Bus: Vesa Local Bus
VESA es el acrónimo de la Asociación de Fabricantes de controladoras de Vídeo (Video Electro-
nics Standars Association), que agrupa a más de 120 fabricantes, y fueron los que propusieron este
bus, disponible desde finales de 1992.
Es una extensión de la arquitectura tradicional del PC. Dado que el bus ISA es un cuello de botella,
la solución es conectar algunos dispositivos directamente a la CPU, mediante un bus conocido como bus
local. Este ha de tener el mismo ancho que el microprocesador (16 bits en un 286 o 386SX y 32 bits en
un 386DX o 486). Utiliza un bus de 32 bits y ofrece una velocidad de transferencia de 132 MB/s.
Esta solución presenta la ventaja de sus elevadas prestaciones a cambio de soportar un núme-
ro pequeño de periféricos y ser dependiente de la unidad central de proceso utilizada. La solución
adoptada mayoritariamente por los fabricantes consiste en la utilización de esta arquitectura para los
componentes más rápidos del ordenador, tales como el sistema gráfico y el sistema de almacena-
miento en disco, y el empleo de la arquitectura ISA para dar servicio a los periféricos más lentos. Esta
arquitectura soluciona eficazmente los problemas más críticos de la arquitectura ISA y resuelve las
necesidades actuales en cuanto a potencia y rendimiento del ordenador.
Pueden surgir algunos problemas, pues la CPU no puede soportar la conexión directa de más de
dos o tres tarjetas, además el diseño de la placa base ha de hacerse de forma que las distancias sean
mínimas para evitar retrasos. También es conveniente usar memorias caché. Su principal ventaja es
que cuadruplican el ancho de banda, llegando a 133MB/s.
Al salir al mercado las placas madre con bus VESA, su precio era superior a las con bus ISA, hubo
una época en que dominaron el mercado, pero a partir del año 1996, han desaparecido del mercado,
frente al bus PCI, que se comenta en el apartado siguiente. Sólo se llegaron a fabricar algunas placas
VESA para equipos Pentium.

6.5. PCI
PCI: Peripheral Component Interconnect
PCI es abreviatura de “Peripheral Component Interface”, creado por Intel (Architecture Lab de In-
tel), en 1991. En 1992 Intel y otras compañías formaron el Special Interest Group para promocionar,

516 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


MICROINFORMÁTICA

supervisar y mejorar el desarrollo de PCI como estándar de bus local abierto y no propietario. Este
grupo cuenta con más de 160 fabricantes. Es una solución completa, dado que a diferencia del VESA
incluye el soporte de interrupciones y DMA. Lo cual implica que necesita tres chips específicos, y por
lo tanto un coste superior.

 

    



 


  
 
  
 

Esquema de un bus combinado ISA y PCI

Al contrario del bus local VESA que sólo está pensado para acelerar las aplicaciones gráficas, PCI
es una solución de sistema global. Proporciona mayores prestaciones para los adaptadores de redes,
unidades de disco duro, vídeo animado, gráficos y otros periféricos que requieren gran velocidad.
Funcionando a una velocidad de reloj de 33 MHz, PCI emplea un bus de datos de 32 bit y ancho
de banda de 132 MB/s, frente a 5 MB/s del bus ISA.
Las especificaciones del bus local PCI ofrecen un número de beneficios claves.
– Compatibilidad: Es compatible, en la arquitectura de placas base, con ISA, EISA y MCA, y
a veces también se encuentran placas que incluyen el VESA. A su vez cualquier tarjeta PCI
funcionará con cualquier sistema compatible PCI, sin que importe el tipo de bus de expan-
sión o de CPU en uso.
– Independencia del procesador: La arquitectura independiente del procesador de PCI dis-
pone de un diseño único de buffer intermediario entre el subsistema de la CPU y los periféri-
cos. Lo normal es que si se añaden a la CPU más dispositivos, se degraden las prestaciones
y baje la fiabilidad. El uso del buffer permite a los usuarios ampliar su sistema al añadir múlti-
ples dispositivos periféricos e introducir variaciones de prestaciones a diferentes velocidades
de reloj. El diseño independiente del microprocesador asegura que los diseños de las placas
no se quedarán obsoletos.
– Soporte de plataforma flexible: PCI proporciona una solución de bus local económica para
cualquier tipo de equipo, no sólo los normales, sino para los servidores y los portátiles.
– Rentabilidad: PCI se diseño con un objetivo de bajar los costes globales de los desarrollos. Utiliza
chips altamente integrados que incorporan funciones de sistema como controladores de DRAM y
caché, eliminando costes y espacio asociados con la circuitería de soporte. Frente a los chips VESA
con 80 patillas, los PCI son más pequeños, pues multiplexan los buses de datos y direcciones.
Otras características para permitir operaciones simultáneas, mantener el bus lleno de datos y
minimizar los estados de espera de la CPU, son:
– Ráfagas Lineales: Método de transferencia de datos que asegura que el bus siempre ten-
ga datos. Estas ráfagas permiten utilizar más ancho de banda para enviar datos en vez de
direcciones. Además PCI soporta tanto lecturas como escrituras en ráfaga, muy importante
con aceleradores gráficos, cuando más del 90% de los accesos de datos de la CPU, son
escrituras a la memoria de vídeo desde la memoria principal. Aunque en los nuevos diseños
se está dando otro tratamiento más eficaz a los sistemas gráficos.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 517


MICROINFORMÁTICA

– Baja latencia de acceso: Los dispositivos diseñados para soportar PCI tienen una baja
latencia de acceso (tiempo requerido para que un periférico obtenga el control del bus des-
pués de requerir el acceso).
– Concurrencia y Bus Master (Maestros de Bus): En la mayoría de los buses existe el
dominio de bus, que permite a cualquiera de un número de periféricos inteligentes tomar el
control del bus para acelerar las tareas de proceso intensivo de alta prioridad. La posibilidad
de concurrencia, única de PCI, asegura que el microprocesador opera simultáneamente con
estos maestros, en vez de esperarlos.
La siguiente tabla muestra una comparativa de las características más significativas de los buses:

NOMBRE N. BIT VELOCIDAD (MHZ) ANCHO DE BANDA (MB/S)


ISA 16 8 4
MCA 32 10 33
VESA 64 =CPU 133
PCI 32 33 133

6.6. NUBUS
Los Macintosh utilizan la denominada arquitectura NUBUS, que está constituida en torno a un bus de
32 bits y presenta como principal ventaja la incorporación de una ranura de expansión denominada PDS
(Processor Direct Slot) que permite la comunicación directa con la unidad central de proceso.

6.7. AGP
Aunque en muchos documentos oficiales se trata el estándar AGP como un bus, en realidad es
un puerto, pues sólo comunica un periférico: la tarjeta gráfica con el procesador. Las placas base AGP
disponen de un único slot de este tipo. Su aspecto es similar al slot PCI, si exceptuamos que la ranura
más pequeña está en el lado contrario, es de color oscuro, y se encuentra aislado en medio de la pla-
ca. Una tarjeta gráfica PCI no es compatible con el slot AGP, existen placas especiales de este tipo.
La primera ventaja del puerto AGP es que libera al bus PCI de todas las tareas gráficas. Esto per-
mite aumentar el ancho de banda del resto de periféricos que utilizan dicho bus (disco duro, tarjetas
de todo tipo, módems y demás) por lo se produce una mejora importante en su rendimiento.
AGP destaca también por su velocidad. Una tarjeta gráfica PCI se comunica con la CPU a través
del bus PCI a 33 MHz (133 Mb/sg) Una tarjeta AGP se basa en la especificación 2.1 del propio es-
tándar PCI que aumenta la velocidad del bus a 66 MHz, permitiendo una velocidad de transferencia
de 266 Megas/sg. Este sistema se denomina AGP 1X. Las primeras tarjetas AGP que aparecieron en
el mercado utilizan este modo de funcionamiento, que fue posteriormente mejorado con el sistema
AGP 2X, doblando la tasa de transferencia hasta los 533 Megas/sg. La técnica para conseguir esta
velocidad es transmitir los datos al principio y al final de cada ciclo de reloj.
En poco tiempo estarán en el mercado las primeras tarjetas AGP 4X (4 transferencias de datos
por cada ciclo de reloj), que dispondrán de una velocidad de 1066 Mb/sg. El aumento de velocidad
del bus mejora las prestaciones de la tarjeta AGP, sin embargo, se mantienen las limitaciones del bus
PCI. Para solucionar esto, AGP incorpora técnicas:
– Memoria AGP: La memoria AGP es el resultado de adoptar el modo DIME (Ejecución Direc-
ta en Memoria), un nuevo concepto que trata la memoria principal como si fuese memoria
gráfica o de vídeo. Obviamente, hay que reservar una parte de la memoria principal para las
otras tareas que tienen lugar dentro de un programa, por lo que una tarjeta AGP sólo utilizará
una parte, conocida como memoria AGP.
Una variación de este método, conocida como DIMEL, mezcla memoria principal y de vídeo
(local) para procesar las texturas. Las más utilizadas se sitúan en la memoria local, más
rápida, y el resto en la memoria principal. Este proceso mejora la velocidad.

518 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


MICROINFORMÁTICA

Existe un dispositivo llamado GART (Tabla de remapeado de Direcciones Gráficas) que controla
qué tipo de memoria se utiliza en cada momento, ofreciendo las direcciones de forma transpa-
rente al chip gráfico, como si se tratase de una única memoria situada en lugares contiguos.
– Modo SBA: También llamado direccionamiento de líneas de señal adicionales. El bus AGP,
además de los 32 bits para procesar los datos, dispone de 8 bits adicionales que generan
nuevos comandos. Por ejemplo, mientras se transmite una textura entre las memorias, el
dispositivo AGP puede requerir la siguiente a través de estas 8 líneas extras. Hasta ahora,
una tarjeta PCI sólo podía realizar una nueva petición de datos a la CPU cuando había com-
pletado la anterior. AGP puede realizar hasta 35 peticiones aunque no se hayan recibido
los datos de las anteriores. Así se reducen los tiempos de espera y se aprovecha mejor las
posibilidades de la tarjeta.
– Bus Mastering: El chip AGP puede recoger información de la memoria principal sin tener
que esperar una instrucción específica de la CPU.

7. SISTEMAS DE MEMORIA
Ver tema 3.

8. DISPOSITIVOS DE ALMACENAMIENTO
Ver tema 4.

9. COMUNICACIONES

9.1. INTERFAZ SERIE RS-232


El puerto serie es un dispositivo muy extendido; todos los PC lo incorporan actualmente, ya sea
uno o dos, con conector grande o pequeño. La institución de normalización americana (EIA) diseñó la
norma RS-232-C que regula el protocolo de la transmisión de datos, el cableado, las señales eléctri-
cas y los conectores en los que debe basarse una conexión RS-232.
La comunicación realizada con el puerto serie es una comunicación asíncrona. Para la sincroni-
zación de una comunicación se precisa siempre de una línea adicional a través de la cual el emisor y
el receptor intercambian la señal del pulso. Pero en la transmisión serie a través de un cable de dos
líneas esto no es posible ya que ambas están ocupadas por los datos y la masa. Por este motivo se
intercalan antes y después de los datos informaciones de estado según el protocolo RS-232. Esta
información es determinada por el emisor y receptor al estructurar la conexión mediante la correspon-
diente programación de sus puertos serie.

9.2. INTERFAZ PARALELO


Este puerto dispone de hasta 9 bits de entrada y 12 de salida. El puerto se compone de 4 líneas
de control, 5 de condición y 8 líneas de datos. Se encuentra usualmente al dorso del ordenador per-
sonal como un conector DB 25 hembra.
El puerto paralelo se normaliza bajo el estándar IEEE 1284, primer estándar revisado en 1994.
Esta norma define cinco modos de operación:
– El Modo de Compatibilidad.
– Modo Nibble.
– Modo de Octeto (byte).
– Modo EPP (Enhanced Parallel Port).
– Modo ECP (Extended Capabilities Mode)

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 519


MICROINFORMÁTICA

La compatibilidad con los modos Nibble & Octeto usa simplemente el hardware estándar dispo-
nible sobre las tarjetas originales del Puerto Paralelo, mientras que los modos EPP & ECP requieren
de algún hardware adicional para poder correr a velocidades más rápidas, pero todavía sigue siendo
compatible con su antecesor: el puerto paralelo estándar.
El modo de compatibilidad o “Modo Centronics”, como se conoce usualmente, sólo puede enviar los
datos en una dirección a una velocidad típica de 50 Kb/sg, pudiendo alcanzar picos de hasta 150 Kb/sg.

9.3. INTERFAZ USB


USB es una interfaz para transmisión de datos y distribución de energía introducida en el merca-
do de PC y periféricos para mejorar los puertos lentos (RS-232 y paralelo). Esta interfaz de 4 hilos y
velocidad de 12 Mbps, distribuye 5V para alimentación, transmite datos y ha sido adoptada rápida-
mente por la industria informática.
USB (Universal Serial Bus, bus serie universal), como su nombre indica, es un bus serie que hace
posible la conexión de hasta 127 periféricos a un único puerto del PC. Posee capacidad de detección
y configuración automáticas (plug and play) con el PC conectado a la red, sin tener que instalar nin-
gún hardware ni software adicional y sin tener que reiniciar el ordenador.
Desarrollado por empresas líderes del sector de las telecomunicaciones y de los ordenadores
(Compaq, DEC, IBM, Intel, Microsoft, NEC y Northern Telecom), actualmente ya se encuentran en
el mercado multitud de periféricos USB (teclados, ratones, monitores, módems, etc.). Windows 98
fue el primer sistema operativo que incluye los drivers necesarios para soportar los puertos USB sin
necesidad de software adicional.
USB es un bus basado en el paso de un testigo, semejante a otros buses como los de las redes
locales en anillo con paso de testigo y las redes FDDI. El controlador USB distribuye testigos por el bus.
El dispositivo cuya dirección coincide con la que porta el testigo responde aceptando o enviando datos
al controlador. Este también gestiona la distribución de energía a los periféricos que lo requieran.
El sistema de bus serie universal USB consta de cuatro componentes:
– Controlador: Reside dentro del PC y es responsable de las comunicaciones entre los peri-
féricos USB y el procesador del PC, y de la admisión de los periféricos dentro del bus, tanto
si se detecta una conexión como una desconexión. Para cada periférico, el controlador de-
termina su tipo y le asigna una dirección lógica. Si se producen errores durante la conexión,
el controlador lo comunica al procesador que a su vez lo transmite al usuario. Una vez se
ha producido la conexión correctamente, el controlador asigna al periférico los recursos del
sistema que éste precise para su funcionamiento.
– Concentradores o hubs: Son distribuidores inteligentes de datos y alimentación que hacen
posible la conexión a un único puerto USB de 127 dispositivos. De una forma selectiva re-
parten datos y alimentación entre ellos.
Además del controlador, el PC también contiene el concentrador raíz. Este es el primer
concentrador de toda la cadena que permite a los datos y a la energía pasar a uno o dos
conectores USB del PC, y de allí a los 127 periféricos que como máximo puede soportar el
sistema mediante concentradores adicionales.
– Periféricos: USB soporta periféricos de baja y media velocidad, empleando dos velocidades
(1,5 y 12 Mbps) para la transmisión de datos según las necesidades de los periféricos.
– Cables y conectores: USB transfiere señales y energía a los periféricos utilizando un cable
de 4 hilos, apantallado para transmisiones a 12 Mbps y no apantallado para transmisiones
a 1,5 Mbps. La longitud máxima de los cables es de 5 metros.
Los conectores son del tipo ficha y receptáculo de dos tipos:
* Serie A: Presentan las cuatro patillas correspondientes a los cuatro conductores ali-
neadas en un plano. El color recomendado es blanco sucio y los receptáculos se
presentan en cuatro variantes: vertical, en ángulo recto, panel y apilado en ángulo
recto así como para montaje pasamuro. Se emplean en aquellos dispositivos en los
que el cable externo está permanentemente unido a los mismos, tales como teclados,
ratones, y hubs o concentradores.

520 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


MICROINFORMÁTICA

* Serie B: Presentan los contactos distribuidos en dos planos paralelos, dos en cada
plano, y se emplean en los dispositivos que deban tener un receptáculo al que poder
conectar un cable USB. Por ejemplo impresoras, escáneres, y módems.
USB ha sido diseñado para las futuras generaciones de PC y ofrece interesantes posibilidades
a un gran número de aplicaciones tales como audio digital y telefonía de banda ancha. La compa-
tibilidad universal de USB elimina riesgos en las ofertas de productos, posibilitando combinaciones
innovadoras de PC, periféricos y software que cubran las necesidades de determinados segmentos
de mercado.
La tecnología USB contribuirá de forma notable al desarrollo de la telefonía mediante PC. El
ancho de banda de USB permite la conexión de interfaces de alta velocidad (RDSI, PRI, T1, E1) y
posibilita la adaptación a normas de telefonía específicas de un país sin tener que añadir tarjetas
adicionales.
USB posee un amplio respaldo por parte de las industrias de telecomunicaciones y de software,
y está actualmente respaldado por más de 250 empresas.

9.4. PCMCIA
La asociación de fabricantes PCMCIA (Personal Computer Memory Card International Associa-
tion) ha desarrollado un bus de 32 bits que presenta, como principales ventajas, la capacidad de
configuración automática de los periféricos y la posibilidad de insertar o extraer tarjetas del equipo sin
necesidad de apagarlo. Por el contrario PCMCIA adolece de inconvenientes potenciales en cuanto a
posibilidad de intercambio de tarjetas entre equipos de distintos fabricantes.
La arquitectura PCMCIA se diseñó por requisito exclusivo de la industria de ordenadores portátiles
y hoy en día es el estándar de este tipo de ordenadores. Existen distintos tipos de tarjetas PCMCIA
dependiendo de su grosor: tipo I (3,3 mm), tipo II (5 mm) y tipo III (10,5 mm). Lo más conveniente
en un portátil es que posea el mayor número posible de ranuras del tipo III, pues en ellas se podrá
conectar cualquier tarjeta PCMCIA.

10. PERIFÉRICOS
Ver tema 4.

11. SISTEMAS OPERATIVOS DE MICROORDENADORES

11.1. INTRODUCCIÓN
Ver tema 7.

11.2. EVOLUCIÓN
El mercado de sistemas operativos de PC ha sido dominado fuertemente por el DOS (Disk Operating
System) de IBM y Microsoft desde que fueron instalados sobre los PCs originales de IBM en 1981.
A lo largo de los años otros sistemas operativos han ofrecido capacidades más avanzadas y venta-
jas especiales, pero ninguno tuvo tanto éxito como el DOS. Esto puede atribuirse fundamentalmente a
que DOS es el sistema operativo utilizado en la gran mayoría de ordenadores basados en procesadores
de Intel. En el pasado la única alternativa significativa al DOS no fue ningún sistema operativo diseñado
para PC, sino la serie Apple Macintosh (MAC) que se basa en procesadores de Motorola.
Los Macintosh incorporaban originariamente tecnología software muy diferente y más sofisticada
que el DOS. Por ejemplo, una pantalla gráfica de alta resolución, iconos, ratón, ventanas (windows),
y una aproximación modular a los datos que facilita que las aplicaciones compartan e intercambien
datos. Características estas que se agrupan bajo el término GUI (Graphics User Interface).

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 521


MICROINFORMÁTICA

IBM y Apple presentaban una clara dicotomía en los PC. Los usuarios podían elegir entre la
aproximación del DOS, el más frecuente, orientado a texto, controlado por línea de comandos, o la
del Macintosh, menos frecuente, orientada a gráficos, dirigida por iconos y controlada por ratón. Cada
uno tenía sus propias fuerzas y debilidades, y cada uno ofrecía un abanico diferente de aplicaciones.
Hoy, sin embargo, los sistemas compatibles con IBM pueden soportar tanto una línea de comandos
como una interfaz GUI.
Al mismo tiempo otros sistemas operativos diferentes trataban de reemplazar al DOS sobre siste-
mas basados en chips de Intel, aunque éste sigue siendo el estándar industrial de facto. Entre estos
se incluyen el OS/2 de IBM, diversas versiones de UNIX, y otros como DR DOS y DR Multiuser DOS.
Junto con los sistemas operativos actuales dirigidos hacia el mercado de PC, podemos encontrar
toda la gama de versiones del popular Windows de Microsoft, un sistema operativo de 32 bits que
permite a los desarrolladores añadir características de 32 bits a sus aplicaciones de Windows y pro-
porciona propiedades de seguridad más avanzadas. Además, muchos sistemas operativos existentes
basados en UNIX de 32 bits con interfaces GUI están siendo portados a la arquitectura de Intel desde
otras plataformas como por ejemplo Solaris, de SunSoft.
IBM y Microsoft, que fueron socios para el desarrollo y la promoción del OS/2 como sucesor del
DOS, se han convertido en fieros competidores debido a la decisión de Microsoft de promocionar
Windows y Windows NT, no continuando la promoción del OS/2. Debido a la antigua alianza ambos
tienen acuerdos de licencia para los productos mutuos.
Cada uno de ellos, IBM y Microsoft, han decidido buscar otros aliados. IBM y Apple formaron un
consorcio denominado Taligent que está desarrollando nueva tecnología de sistemas operativos orienta-
dos a objeto. Microsoft y Digital Equipment Corporation (DEC) tienen una serie de acuerdos de desarrollo
conjuntos para hacer que sus sistemas, aplicaciones y productos de software de red trabajen juntos.

11.3. DOS
Acrónimo para Disk Operating System. El término DOS puede referirse a cualquier sistema opera-
tivo, pero frecuentemente se utiliza como abreviatura de MS-DOS (Microsoft Disk Operative System).
Originalmente desarrollado por Microsoft para IBM, fue el sistema operativo estándar para los IBM PC
(PC-DOS) y compatibles (MS-DOS).
DOS ha evolucionado de las versiones 1 a la 6 en doce años, guardando cuidadosamente mucha
compatibilidad con las versiones anteriores a la vez que ha incrementado sus capacidades y caracte-
rísticas. La versión inicial del DOS era muy simple y se parecía a otro sistema operativo llamado CP/M.
Las versiones siguientes llegaron a ser muy sofisticadas e incorporar características de los sistemas
operativos de minicomputadores. Sin embargo, DOS es aún un sistema operativo de 16 bits y no
soporta múltiples usuarios o multitarea.
Durante algún tiempo se consideró a DOS insuficiente para las modernas aplicaciones de mi-
croordenadores. Microsoft Windows resolvió algunos problemas creando una capa por encima de
DOS que ofrecía algunos servicios. Incluso Windows 95 se sitúa por encima del DOS. Otros sistemas
operativos más recientes como Windows 98, NT, 2000 y OS/2 Warp, no utilizan DOS aunque pueden
ejecutar programas basados en él. Estos sistemas operativos han ganado el mercado, por lo que DOS
tiende a desaparecer.
El DOS ofrece a los usuarios una interfaz de usuario estable basada en caracteres, orientada a
línea de comandos. Aunque a menudo recibe criticas como el ser una tecnología antigua, el DOS ha
ido manteniendo activos y útiles durante muchos años a los ordenadores basados en chips de Intel.
El crecimiento de la tendencia del PC como ordenador de empresa, y su capacidad continuada para
llevar a cabo las muchas funciones que ahora mismo soporta, han sucedido bajo el DOS.
El DOS surgió en una época en que el ordenador medio tenía mucha menos memoria, espacio
de almacenamiento en disco, y capacidad de proceso de la que tiene actualmente. A pesar de las
mejoras obtenidas bajo DOS, el sistema operativo es más conocido por sus limitaciones que por sus
habilidades. Estas limitaciones incluyen una asignación de RAM máxima de 640 Kbytes para aplica-
ciones, una interfaz basada en caracteres que esencialmente requiere que el usuario lea palabras
y teclee comandos, y la imposibilidad de coger o ejecutar más de un programa de software en un
momento dado (multitarea).

522 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


MICROINFORMÁTICA

La versión 4.x del DOS se orientaba hacia algunas de las limitaciones de las primeras versiones
del sistema operativo. La 4.x del DOS eliminó el límite de 32 Mbytes para las unidades de disco lógi-
cas y solucionó parcialmente el límite anterior de RAM de 640 Kbytes mediante soporte incorporado
para el Lotus/Intel/Microsoft Expanded Memory Standard (HM EMS). La 4.x del DOS también introdujo
la DOS Shell, una interfaz de usuario basada en texto controlado por teclas de cursor o por ratón
que se puede utilizar en lugar de los comandos basados en caracteres tradicionales. La DOS Shell
simplifica el acceso a ficheros y la gestión del disco.
La versión DOS 5 mejoró más aún las funcionalidades de gestión de memoria del sistema ope-
rativo e introdujo varias utilidades nuevas, incluyendo el DOSKEY que recuerda comandos que han
sido introducidos de forma que no es necesario volver a escribir comandos tecleados anteriormente,
y EDIT, un editor de pantalla completa que permite a los usuarios escribir, cortar, copiar, e incluir, de
forma muy parecida a un procesador de texto. Esta versión también incluye ficheros limitados y recu-
peración de datos y facilidades de caché en disco.
La versión 6 añadió algunas características sumamente útiles, hasta el punto de eliminar la
necesidad de muchas utilidades de terceras partes. La compresión de disco, aunque no compatible
con todos los ordenadores y todo el software, casi puede doblar el espacio utilizable de una unidad
dura de PC. La compresión reduce el tamaño del fichero por medio de la búsqueda de repeticiones
y espacio “vacío” en un fichero y la codificación de éstos. Siempre que se accede al fichero, éste es
automáticamente descomprimido y utilizado como si fuera normal.
La versión DOS 6 también introdujo protección antivirus limitada (con licencia Norton de Syman-
tec), funciones undelete mejoradas que ahora trabajan bajo Windows, y software de backup que no
soporta unidades de cinta (también con licencia de Symantec). DOS 6 viene con una instalación auto-
mática para gestión de memoria, reduciendo sustancialmente los requisitos de conocimiento interno
de la memoria por parte del usuario. DOS 6 también puede avisar al usuario sobre qué unidades de
dispositivos instalar cada vez que arranca, tiene documentación de tipo hipertexto “tecla caliente” en
línea y tiene servicios de desfragmentación de disco limitados para acelerar el acceso al disco.
Los paquetes de software residentes (TSR) intentan compensar las limitaciones inherentes del DOS
proporcionando a los usuarios una serie de aplicaciones a las que se puede acceder fácilmente sin salir del
programa actualmente en uso. Mientras que muchas aplicaciones TSR típicas han sido absorbidas por entor-
nos como Windows, siguen siendo útiles para los usuarios que continúan usando PC-DOS y MS-DOS.
Los programas TSR están cargados en memoria y permanecen latentes, invisibles al usuario.
Mientras están latentes estos programas están escondidos en la memoria, sin interferir con otras apli-
caciones activas o principales. Cuando el usuario teclea una secuencia de teclas específica llamada
hot-key (tecla caliente), el software TSR se activa instantáneamente congelando la aplicación princi-
pal y tomando el control de la pantalla, el teclado, E/S y las actividades de proceso del ordenador. Más
tarde se devuelve el control al programa de aplicación justo en el punto donde se quedó.
Los entornos operativos generalmente ofrecen dos ventajas significativas sobre el DOS ordina-
rio. En primer lugar proporcionan una interfaz de usuario de ordenador más simple, más intuitiva, bien
basada en gráficos o bien en textos, que es más fácil de comprender.
El entorno operativo también proporciona más ayuda y mayor facilidad para las funciones de
comandos y control necesarias para llevar a cabo tareas específicas. Los entornos operativos tam-
bién hacen mayor utilización de la potencia de los nuevos chips procesadores, potencia que el DOS
u otros sistemas operativos basados en texto no aprovechan, incluyendo algún nivel de capacidad de
multitarea y acceso a cantidades mucho mayores de memoria de sistema.
Uno de los entornos operativos más utilizados, el Microsoft Windows, cuya aceptación por parte
de los usuarios fue bastante tímida durante la mayor parte de los ochenta a raíz de la liberación de
la versión 3.0, en 1990 causó un impacto sin precedentes en la industria. A continuación surgieron
actualizaciones a Windows 3.1 y Windows para trabajo en grupo, más estable y que proporcionaban
compartición de recursos, que alcanzaron enormes cotas de mercado.

11.4. DR-DOS
El DR DOS de Novell Desktop Systems Group, en su versión 6, es una alternativa más avanzada
y menos costosa al PC-DOS y al MS-DOS. El DR DOS incluye toda la funcionalidad de la versión 5.x
de PC-DOS y MS-DOS, pero incorpora características adicionales como utilidades de compresión y
gestión de memoria más sofisticada.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 523


MICROINFORMÁTICA

11.5. OS/2
Sistema operativo para PC desarrollado originalmente por Microsoft e IBM, pero vendido y uti-
lizado sólo por IBM. OS/2 es compatible con DOS y Windows, lo cual significa que puede ejecutar
todo programa DOS o Windows. Sin embargo, los programas escritos específicamente bajo OS/2 no
pueden ejecutarse bajo DOS o Windows.
Desde su introducción en la década de los ochenta, OS/2 ha tenido numerosos problemas téc-
nicos y de mercado. Luego Microsoft abandonó el proyecto a favor de su propio sistema operativo
Microsoft Windows. Esto supuso una ruptura entre los dos grandes gigantes de los computadores.
OS/2 fue diseñado originariamente para gestionar las características del chip 80286 de Intel,
incluyendo multitarea, gestionando grandes cantidades de memoria, y generando pantallas gráficas
llenas de colorido y detalladas en tiempo real. La optimización del 80286 fue sin embargo un logro
bastante dudoso, dado que la plataforma de la CPU de 16 bits fue pronto considerada como de gama
baja y casi obsoleta, la última versión (a finales de 1993), OS/2 2.1, está diseñada para explotar a
fondo las CPUs de 32 bits.
OS/2 2.1 es un sistema operativo de 32 bits reales, de multitarea preemptiva. También soporta
múltiples hebras o ramas de ejecución (multithreading), donde un programa puede expandir tantos
subprocesos como necesite, ejecutando cada una de ellas de acuerdo a unas prioridades designadas,
compartiendo el espacio de direcciones del programa expandido. Puede ejecutar aplicaciones de DOS,
Windows, OS/2 de 16 bits y OS/2 de 32 bits simultáneamente. OS/2 2.1 aprovecha las capacidades de
32 bits y direccionamiento virtual deI 80386 y los chips superiores. OS/2 también incorpora protección
de memoria, lo que previene las caídas del sistema completo debidas a una única aplicación.

11.6. MACINTOSH SYSTEM 7 DE APPLE


Aunque Apple lanzó su ordenador Apple II mucho antes de que IBM lanzara su PC, la mayor
fuerza de marketing de IBM y la enorme base instalada llevaron al PC a dominar el mercado. Apple
se quedó con una pequeña cota de mercado durante un tiempo, pero luego contraatacó con un tipo
de PC muy diferente: el Macintosh.
El Macintosh utilizaba una interfaz de usuario que era muy distinta a la del DOS. El Finder (aná-
logo al escritorio de Windows) de Apple es parecido a uno desarrollado años antes por Xerox en su
Centro de Investigación de Palo Alto. Aunque la interfaz de usuario de Xerox fue imitado por varios
fabricantes, nunca caló en el entorno comercial.
La interfaz de usuario de Macintosh es visual más que textual. Utilizando una pantalla de alta
resolución, Macintosh usa iconos para representar ficheros de datos y operaciones de ordenador,
así como un puntero que se maneja con la mano con botones de control para designar y activar los
diversos iconos. El teclado se reserva casi totalmente para entrada de datos en el Finder.
Macintosh fue instantáneamente acogido como un PC más intuitivo y amigable para el usuario.
Su utilización original del Display PostScript de Adobe System permitía que cualquier cosa mostrada
en la pantalla se imprimiera exactamente tal como aparecía, primero en una matriz de puntos de alta
resolución y después sobre una impresora láser de incluso más alta resolución. Esta fue la primera
utilización popular que se hizo del What You See ls What You Get (WYSlWYG, lo que ves es lo que
obtienes), para la imagen de la pantalla y la impresión.
El Macintosh consiguió una cuota del mercado de PCs que incluía originariamente a usuarios
creativos, aplicaciones de publicaciones de sobremesa, y aplicaciones individuales para personas
remisas a gastar tiempo en aprender cómo manejar su nuevo PC. Aunque la GUI del Macintosh era
muy difícil de programar para los desarrolladores, las aplicaciones terminadas mostraron una interfaz
consistente y fueron fáciles de aprender por los usuarios.
Conforme los usuarios iban apreciando las ventajas del GUI, Macintosh fue ganando mayor acep-
tación entre los compradores corporativos, y los desarrolladores de software comenzaron a trabajar
para ofrecer un GUI como el del Macintosh dentro de DOS, OS/2 y UNIX. De forma parecida, los
desarrolladores de Macintosh comenzaron a buscar formas de llenar el vacío respecto a los PCs ba-
sados en DOS y de otros tipos. Como consecuencia, la generación actual de Macintosh está equipada
adecuadamente para leer disquetes basados en DOS utilizando la tecnología SuperDrive de Apple.

524 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


MICROINFORMÁTICA

El sistema operativo Macintosh está cuidadosamente optimizado en su hardware, un proceso que


ha sido más simple porque Apple es el único suministrador de ambos. Cada uno de ellos maximiza
las ventajas características del otro, y da como resultado un PC notablemente integrado, potente, que
podría no existir si el hardware y el software fueran proporcionados por distintos fabricantes. Apple
se está moviendo lentamente hacia un entorno de sistemas más abierto. Recientemente liberaron
algunas de las especificaciones internas del System 7, a las cuales podrían escribir extensiones los
desarrolladores de terceras partes.
Bajo el apoyo constante de Apple para el desarrollo del sistema, el software de sistema original
Finder, monotarea, fue mejorado en 1987 con el Multifinder, multitarea limitado. Finder y Multifinder
son los sistemas operativos de la “metáfora del escritorio” para el Macintosh (lo que primero ve el
usuario cuando el ordenador arranca). Finder y Multifinder también ofrecen Información en línea so-
bre cómo utilizar el Macintosh. Multifinder permite a los usuarios pedir que el ordenador abra varias
aplicaciones diferentes a la vez y que lleve a cabo varias tareas simultáneamente.
En cuanto al mercado Apple es el tercer mayor fabricante de PCs. Su cuota de mercado es pe-
queña, menos del 15%, comparada con el mercado de compatibles con IBM. El éxito de Macintosh
ha llevado a Microsoft, IBM, Sun, SCO y otros fabricantes a proporcionar GUls y facilidades para
comunicaciones entre procesos.
La disponibilidad de software de terceras partes es el factor más importante del éxito de un sis-
tema operativo. Apple ha trabajado muy duro para animar el desarrollo de software para el sistema
Macintosh. Actualmente hay más de 12.000 paquetes de software para Macintosh, pero el desarrollo
interno de los usuarios es limitado porque las herramientas de desarrollo para el GUI de Macintosh
son difíciles de manejar. A pesar de su nivel de éxito actual, hay alguna duda sobre el futuro del
Macintosh. Su éxito ha venido dado en gran parte por las ventajas de su GUI y sus comunicaciones
entre procesos.

11.7. LINUX
En 1987 Andrew S. Tanenbaum escribió el libro Diseño de SO en el que tuvo que recurrir por
problemas de © a escribir un sistema operativo que simulaba UNIX sobre un PC de la época que no
tenía ni siquiera disco duro: el MINIX. Uno de sus seguidores era Linus Torvals, que lo reescribió ya
que era bastante limitado, usando las características avanzadas del procesador 80386 (entre otras
permitía implementar memoria virtual).
Gracias a la explosión del fenómeno Internet surgieron multitud de colaboradores en todo el
mundo que escribieron todo tipo de drivers para el nuevo sistema operativo que se dio a conocer
con LINUX y se convirtió en el clónico de Unix más completo que existe en el mundo del PC. Gracias
a la utilización de programas GNU se dotaba a Linux de numerosas aplicaciones y herramientas de
desarrollo sin tener que recurrir en ningún momento al software comercial.

11.8. BANYAN VINES


Una red Banyan es un grupo de estaciones y otros componentes conectados a, al menos, un
servidor Banyan. Un servidor Banyan es un computador que ejecuta el software de sistema Banyan
Virtual Networking System (VINES). Existen numerosas plataformas hardware certificadas para actuar
como servidores Banyan entre ellas Intel 386, 486, Pentium y algunas máquinas multiprocesadores
más potentes.
Clientes DOS, Windows 3.1, Windows 95, Windows NT y OS/2 también pueden ejecutar el soft-
ware de red Banyan, no así con Macintosh que precisa el protocolo AppleTalk para comunicarse con
servidores VINES nativos los cuales están configurados para ejecutar AppleTalk.
Generalmente los servidores VINES se utilizan para conectar estaciones en redes de área local
y extensa (LANs y WANs). El VINES se ejecuta en las LANs más populares (IBM Token-ring, Ethernet.
FDDI, StarLan, ProNET, ARCNET). En las WANs soporta los protocolos X.25, HDLC y TCP/IP además
de los protocolos VINES.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 525


MICROINFORMÁTICA

11.9. NOVELL NETWARE


Novell es la mayor empresa de software de red en la actualidad. Su producto estrella, el sistema opera-
tivo Novell Netware ha sido un estándar en software para redes locales (LAN) durante más de una década.
Una vez conectado a una red NetWare, tendrá acceso a los recursos físicos y lógicos a través de
ésta. Se guarda una definición para cada recurso en una base de datos usada por el sistema opera-
tivo de NetWare.
Un ejemplo de ello es una cola de impresión o un nombre de grupo. Cómo interactúa con la base
de datos de recursos depende en gran manera del sistema operativo NetWare que esté ejecutando.
Las versiones del sistema operativo Netware 2 y 3 utilizan una estructura de BD simple llamada
Bindery para gestionar las definiciones de los recursos de la red. En el bindery guarda una definición
para cada recurso de la red.
NetWare4 utiliza una estructura de base de datos global llamada Servicios del directorio NetWare
(NDS) para gestionar las definiciones de los recursos. Los NDS tratan a todos los recursos de la red
como objetos de una base de datos distribuida conocida como la base de datos del directorio. Esta
organiza los recursos en una estructura de árbol jerárquica, independiente de su ubicación física.
La base de datos del directorio soporta una red de servidores entera. En vez de almacenar toda
la información en cada servidor individual como en NetWare 2 y 3, la información se distribuye en una
base de datos global a la que pueden acceder todos los servidores de NetWare.
Los usuarios pueden acceder a cualquier servicio de la red, como los servicios de archivos o de
impresión, sin necesidad de conocer la ubicación física del servidor que proporciona el servicio.
Los servicios del directorio NetWare operan en una organización lógica llamada árbol del directo-
rio. Se le llama así porque los objetos están almacenados en una estructura de árbol jerárquica que
empieza con el objeto Root y se ramifica.
El árbol del directorio lo forman tres tipos de objetos:
– El objeto Root.
– Objetos contenedores.
– Objetos hoja (volúmenes, usuarios y servidores son ejemplos de objetos hoja).
La posición del objeto en el contenedor es su contexto. Para identificar un objeto concreto debe-
mos conocer su contexto. Para facilitar a los usuarios la ubicación de los objetos con los que trabajan
regularmente, puede definir los archivos de configuración para especificar el contexto de cada objeto.
De esta forma se ofrece a los usuarios una visión más manejable del árbol y no necesitan saber dónde
está ubicado cada objeto.
El bindery y los servicios del directorio NetWare le ayudan a gestionar los recursos de la red tales
como los servidores NetWare y las impresoras, pero no proporcionan un control sobre el sistema de
archivo (volúmenes, directorios y archivos). Las utilidades de texto y gráficos ayudan a gestionar tanto
los recursos de la red como el sistema de archivo.
La estructura del sistema de archivo está separada de la estructura del bindery o de los servi-
cios del directorio NetWare. Físicamente, toda la información de la red se almacena en discos duros
controlados por un servidor; pero lógicamente, el sistema de archivo se representa en NetWare 2 y 3
como un volumen y en NetWare 4 como un objeto volumen. Este volumen los gestiona la emulación
del bindery de NetWare 4.
El sistema de archivo lo conforman tres tipos de estructuras: los volúmenes, los directorios, y los
archivos.

11.10. MICROSOFT WINDOWS


Es una familia de sistemas operativos para PC. Windows domina el mundo de los microordena-
dores, ejecutándose según las estadísticas en el 90% de los PC. El 10% restante suelen ser compu-
tadores Macintosh. Al igual que el entorno operativo Macintosh Windows proporciona interfaz gráfica
de usuario (GUI), gestión de memoria virtual, multitarea y soporte para dispositivos periféricos.

526 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


MICROINFORMÁTICA

Así como Windows 3.x y Windows 95, los cuales se ejecutan en procesadores Intel, Windows NT,
2000 y XP también de Microsoft, son sistemas operativos avanzados que se ejecuta en una amplia
variedad de plataformas hardware.

11.11. GENERACIONES DE WINDOWS


La primera versión distribuida masivamente en el mercado fue la versión Windows 3.1. Esta
versión estaba construida sobre el sistema operativo MS-DOS, es decir, era necesario tener instalado
el MS-DOS para poder instalar Windows 3.1 con lo cual Windows adolecía de las limitaciones de éste:
su sistema de ficheros (FAT), su falta de seguridad lógica, su dependencia del hardware instalado, etc.
Pero ofrecía ventajas sustanciales respecto a MS-DOS, como eran su nueva interfaz gráfica, mejor
sistema de manejo de memoria y una gestión cooperativa del procesador o multitarea cooperativa.
No solucionaba la necesidad de compartir datos con lo que se limitó a su uso en equipos particulares
o pequeñas empresas.
Para solucionar la falta de interconectividad entre los distintos usuarios de Windows 3.1 Microsoft
desarrolló una segunda versión llamada Windows 3.11 para trabajo en grupo que añadía una manera
fácil de compartir directorios, impresoras y otros dispositivos entre los diferentes equipos de una red
local. A pesar de todo mantenía algunas carencias ya que también estaba construido sobre MS-DOS.
El siguiente paso fue construir un sistema operativo independiente de MS-DOS que solucionara
las carencias de éste y que ofreciera unas mayores prestaciones en cuanto a conectividad y robustez.
Este paso fue Windows NT Server (que incorporaba aplicaciones de gestión de una red que le permi-
tían actuar como servidor de una red local) y Windows NT WorkStation (el cual se diseñó principal-
mente para trabajar contra un servidor de red, aunque también puede trabajar sin estar conectado a
una red), primero en su versión 3.1 y más adelante en su versión 3.51, los cuales se apoyaban en
la interfaz gráfica de Windows 3.1 y 3.11.
En el año 1995, Microsoft lanzó Windows 95 el cual ofrece una nueva interfaz gráfica y mejoras
en la arquitectura del sistema, entre las que cabe mencionar la multitarea preemptiva y una mayor
velocidad de procesamiento debido a que es un sistema operativo de 32 bits, pero debido al hecho
de que sigue basado en MS-DOS sigue presentando algunas de las limitaciones de este sistema
operativo.
Multitarea preemptiva: permite la ejecución simultánea de varias aplicaciones, de manera que
las aplicaciones que no están activas siguen ejecutándose aunque el usuario esté trabajando con otra
aplicación. Es el sistema operativo el que se encarga de asignar un tiempo de CPU a cada proceso,
dependiendo de su prioridad. Cuando un proceso A agota su tiempo, el sistema operativo lo deja en
suspenso y entrega la CPU a otro proceso B durante un tiempo que ha asignado el propio sistema.
Cuando más adelante el proceso A vuelva a tener la CPU, se reanudará su ejecución hasta que vuel-
ve a agotar su tiempo y quede de nuevo en suspenso. Debido a que toda esta gestión, así como la
asignación de tiempos, la realiza el sistema operativo, el propio sistema operativo necesita parte del
tiempo de CPU para sí mismo.
Por último, ya en el último semestre de 1996, Microsoft incorporó a su familia una nueva ver-
sión 4.0 del sistema operativo Windows NT (Server y WorkStation) que ofrece como mejoras esen-
ciales el cambio a la interfaz de usuario propio de Windows 95 y una serie de servicios de conectividad
con otras redes y con la red Internet, incluyendo la posibilidad de trasformar un equipo con Windows
NT Server en un servidor de Internet.
Para terminar, destacar la existencia del Windows CE que es una versión de sistema operativo
de Windows diseñada para pequeños dispositivos tales como PDA. La interfaz gráfica de Windows
CE es muy similar a la de Windows 95 de modo que los dispositivos que se utilizan con Windows CE
deberían ser fáciles de utilizar para alguien familiarizado con Windows 95.

11.11.1. Windows 95
El sistema operativo Windows 95 representa un gran avance sobre su precursor el Windows 3.1.
Además de su nueva interfaz de usuario, incluye un importante número de mejoras internas. Quizás
la más importante sea el soporte de aplicaciones de 32 bits, lo que significa que aplicaciones escritas

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 527


MICROINFORMÁTICA

específicamente para este sistema operativo se ejecutarán mucho más rápido. Aunque Windows 95
puede ejecutar viejas aplicaciones Windows y DOS, ha eliminado esencialmente la capa del DOS de
su plataforma, con lo cual no adolece de las antiguas limitaciones del DOS (como el límite de 640Kb
de memoria principal, los nombres de ficheros de 8 caracteres...).
Fat32 es una nueva versión de la tabla de alocación de ficheros (FAT) disponible en Windows 95
OSR2 y Windows 98. La FAT32 aumenta el número de bits usados para direccionar clusters y a su
vez reduce la medida de cada cluster. El resultado es que puede soportar discos más grandes (hasta
2 Terabytes) y un almacenamiento más eficiente (menor espacio inutilizado).

11.11.2. Windows 98
En su apariencia es muy similar a Windows 95, originalmente se llamó Memphis, luego Windo-
ws97 y posteriormente, como se retrasó su aparición hasta 1998, Windows 98.
Windows 98 ofrece soporte a un gran número de nuevas tecnologías, incluyendo FAT32, AGP,
MMX, USB, DVD Y ACPI. Su característica más visible es el Active Desktop, el cual integra el visua-
lizador web (Internet Explorer) con el sistema operativo. Desde el punto de vista del usuario no hay
diferencia entre acceder a un documento residente localmente en el disco duro del usuario o en un
servidor web en cualquier lugar del mundo.

11.11.3. Windows NT
Presenta las siguientes características:
– Windows NT es un sistema operativo independiente del MS-DOS.
– Adopta la interface de Windows 95.
– Interface integrada con Internet mediante el Microsoft Internet Explorer, también incluye la
posibilidad de ser instalado como servidor de Internet gracias a su módulo Internet Informa-
tion Server 2.0.
– Permite trabajar con varios sistemas de ficheros: FAT, NTFS y CDFS.
– Implementación de sistemas de definición de los entornos de trabajo de los usuarios a través
de los perfiles de los usuarios y las directivas del sistema.
– Servicios y utilidades para centralizar el control y administración de los usuarios de una red,
características y niveles de acceso.
– Cumple el estándar de seguridad con nivel C2 (sólo en el sistema de archivos NTFS):
* Mecanismo de acceso seguro requiere que los usuarios se identifiquen introduciendo un
único y exclusivo identificador de acceso (nombre) y una contraseña antes de que les
sea permitido el acceso al sistema.
* Control de acceso discrecional que permite al dueño de un recurso determinar quién
puede acceder al recurso y lo que puede hacer con él.
* La auditoría proporciona la posibilidad de detectar y registrar eventos importantes rela-
cionados con la seguridad de cualquier intento de crear o acceder o eliminar recursos
del sistema.
* La protección de memoria evita que cualquiera lea información escrita por otra persona,
incluso después de que una estructura de datos haya sido devuelta al sistema operativo.
La memoria es reinicializada antes de volver a ser utilizada.
– Presenta funcionalidades para la utilización en equipos portátiles.
– Incorpora utilidades de copia de seguridad, soporte a sistemas de alimentación ininterrum-
pida y tolerancia a fallos como sistemas de protección física de los datos.
– Trabaja con instrucciones y direccionamiento de 32 bit con lo que se puede obtener un
máximo de 4Gb de direccionamiento RAM.

528 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


MICROINFORMÁTICA

– Posee protección del espacio de direccionamiento respecto del resto de procesos del siste-
ma, incluyendo aplicaciones de 16 bits. Esto proporciona una total independencia de cada
programa en ejecución, con lo que si se produce un error de ejecución, esto no afectará al
resto de programas ni al sistema operativo.
– Gestión de multitarea preemptiva.
– Soporte de multithreading. Un proceso puede subdividirse en varios threads o hilos de
ejecución simultáneos para aprovechar mejor la multitarea, ya que Windows NT asigna CPU
a cada thread independientemente del proceso al que corresponda.
– Soporte de multiprocesadores simétricos. Windows NT soporta equipos con más de un
procesador. El sistema operativo se encarga de asignar los diferentes threads que tiene en
ejecución a los diferentes procesadores, aunque éstos pertenezcan al mismo proceso. Hay
que diferenciar el soporte a multiprocesadores simétricos del soporte a multiprocesadores
asimétricos, donde el sistema operativo se asigna un procesador sólo para su uso, mientras
el resto de procesadores se utilizan para las aplicaciones de usuarios. Este segundo método
de soporte de multiprocesadores es menos eficiente, ya que se pierde el tiempo de CPU en
que el sistema operativo no necesita ejecutar nada.
– Soporte de múltiples plataformas; INTEL, RISC (MIPS, ALPHA, PowerPC). En todas estas
arquitecturas Windows NT tiene el mismo aspecto, siendo la arquitectura transparente para
el usuario.
– Diseño y soporte de procedimientos con llamadas remotas, es decir, aplicaciones cliente/servidor.
– Soporte para diferentes protocolos de red: TCP/IP (DHCP, WINS, DNS, PPP, PPTP, SLIP),
NetBEUI, NWLink, DLC, AppleTalk, lo que nos permitirá interactuar con cualquier tipo de
máquina o red que soporte alguno de estos protocolos.
– Integración de los servicios WINS (Windows Internet Name Service) y DNS (Domain Name
System) que constituyen una especie de DNS dinámico.
– Windows NT permite el acceso a clientes que no sean Windows NT, como Windows 3.11,
Windows para trabajo en grupo, MS-DOS, OS/2, Novell NetWare o Macintosh (sólo a servi-
dores Windows NT Server).
– Posibilidad de conexión remota desde o hacia otros equipos vía el servicio RAS, el cual per-
mite actuar como si estuviéramos conectados localmente a la red.
– Administración de toda la red desde un solo equipo. Esta red puede estar compuesta por
equipos Windows NT, Windows 95, Windows 3.11 o Windows para trabajo en grupo.
– Soporte a aplicaciones de otros sistemas operativos: MS-DOS, POSIX (UNIX), aplicaciones OS/2
en modo carácter (no gráficas), Windows 16 bits, Windows 95. Existe la posibilidad de añadir
mediante unos módulos adicionales soporte a aplicaciones de otros sistemas operativos.
– Incluye la tecnología API OpenGL de alto rendimiento para gráficos tridimensionales en color.
Ofrece soporte a las API de 16 y 32 bits para las funciones de Video for Windows 1.1.
– Incluye soporte estándar UNICODE.
– Ofrece emulación de procesador 486 para que se puedan ejecutar aplicaciones 386-exten-
didas de 16 bits sobre sistemas RISC.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 529


TEMA
14

Ofimática. Tratamiento de textos.


Hojas de cálculo

La ofimática surge ante la necesidad de mecanizar las tareas repetitivas y cos-


tosas del trabajo de oficina. Con este objetivo aparecieron las primeras máquinas
de escribir y calculadoras. Hoy en día, y gracias al avance de la tecnología, este
concepto ha ido transformándose por medio de la entrada de los ordenadores
personales en la oficina.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 531


OFIMÁTICA

ESQUEMA INICIAL

1. Sistemas de información de oficinas

2. Ofimática
2.1. Introducción y definición
2.2. Ámbito de aplicación
2.3. Evolución histórica
2.3.1. Primera fase (1975-1980)
2.3.2. Segunda fase (1980-1990)
2.3.3. Tercera fase (a partir de 1990)
2.3.4. Tendencias tecnológicas actuales
2.4. Suites ofimáticas
2.5. Funcionalidades básicas comunes
2.5.1. Botoneras
2.5.2. Automatización de tareas mediante macros
2.5.3. Lenguaje de programación
2.5.4. Interfaces gráficas de usuario (GUI: Graphical User Interface)
2.5.5. Diversos niveles de ayuda
2.5.6. Importación y exportación
2.5.7. Distintos niveles de visualización
2.5.8. Incrustación y vinculación de objetos

3. Procesadores de texto
3.1. Definición
3.2. Introducción histórica
3.3. Las fuentes tipográficas
3.4. Funcionalidades básicas
3.4.1. Funciones de diseño de página
3.4.2. Funciones de edición de texto
3.4.3. Funciones gráficas
3.4.4. Funciones avanzadas
3.5. Hypertexto
3.6. WYSIWYG
3.7. Normas y estándares aplicables más importantes
3.8. Autoedición
3.8.1. Definición
3.8.2. Conceptos y funcionalidades básicas

4. Hojas de cálculo
4.1. Introducción y definición
4.2. Breve evolución histórica
4.3. Conceptos básicos
4.4. Características y funcionalidades

532 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


OFIMÁTICA

5. Bases de datos
5.1. Definición y conceptos básicos
5.2. Evolución histórica
5.3. Conceptos y funcionalidades básicos
5.4. Arquitecturas de bases de datos
5.4.1. Modelo relacional
5.4.2. Modelo de lista invertida
5.4.3. Modelo jerárquico
5.4.4. Modelo de red

6. Paquetes gráficos y de presentaciones


6.1. Definición
6.2. Conceptos y funcionalidades básicos
6.3. Tipos de gráficos

7. Herramientas de trabajo en grupo (Groupware)


7.1. Conceptos básicos
7.2. Clasificación de productos
7.3. Conceptos y funcionalidades básicos

8. Mensajería y correo electrónico


8.1. Definición y prestaciones
8.2. Generaciones
8.2.1. Host
8.2.2. La red local como base para compartir ficheros
8.2.3. Servidores de correo en red local
8.3. Directorio
8.4. Publicación

1. SISTEMAS DE INFORMACIÓN DE OFICINAS


Las empresas han dedicado un gran esfuerzo a la labor de análisis de los procesos y tareas de la
producción, con objeto de racionalizar el trabajo, para conseguir un aumento de la rentabilidad. Ello
ha ocasionado una creciente necesidad de manipulación de la información. El trabajo de oficina ha
cobrado una gran importancia y se plantea la necesidad de la mecanización de la misma.
La aparición de los ordenadores personales ha contribuido a facilitar la automatización de diver-
sas tareas de oficina como el proceso de textos, hojas de cálculo, bases de datos, autoedición, etc.
No obstante, la implantación del ordenador personal parece estar restringida al ámbito de las
secretarias y los administrativos, cuando lo ideal, para lograr el máximo beneficio a las grandes inver-
siones necesarias para automatizar una oficina, es considerar también a directivos, profesionales y
técnicos a los que, el ahorro de tiempo y facilidad de acceso a la información que necesitan para su
trabajo, les permita dedicarse a actividades más creativas o productivas para la empresa.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 533


OFIMÁTICA

El proceso de información es una de las funciones básicas de la oficina. Comprende todo tipo
de tratamiento de la información, como la redacción de informes y cartas, la generación y revisión de
documentación, la adquisición, almacenamiento y recuperación de información, el cálculo, el análisis
de material, lectura de textos, etc.
La principal función del proceso informativo es tener la información disponible para cualquier ne-
cesidad de la organización. Para ello es necesario tratarla y presentarla en el formato y soporte más
adecuados y así poder extraer el conocimiento más relevante en cada ocasión.
La oficina comprende muchos conceptos diferentes de información, tecnologías de procesamien-
to y medios de almacenamiento y comunicación. Los conceptos de información incluyen nociones
como cartas, memorandos, formularios, informes y gráficos. Las tecnologías de proceso que se pue-
den encontrar en la oficina van desde máquinas de escribir, copiadoras, dictáfonos y calculadoras
hasta ordenadores especializados, archivos, estanterías, mesas, papeles, cintas magnéticas, discos,
etc., que son alguno de los medios de almacenamiento en una oficina. Finalmente, para comunicar y
diseminar la información se utilizan cosas como el teléfono, correo, correo electrónico, conversacio-
nes, mensajes grabados, medios visuales, etc.
Como conclusión podemos extraer que los sistemas de información de la oficina son realmente
complejos.

2. OFIMÁTICA

2.1. INTRODUCCIÓN Y DEFINICIÓN


En los inicios de la informática, y durante bastante tiempo, se diseñaba de forma específica y aislada
todo el software que necesitaba cualquier empresa para cada actividad concreta que se debía realizar. Ade-
más, solamente las grandes organizaciones tenían la capacidad, el personal y los grandes ordenadores (ma-
inframes) necesarios para poder diseñar y disponer de estas aplicaciones, entre las cuales se encontraban
programas contables, financieros, estadísticos, de control de inventarios, nóminas y otros muy diversos.
Con el avance y desarrollo de las tecnologías de la información se han identificado algunas de
estas aplicaciones de uso común en la mayoría de organizaciones, como son el proceso de textos,
hojas de cálculo, gráficos estadísticos, etc., de manera que los fabricantes han diseñado y puesto en
el mercado aplicaciones para ser utilizadas por un gran número de usuarios en diferentes sistemas.
A estas aplicaciones de uso general se las denomina software estándar, que son programas
que se pueden adquirir normalmente en el mercado y que se encuentran dispuestos para su uso
inmediato sin necesitar la intervención de personal informático.
El término ofimática viene de la unión de oficina e informática y trata de la automatización de
oficinas y de los procesos del trabajo que se realizan en las mismas, por lo que su ámbito de aplica-
ción es muy amplio. Estas herramientas están orientadas a personal no especializado en informática
y precisarán del menor tiempo posible de formación, abarcando las funciones típicas de la gestión de
una oficina, como, por ejemplo:
El concepto ofimática (automatización de oficinas) engloba el conjunto de
técnicas, métodos y equipos utilizables en el trabajo de oficina de cualquier
entidad.
A continuación se citan otras definiciones alternativas de ofimática:
– Elli y Nutt (1980): “Un sistema automatizado de información para la oficina trata de realizar
las tareas de la oficina tradicional por medio de sistemas de ordenadores.”
– Hammer y Sirbu (1980): “La utilización de tecnología para mejorar la realización de funcio-
nes de oficina.”
– Olson y Lucas (1982): “La automatización de oficinas se refiere a la utilización de sistemas
integrados de ordenadores y comunicaciones, como soporte a los procedimientos adminis-
trativos en un entorno de oficina.”
– Bair (1985): “La Ofimática es la utilización de ordenadores en la oficina como soporte a los
trabajadores de la información que no son especialistas en ordenadores.”

534 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


OFIMÁTICA

El software estándar más difundido está compuesto por aplicaciones del área de la ofimática,
siendo las principales las siguientes:
– Procesador de textos.
– Hoja electrónica de cálculo.
– Gestor de base de datos.
– Gestor de gráficos.
– Agendas y organizadores personales.
– Sistemas de trabajo en grupo.
Estas aplicaciones comunes se agrupan en paquetes de software que se conocen como paque-
tes de software integrado. Un paquete de software integrado es, por tanto, el conjunto formado por
varias aplicaciones relacionadas entre sí, que constituyen una unidad operativa.
Este tipo de software, que gozaba de gran aceptación hasta la fecha, comienza a ser desplazado
por las aplicaciones independientes que han evolucionado hacia lo que podemos llamar software inte-
grable, esto es, aplicaciones distintas del mismo o de diferente fabricante que pueden usarse de forma
autónoma, pero que también pueden funcionar dentro de un entorno común permitiendo la interrelación
y compartición de datos, lo que constituía la principal ventaja de los paquetes de software integrado. Con-
cretamente, desde el surgimiento del entorno operativo Windows, los diseñadores de software hacen sus
aplicaciones integrables en ese sistema e intercomunicables con las demás aplicaciones instaladas.

Veamos un ejemplo. Imaginemos una oficina donde se encuentra un contable


que trabaja con una hoja de cálculo, una secretaria que trabaja con un procesador
de textos y un comercial que tiene una base de datos con todos sus clientes.
Los diversos programas utilizados son unidades independientes que aportan
una funcionalidad ajustada a las necesidades de cada caso. Si el gerente de la
oficina requiere un informe detallado de las actividades del último trimestre, las
tres personas de la oficina tendrán que poner su trabajo en común. Con las nuevas
tecnologías del software intercomunicable, la secretaria podrá incluir en su informe
una hoja de cálculos del contable y una relación de nuevos clientes de la base de
datos del comercial. Todo ello se integrará sin problemas en un único documento.

Aunque el software estándar resuelve muchos de los problemas a los que se enfrentan las em-
presas a la hora de automatizar el tratamiento de la información, existen necesidades concretas y
particulares que dicho software estándar no resuelve. En este caso es necesario el desarrollo de un
software a medida, centrado en un objetivo muy específico y generalmente aplicable exclusivamen-
te a la idiosincrasia de una empresa.

2.2. ÁMBITO DE APLICACIÓN


El ámbito de aplicación de las herramientas ofimáticas es muy amplio y su objetivo es cubrir las ne-
cesidades de la oficina en cualquier organización. Dichas herramientas ofimáticas estarán siempre orien-
tadas a personal no especializado en informática y precisarán del menor tiempo posible de formación
abarcando un amplio abanico de funciones típicas de la gestión de una oficina, como, por ejemplo:
– Automatización de correspondencia.
– Mecanografía.
– Mantenimiento de ficheros.
– Mantenimiento de datos que requieren continuos cálculos.
– Presentación de informes y propuestas.
– Control del flujo de trabajo dentro de los distintos departamentos.
– Elaboración de presentaciones.
– Realización de gráficos y estadísticas sencillas.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 535


OFIMÁTICA

2.3. EVOLUCIÓN HISTÓRICA


En la evolución histórica de ofimática podemos distinguir las siguientes fases:

2.3.1. Primera fase (1975-1980)


En la empresa la ofimática se componía de elementos aislados (procesador de textos, hoja de
cálculo...) sin interrelación entre sí, con una interfaz de usuario árida y difícil de manejar, con lo que
la formación era bastante costosa. Solían utilizarse grandes ordenadores corporativos.

2.3.2. Segunda fase (1980-1990)


Surge en concepto de paquete integrado, conjunto de herramientas que daban solución a la
mayoría de las necesidades normalmente requeridas. La interfaz de usuario seguía siendo orientada
a carácter. Precisaba una costosa formación y tenía el inconveniente de tener que adquirir el paquete
completo aunque se necesitase únicamente una parte del mismo.
La ofimática en esta década sigue estando en segundo plano frente a otras aplicaciones de ma-
yor entidad dentro de la empresa, estas aplicaciones estaban agrupadas en un gran ordenador central
del que dependían terminales sin capacidad de proceso.
En los últimos años 80, como consecuencia de la experiencia adquirida por los fabricantes del
sector informático y debido al cambio de estrategia de éstos hacia la fabricación de productos para
ordenadores personales, se abaratan los costes y aumentan las prestaciones tanto en soporte físico
como lógico de forma espectacular.

2.3.3. Tercera fase (a partir de 1990)


Con el abaratamiento de los costes y el espectacular aumento de las prestaciones surge la ofimá-
tica moderna apoyada por ordenadores personales con alta capacidad de proceso, monitores en color
y soporte lógico desarrollado con nuevas tecnologías de programación orientada a objetos (OOP). A
estos factores hay que añadir el auge experimentado por las diferentes comunicaciones y la creciente
utilización de redes locales de ordenadores personales.
El software desarrollado se compone de módulos estrechamente interrelacionados entre sí, que
comparten información y procesos y que se pueden adquirir aisladamente según las necesidades. La
interfaz empieza a ser gráfica, con lo que el aprendizaje y la facilidad de uso se hacen menos costosos.
Con el auge de las redes surge el concepto de trabajo en grupo: todos los miembros de un
grupo de trabajo comparten la información sin estar necesariamente trabajando en el mismo sitio. Se
basa en la amplia difusión de las redes de área local.

2.3.4. Tendencias tecnológicas actuales


Entre las principales tendencias actuales de los productos ofimáticos destacan las siguientes:
– Trabajo en grupo: la compartición de información y recursos está cimentada sobre una sóli-
da plataforma tecnológica de redes de área local; esta tendencia es ya un hecho en oficinas
con un entorno ofimático avanzado.
La información fluye a través de las redes de área local y es compartida por todos los miem-
bros de un grupo de trabajo que no tienen que estar necesariamente en un mismo edificio.
Esta capacidad tecnológica de hacer circular la información sin la necesidad de tener un
soporte en papel lleva a la expansión del tópico “la oficina sin papel”.
– Multimedia: el fenómeno multimedia representa una auténtica revolución tanto en la pre-
sentación de la información como en la estructura misma de la comunicación. Existen múl-
tiples definiciones de multimedia puesto que se trata de una tecnología en constante evolu-
ción. Se puede decir que multimedia es la aplicación conjunta y en un solo mensaje de texto,
gráficos, sonido e imágenes.

536 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


OFIMÁTICA

El fuerte crecimiento de las prestaciones de los ordenadores personales así como del soft-
ware de aplicación y los precios cada vez más asequibles, están propiciando la rápida entra-
da en el mercado de esta tecnología.
– Herramientas multiplataforma: la evolución tecnológica en cuanto a conectividad y la
creciente necesidad de la integración de los diferentes sistemas existentes, están propi-
ciando el desarrollo de productos capaces de trabajar en diferentes plataformas. De hecho,
numerosos fabricantes se están inclinando hacia la adaptación y desarrollo de sus productos
ofimáticos sobre Java estándar. Esto hace a sus aplicaciones independientes del sistema
operativo o plataforma puesto que del navegador que debería estar instalado en la misma
existe una máquina virtual (“virtual machine”), encargada de interpretar el lenguaje Java
(todo navegador tiene esta característica, independientemente de la plataforma para la que
se haya desarrollado).
– Integración de herramientas ofimáticas: los fabricantes, en su afán por acaparar merca-
do, están lanzando una serie de productos llamados suites, que son grupos de aplicaciones
que, al ser utilizadas conjuntamente, ofrecen, según los fabricantes, ventajas adicionales
en cuanto a integración y facilidad de uso. Un requisito imprescindible es que los distintos
componentes de la suite también se encuentren disponibles en el mercado como productos
independientes, y que éstos figuren en la elite de las aplicaciones ofimáticas del momento.
Uno de los atractivos de estos conjuntos de aplicaciones es que el precio total del mismo
suele ser muy inferior al de la suma de los programas que la forman.
– Objetos y sus propiedades: una de las grandes novedades y tendencias de futuro del soft-
ware actual es la incorporación de los lenguajes orientados a objeto (OOP) en el desarrollo de
aplicaciones ofimáticas. Según esta filosofía todos los elementos que forman una aplicación
son objetos y tienen sus propiedades particulares. Con la incorporación de esta tecnología
ha tomado sentido el botón derecho del ratón que hasta el momento no se utilizaba.

2.4. SUITES OFIMÁTICAS


En la última década surgen las suites como un grupo de aplicaciones que al ser utilizadas
conjuntamente ofrecen mejores capacidades de integración y facilidad de uso, con el consiguiente
aumento de productividad. Además, los distintos componentes de la suite se encuentran disponibles
en el mercado como productos independientes.
La auténtica ventaja de las suites es la integración, entendida como la capacidad de las aplica-
ciones para compartir datos e interactuar entre sí de una manera que sería imposible si funcionasen
por separado.
La suite incluye un gestor centralizado que supervisa los programas que la componen, y ofrece
herramientas compartidas para realizar las operaciones más habituales. Todas las aplicaciones com-
ponentes deben poder intercambiar datos de forma transparente.
Los productos ofimáticos actualmente en el mercado son muy similares debido a la utilización de
un estándar gráfico común y al alto grado de conocimiento de los fabricantes sobre las necesidades
de los usuarios. Esencialmente todos los productos, cada uno en su especialidad, realizan las mismas
funciones básicas. Entre las suites más conocidas podemos destacar Microsoft Office y Perfect
Office.
Entre las características deseables de una suite de aplicaciones ofimáticas cabe destacar:
– Fácil manejo. Necesidad de formación mínima. Manuales traducidos a la lengua de los usuarios.
– Interfaz de usuario amigable y personalizable, personalización de los elementos de interfaz.
– Relación aumento de productividad/facilidad de uso.
– Posibilidad de trabajo en grupo, compartiendo la información entre usuarios.
– Compatibilidad e interoperatibilidad con otras aplicaciones. Facilidad de enlace con aplica-
ciones externas.
– Protección de la inversión exigiendo una trayectoria de adaptación a las nuevas tecnologías
y una estrategia de futuro que garantice la continuidad del producto.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 537


OFIMÁTICA

– Facilidad para las comunicaciones con otros entornos operativos.


– Seguridad de los datos.
– Acceso transparente a los datos desde cualquier fuente, manteniendo la seguridad de los
mismos.
– Soporte de distintas plataformas físicas, dispositivos y sistemas operativos.
– Integración de las herramientas.
– Moderación en la utilización de los recursos del ordenador.

2.5. FUNCIONALIDADES BÁSICAS COMUNES


Los productos ofimáticos poseen una serie de funcionalidades y características comunes entre
las que cabe destacar:

2.5.1. Botoneras
La mayoría de estos productos proporcionan barras de botones que son conjuntos de iconos
organizados de distinta forma dependiendo del producto. Su funcionalidad es la de proporcionar al
usuario un acceso rápido para realizar todas aquellas tareas que podría efectuar a través del teclado
o a través de comandos de menú.
Habitualmente están situados horizontalmente en la parte superior de la pantalla en una o
varias filas y se configuran dinámicamente dependiendo de la operación que se esté realizando.
Por ejemplo, variarán los iconos disponibles si se está dando formato a una celda o si se está
trabajando directamente sobre un gráfico, implementando aquellos que son útiles para la tarea en
cuestión.
Las siguientes funcionalidades suelen estar disponibles:
– Disponibilidad de iconos predefinidos.
– Creación de nuevos iconos.
– Personalización de las barras de iconos.
– Ubicación de la barra de iconos en distintos lugares de la pantalla.
– Ayuda contextual en la barra de estado o de título acerca de la funcionalidad del icono sobre
el cual está situado el puntero del ratón.

2.5.2. Automatización de tareas mediante macros


Las macros consisten en un conjunto de pulsaciones de teclas, teclas especiales y comandos
previamente grabados que pueden ejecutarse cada vez que se desee y que pueden realizar una o más
tareas repetitivas de manera automática.
Las macros han pasado de ser un fichero donde se almacenaban pulsaciones de tecla y poste-
riormente se ejecutaban de forma secuencial, a convertirse en un pseudolenguaje de programación.
Pueden incluso utilizar cuadros de diálogo y enlaces DDE (Dynamic Data Exchange). Esto permite al
usuario crear sus propias utilidades para automatizar las tareas más repetitivas.

2.5.3. Lenguaje de programación


Las modernas suites incluyen un lenguaje de programación y herramientas de apoyo, que permi-
te construir verdaderas aplicaciones aprovechando la funcionalidad de los productos ofimáticos. Este
sistema de desarrollo tiende a unificarse para todos los productos de la suite, además de poseer su
propio entorno independiente comercializado como un sistema de desarrollo completo.

538 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


OFIMÁTICA

2.5.4. Interfaces gráficas de usuario (GUI: Graphical User Interface)


La interfaz de usuario actúa como intermediaria entre el sistema informático y el usuario. Dado
el aumento de la complejidad de los ordenadores, es deseable que sea la interfaz de usuario, la que
se acerque a éste, es decir debe ser lo más convivencial posible. Ello supone que ha de ser natural,
fácil de aprender, fácil de usar y consistente.

2.5.5. Diversos niveles de ayuda


Aunque el entorno gráfico es altamente intuitivo, las suites ofimáticas disponen de diversos nive-
les de ayuda destinados a conseguir que el usuario obtenga el mayor rendimiento del programa en el
menor tiempo posible y de la manera más cómoda:
– Ayudas de interfaz gráfica: consta de barras de botones, índices y búsqueda por temas,
ventanas emergentes y cuadros de diálogo. Es el tipo de ayuda más usual.
– Tutoriales: muestran las principales funcionalidades de los programas.
– Ayudas expertas: permiten al usuario realizar una tarea paso a paso, a través de preguntas
sencillas que le van guiando en la realización de una tarea.
– Asistentes: el programa va realizando automáticamente sugerencias prácticas encamina-
das en la elaboración de una tarea concreta.
– Ayuda sensible al contexto: según el lugar donde se encuentre se muestra una ayuda
relativa a la operación que se está desarrollando.

2.5.6. Importación y exportación


Mediante las utilidades de importación y exportación permiten intercambiar documentos entre
distintos productos aunque estén en distintos formatos. A esta posibilidad de intercambio de infor-
mación entre aplicaciones se le denomina compatibilidad. El mayor o menor número de formatos
que sea capaz de soportar un producto será una medida directa de su compatibilidad con otras
aplicaciones.
Hay que considerar el hecho de que no sólo se intercambian datos entre productos semejantes,
por ejemplo entre procesadores de texto, sino que es muy frecuente la necesidad de acceder a in-
formación de otro tipo de productos, como, por ejemplo, importar datos de una base de datos a una
hoja de cálculo, etc.
Importación se define como la capacidad para acceder a información de otros productos, mien-
tras que exportación se define como la capacidad de generar una salida en un formato distinto del
propio con el objeto de que pueda ser utilizado por otro producto.
Es importante señalar que cada producto almacena su información en un formato determinado
con códigos propietarios que ocasionan que no siempre las conversiones sean todo lo exactas que
cabría esperar.

2.5.7. Distintos niveles de visualización


Los productos ofimáticos suelen disponer de diversas formas de visualizar un documento:
– Modo WYSIWYG (del inglés What You See Is What You Get - Lo que ves es lo que obtienes).
Permite mostrar una o varias páginas tal y como aparecerán impresas. Antes de imprimir
un documento es importante conocer de antemano cuál va a ser el aspecto del mismo, su
estética, ubicación de gráficos en la página, etc., con el objeto de no desperdiciar tiempo ni
papel en sucesivas pruebas de impresión.
– Zoom mostrando el documento a diferentes escalas por encima o por debajo del 100%.
– La representación de forma visual de los márgenes superior e inferior de la página, pudiendo
ubicar correctamente y de forma gráfica el bloque a imprimir.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 539


OFIMÁTICA

– Ajuste de forma automática del bloque a imprimir encajándolo en la página a base de reducir
el tamaño de letra.
– Inclusión de encabezados/pies de página, así como la numeración de las mismas.

2.5.8. Incrustación y vinculación de objetos


La mayoría de las herramientas de ofimática disponen de una serie de características mediante
las cuales podemos incluir información u objetos creados con otras aplicaciones que soporten las
funciones OLE (Object Linked and Embedded, Objetos linkados e incrustados) y DDE (Dynamic Data
Interchange, Intercambio dinámico de datos).
– Un objeto es una forma de información que se crea y edita con una aplicación distinta de la
que se está utilizando y que se puede insertar en ella. Un ejemplo de objeto puede ser una
tabla, un gráfico, una ecuación, etc.
– Un documento fuente es el documento del cual procede el objeto.
– Un documento destino es el documento al cual se traslada el objeto.
– Vincular: consiste en insertar un objeto en un documento manteniendo una conexión entre
dicho documento (destino) y el documento fuente del objeto. Cuando se introducen cambios
en un objeto vinculado, en realidad se está cambiando la información en el documento fuente.
Cuando se realizan cambios en el documento fuente, éstos se reflejan en el documento de
destino (se actualiza automáticamente el objeto vinculado). En realidad no se guarda el objeto
sino una referencia de donde éste está guardado. Para vincular una información es necesario
que la aplicación desde la que se quiere vincular admita las funciones OLE y DDE.
– Incrustar: inclusión de objeto en un documento. De esta manera, el objeto pasa a formar
parte del documento. El objeto incrustado en el documento destino representa una copia de
información del objeto. Tras ser incrustado un objeto, éste ya no se encuentra conectado al
documento fuente. Los cambios realizados en el objeto no afectan al documento fuente.

3. PROCESADORES DE TEXTO
3.1. DEFINICIÓN
El procesador de textos es la herramienta ofimática más extendida del mercado. Esencialmente
un procesador de textos es un programa de ordenador diseñado para permitir la fácil manipulación
de textos. Conviene diferenciar entre:
– Editores de texto: programas muy sencillos cuyo fin principal es crear ficheros de texto. No
ofrecen la posibilidad de dar formato a un documento, limitándose a representar en pantalla
los caracteres generados por el teclado. Su utilidad principal es la de editar ficheros de da-
tos, escribir programas, etc. Ejemplos: Edit, Edlin, Write, Wordpad, etc.
– Procesadores de texto: programas que permiten dar formato a un texto y realizar un gran nú-
mero de operaciones tales como moverlo, cambiar el tipo de letra e imprimirlo. Los procesadores
más avanzados permiten la inclusión de gráficos, el diseño de página en varias columnas y otras
funcionalidades que se tratarán más adelante. Ejemplos: WordPerfect, Word, WordStar, etc.
– Programas de autoedición: aplicación superior a los procesadores de texto, aunque hoy en
día la frontera es cada vez más difusa. Están orientados a la maquetación y diseño de publi-
caciones tales como periódicos y revistas. Poseen las capacidades de escritura y corrección
de un procesador de textos y su potencia se encuentra en el formato y diseño. Los utilizan
aquellas personas que necesitan capacidades específicas de diseño. Ejemplos: Ventura,
PageMaker, FrameMaker, QuarkXPress, etc.
El término procesadores de texto, también llamados tratamientos de texto, proviene de la
traducción del término inglés Word Processing, que engloba de manera general a todos los programas
que procesan textos. Se utilizan para crear, manejar e imprimir todo tipo de documentos como cartas,
artículos, informes e incluso libros completos. El procesador de textos es la herramienta ofimática
más extendida del mercado.

540 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


OFIMÁTICA

De una manera formal podríamos definir a un procesador de textos como:


Un programa que permite escribir en el ordenador, o trabajar con datos ya
existentes, para realizar operaciones de corrección y formato de documentos de
cualquier tamaño y complejidad, para posteriormente imprimirlos.
Un programa de tratamiento de texto, por tanto, sirve no sólo para escribir, sino también para dar
formato al texto y hacer que ofrezca una mejor apariencia, más atractiva para el lector. Las ventajas que
aportan con respecto a la utilización de la clásica máquina de escribir son evidentes: los textos pueden
ser modificados y corregidos antes de ser impresos en papel e incluso posteriormente, ya que pueden ser
almacenados en un soporte permanente y ser recuperados en cualquier otro momento. Además, facilitan
enormemente la presentación o formato de los documentos, la justificación, el sangrado, el interlineado,
la numeración de las páginas, la inclusión de títulos, cabeceras y notas al pie de página, etc.

El ordenador y el procesador de textos, sustitutos de la máquina de escribir

3.2. INTRODUCCIÓN HISTÓRICA


El primer procesador de texto de gran difusión fue el WordStar, cuya versión inicial era muy sen-
cilla, pero facilitó enormemente el trabajo a sus usuarios. Las últimas versiones incorporan bastantes
funciones, incluso correo personalizado, y lo más importante es que sus requerimientos de memoria
son bajos. Aunque han aparecido nuevas versiones con diccionarios en inglés, castellano y catalán y
mayores prestaciones su popularidad ha ido decreciendo en los últimos años.
La Wordperfect Corporation lanzó Wordperfect que ha alcanzado gran popularidad. La versión
5.1 para DOS de este paquete llegó a ser una verdadera revolución, ya que era el único que incluía
visualización previa e integración de gráficos. Más adelante surgió la versión para Windows.
Poco después Microsoft se incorporó al mercado de los procesadores de texto con el paquete
Word, que fue ganando cuota hasta sacar la versión Word 5.0 para Windows. Fue entonces cuando
se convirtió en el paquete de procesadores de texto más completo para Windows, incorporando la
funcionalidad WYSIWYG, gráficos, etc.
NOTA: WYSIWYG (“lo que ves es lo que obtienes” del inglés What You See Is
What You Get), permite trabajar directamente en pantalla con la presentación final
del documento.

3.3. LAS FUENTES TIPOGRÁFICAS


Las fuentes no son más que los distintos tipos de letras que podemos emplear a la hora de
escribir un documento. Fuentes muy comunes en los procesadores actuales son, por ejemplo, el tipo
Arial, Times New Roman, Courier, y muchas más.

ARIAL
BOOKMAN OLD STYLE
COURIER
FUTURA

TIMES NEW ROMAN


ZURICH
Ejemplo de algunas de las fuentes más usuales

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 541


OFIMÁTICA

El tamaño de las fuentes se mide en puntos, siendo un punto equivalente a 1/72 pulgadas (1
pulgada = 2,54 cm, aproximadamente).
Las fuentes pueden ser de dos tipos: mapas de bits y vectoriales; se diferencian en la forma en que
se almacenan, las primeras como un conjunto de puntos o píxeles y las últimas como un conjunto de
vectores.
Es muy importante saber esto ya que la calidad del texto viene muy condicionada por el tipo de
fuente que se está utilizando, de modo que al aumentar el tamaño de una fuente de tipo bitmap
puede ocurrir el efecto escalonado que puede apreciarse en la figura, cosa que no ocurriría con una
fuente vectorial, y que es por lo que también se las suele llamar fuentes escalables.

Fuentes BITMAP de 10 y 100 puntos, respectivamente

La mayoría de los procesadores de texto actuales vienen acompañados de tipos de letra


en formato TrueType. Las fuentes TrueType no son más que tipos de letra escalables. Cada tipo de
letra está almacenado en el disco de forma vectorial, razón por la cual es posible disponer de cual-
quier tamaño desde 0,7 puntos hasta un máximo de 2.160 puntos (unos 76 centímetros) sin pérdida
de calidad. Las fuentes TrueType pueden cambiar de dimensión a cualquier altura y se imprimen
exactamente igual a como aparecen en pantalla.

ABC ABC
Fuentes TRUETYPE de 10 y 100 puntos, respectivamente

A la hora de elaborar un documento es usual que queramos destacar ciertas partes del texto
como, por ejemplo, un título, o una frase sobre la que queremos llamar explícitamente la atención del
lector; para ello tenemos los diferentes estilos de letra que a continuación se enumeran:

ESTILO NORMAL
ESTILO NEGRITA
ESTILO CURSIVA
ESTILO SUBRAYADO
Estilos de letra básicos

542 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


OFIMÁTICA

Además de los estilos de letra básicos los procesadores actuales nos permiten mejorar la ca-
lidad de nuestros textos con una serie de efectos especiales como los que podemos apreciar en la
siguiente imagen.
TACHADO SUPERÍNDICE SUBÍNDICE
VERSALLES

Efectos especiales con textos

Ejemplo: Párrafo en el que se incluyen las ideas anteriores:


“Si lo que queremos simplemente es destacar una frase o palabra en concreto podemos cambiar
el estilo (utilizar negrita, subrayado o cursiva), tal vez queremos llamar más su atención por lo que
podemos utilizar una fuente (o tipo de letra) diferente, más llamativa, o bien la misma pero aumentan-
do o disminuyendo el tamaño. Sin embargo es posible que queramos
para lo que los procesadores de texto disponen de numerosos efectos especiales.”

3.4. FUNCIONALIDADES BÁSICAS


3.4.1. Funciones de diseño de página
– Espaciado interlineal: espacio entre líneas de un mismo párrafo.
– Tabulaciones: permiten desplazar una línea individual de texto y alinear las columnas de
texto. Generalmente, los procesadores poseen tabuladores prefijados, pero es posible modi-
ficarlos e incluso eliminarlos.
– Columnas: se utilizan para dividir el texto verticalmente en la página, los tipos de columnas
más habituales son:
* Periodísticas: hacen que el texto fluya en forma continua de columna en columna, tal
como aparece en los diarios y periódicos.
* Paralelas: se utilizan para escribir bloques de texto en columnas desiguales, lado a lado,
en la misma página como, por ejemplo, una lista de inventario.
– Márgenes: determinan la distancia entre el texto y el borde del papel. Los procesadores de texto
imprimen normalmente el texto y los gráficos en el área delimitada por los márgenes, mientras que
los encabezados, pies de página y números de página los imprimen dentro de los márgenes.

Los márgenes son la


distancia del texto al
borde del papel

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 543


OFIMÁTICA

– Numeración de páginas: inclusión automática del número de página.


– Tamaño de papel: el usuario puede indicar diferentes tamaños en los que va a desarrollar
su documento, con medidas estándar o personalizadas.
– Encabezados/Pies de página: sección de texto que se incorpora en la parte superior o
inferior de cada página o en páginas alternas de un documento.

3.4.2. Funciones de edición de texto


– Justificación: alinea el texto con los márgenes derecho e izquierdo, o centra el texto entre
los márgenes.

Alineación izquierda, derecha, justificación y centrado

– Tipos de letras (fuentes), negrilla, subrayado, superíndice, subíndices, tamaños variables,


etc. (visto anteriormente).
– Espaciado entre caracteres: espacio entre los caracteres (letras) en las palabras.
– Espaciado interlineal: es la cantidad de espacio entre las líneas del texto del documento.
– Espaciado entre párrafos: cuando se pulsa ENTER en el teclado se produce un salto de
párrafo. Es posible controlar el espacio entre uno y otro.
– Sangría: distancia que empuja o aproxima un párrafo del margen izquierdo o derecho. Pue-
de aplicar sangría a todas las líneas de un párrafo o sólo a la primera línea. Existen varios
tipos de sangría:
* De primera línea: la primera línea se distancia más del margen izquierdo que las demás.
* Francesa: efecto contrario a la anterior, de modo que la primera línea sobresale de las demás.
* Sangría derecha: consiste en indentar un párrafo más hacia la derecha que los demás.
* Sangría izquierda: consiste en indentar un párrafo más hacia la izquierda que los demás.
– Notas al pie: aclaraciones sobre algún aspecto del texto. El enlace entre el texto y la nota
al pie se suele hacer con un índice (número que los relaciona).

3.4.3. Funciones gráficas


– Editor de ecuaciones: permite crear y editar fórmulas y expresiones matemáticas, científi-
cas y de negocios.
– nclusión de gráficos.
– Biblioteca de objetos gráficos predefinidos.

3.4.4. Funciones avanzadas


– Generación de índices.
– Búsqueda y sustitución: permite buscar una palabra en un documento y reemplazarla por otra.
– Copiar y mover: permite copiar o mover palabras, bloques de texto o gráficos en diferentes
partes de un mismo documento, o bien de un documento a otro.
– Corrector ortográfico: herramienta que permite corregir ortográficamente un texto a partir
de un diccionario interno y que puede enriquecerse añadiendo aquellos vocablos que no
estén contenidos en el mismo. Los tratamientos de textos más modernos disponen de estos
diccionarios en diversos idiomas. Existe la modalidad de corrector dinámico que muestra
cualquier disconformidad ortográfica o sintáctica en el momento de su escritura.

544 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


OFIMÁTICA

– Corrector gramatical: una de las más recientes innovaciones en el procesamiento de tex-


tos es el análisis de la sintaxis de un documento, optimizando la “legibilidad” del producto
final, ofreciendo ideas y consejos sobre el contenido del mismo.
– Diccionario de sinónimos. Al igual que el corrector ortográfico, la herramienta de sinóni-
mos brinda al usuario la posibilidad de conocer los sinónimos y antónimos de una palabra
y sustituirla en el texto. Es una herramienta muy útil ya que permite desplazarse desde una
palabra incluida en el texto a su sinónimo y de este último sinónimo a otro sinónimo, etc.
– Fusiones: permite generar una cantidad masiva de cartas, recibos o comunicaciones a partir
de dos documentos, uno primario con la información repetitiva (por ejemplo, la base de todas
las cartas a generar) y otro secundario con los datos particulares de cada una de ellas. Esto
permite que la creación de cartas para un envío masivo se pueda realizar en pocos minutos.
– “Marcas de agua”: consisten en gráficos que aparecen difuminados en el fondo de una pá-
gina y que se suelen utilizar para incluir comentarios como “BORRADOR”, “CONFIDENCIAL”
o para incluir el logotipo de una organización.
– Personalización de estilos: permiten personalizar estilos de párrafos de forma que todos
los documentos tengan la misma estructura y estilo sin necesidad de redefinirlos cada vez
que se comienza un documento.
– Abreviaturas: permiten al usuario utilizar y definir las abreviaturas de aquellos términos que
utiliza con más asiduidad, expandiéndolos una vez concluido el documento.
– Indización de documentos: tradicionalmente ha sido muy complejo el mantener y localizar
al cabo de varios meses un documento determinado del cual quizás sólo se conozca un
pequeño dato o nombre incluido en el mismo. Esta funcionalidad permite crear un índice
de los documentos contenidos en un árbol de directorios, posibilitando así la localización,
visualización y recuperación de un documento a partir de cualquier palabra contenida en el
mismo, en muy pocos segundos.

3.5. HYPERTEXTO
El hypertexto es una utilidad de gestión, búsqueda y archivo de información, que permite despla-
zarse de forma no lineal en un documento y/o considerarlo en su globalidad. Es por tanto una filosofía
nueva en el tratamiento de la información. Es el último paso en el desarrollo de los procesadores de
texto. Las aplicaciones de hypertexto se encuentran en las actividades de mantenimiento, archivo,
gestión de documentación técnica o literaria e incluso en la asistencia en línea. Existen numerosos
programas de este tipo y cada vez interesan a un público mayor.

3.6. WYSIWYG
WYSIWYG: iniciales de “What You See is What You Get” (lo que se ve es lo que se obtiene). Uno
de los grandes inconvenientes de algunos programas que trabajan en modo texto es que no represen-
tan fielmente lo que posteriormente se va a obtener sobre el papel. Así, un procesador de textos que
trabaje en este modo no podrá mostrar por pantalla letras en cursiva, ni caracteres de gran tamaño,
mientras que tanto unos como otros se pueden obtener por impresora. En un programa dotado con
interfaz WYSIWYG constantemente se muestra por pantalla lo que finalmente se obtendrá impreso.
Este modo de funcionamiento es imprescindible en programas de dibujo o de autoedición, y cada vez
más frecuente en los procesadores de texto.

3.7. NORMAS Y ESTÁNDARES APLICABLES MÁS IMPORTANTES


– ASCII. Estándar para la representación interna de datos en ficheros transportables entre
diferentes programas de aplicación.
– ASCII delimitado. Variante del estándar anterior especialmente indicado para la transporta-
bilidad de datos numéricos entre aplicaciones gráficas. Utiliza delimitadores para marcar la
posición y el tipo de los datos en los ficheros correspondientes.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 545


OFIMÁTICA

– PostScript. Lenguaje de definición de impresión ampliamente implantado en el mercado. Es


una marca registrada de ADOBE Systems, Inc.
– HPGL. Lenguaje de definición de impresión ampliamente implantado en el mercado. Es una
marca registrada de Hewlett-Packard.
– DIA/DCA. Estándar de formato interno de documentos e información de control soportado
por gran número de programas de tratamiento de textos.

3.8. AUTOEDICIÓN

3.8.1. Definición
Los paquetes de autoedición son el peldaño superior a los procesadores de texto. El objetivo de
los programas de autoedición es crear documentos de forma electrónica mezclando textos e imáge-
nes, con la finalidad de imprimir el resultado normalmente en una imprenta comercial. Poseen las
capacidades de escritura y corrección de un procesador de textos pero su potencial se encuentra en
el formato y el diseño.
Con la introducción de los sistemas informáticos en la composición de textos, no sólo se realiza
la composición de líneas, calculándose los espaciados entre caracteres y palabras sino que se agru-
pan las líneas en otras unidades mayores, párrafos, epígrafes y capítulos, distribuidos en columnas y
éstas en páginas con las que se forman revistas y libros. La presentación de textos ha evolucionado
a medida que los sistemas de composición han hecho posible la introducción de gráficos, dibujos y
fotografías.

3.8.2. Conceptos y funcionalidades básicas


Entre los términos y conceptos más comunes utilizados en los paquetes de autoedición se pue-
den destacar (muchas de ellas son comunes a los procesadores de texto):
– Portada. Es la primera página de una publicación; en el caso de un boletín o periódico, la
portada incluirá el título del boletín, así como titulares de gran tamaño y alguna ilustración.
– Historia o cuento. Es una colección de textos reconocidos como una unidad conexa. Esta
colección de textos puede incluir desde una simple palabra hasta la publicación completa.
– Sumarios. Frases cortas que se enmarcan y resaltan con un tipo de letra más grande (ge-
neralmente en negrita). Se utilizan para resumir las ideas generales de una página y romper
la linealidad de la misma.
– Tamaño y complejidad del trabajo. Aunque se pueden imaginar infinitos tipos de publica-
ciones, la composición de pocas páginas con muchas ilustraciones y variaciones tipográficas
complejas, la composición de textos de tamaño medio con ilustraciones y la composición de
libros o manuales con ilustraciones y fórmulas pueden ser tres ejemplos válidos. Estos tres
tipos pueden servir de referencia para valorar la complejidad de los programas y cómo resolver
los problemas de composición. En este contexto, las operaciones más relevantes son:
* Control tipográfico preciso y flexible: incluye el posicionamiento del texto, con relación
al que le rodea y en la página, junto con la manipulación de los tipos para adaptarlos a
formas y tamaños diversos.
* Control de maqueta: se refiere a la posibilidad de disponer el texto en las páginas de
formas diferentes según las necesidades de la publicación. Incluye las posibilidades de
mezclar páginas de diferentes formatos y orientaciones y variar el flujo del texto a través
de las columnas.
* Listas de referencia: índices de contenidos, de figuras y de tablas, índices alfabéticos
y glosarios. Incluye el control de las notas a pie de página, de encabezados y pies, de
referencias cruzadas, etc.
* Objetos especiales: tablas, fórmulas, esquemas, etc. Cada programa enfatiza el trata-
miento de un conjunto de objetos distinto.

546 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


OFIMÁTICA

* Viñeta: área rectangular en la que pueden incluirse textos, dibujos vectoriales o imáge-
nes (TIF, PCX, etc.). En las viñetas sólo puede ponerse un elemento a la vez: un texto,
un dibujo o una imagen.
* Incorporación de dibujos, fotografías, etc.: incluye el control de su apariencia, las co-
rrecciones necesarias en función de los dispositivos de lectura de imágenes y del proce-
so de impresión (papeles, tintas, etc.).
* Bullet: caracteres gráficos que se colocan al comienzo de un párrafo seguidos de un
texto.
* Kerning: es una funcionalidad que permite ajustar el espacio entre dos letras de tamaño
no proporcional.
– Control de las publicaciones: incluye las limitaciones del programa (número máximo
de colores, número de páginas, número de capítulos, etc.), así como las facilidades
para reagrupar las partes de la publicación, para imprimir una parte –que puede abarcar
ficheros diferentes–, para obtener copias de borrador fiables, para ver el conjunto de la
publicación, etc.
– Editor de dibujos vectoriales: posee unas herramientas de dibujo comparables con cual-
quiera de los programas gráficos del mercado. También es muy interesante que los objetos
dibujados puedan transferir entre ellos sus propiedades, formando grupos que puedan ser
tratados como tales.
– Esquematizador: herramienta que genera esquemas que sirven de índices con el fin de
guiar la publicación. Esta opción podría ocultar partes de la publicación para mejorar el ren-
dimiento del sistema.
– Servicios para eventual cambio de programa: filtros de importación a otros programas de
maquetación que conserven el formato para facilitar el trabajo de traducir y organizar todo el
material anterior, programas de actualización competitiva, etc.

4. HOJAS DE CÁLCULO

4.1. INTRODUCCIÓN Y DEFINICIÓN


Las hojas de cálculo son, junto al tratamiento de textos, una de las aplicaciones más frecuentes
en cualquier empresa. Tratan de sustituir el trabajo de lápiz, papel y calculadora en la realización de
balances, presupuestos, análisis financieros, cuadros de amortizaciones, estadísticas y un largo et-
cétera de operaciones contables que impliquen el uso de cantidades en las que se pueda establecer
una relación matricial.
Una hoja de cálculo es un programa de ordenador que permite al usuario
organizar una matriz de celdas y definir relaciones, generalmente matemáticas,
entre todos o algunos de sus elementos. Así, al cambiar el valor de una celda
se alterará de forma automática el valor de otras celdas que estén relacionadas
con ésta.
Podríamos definir las hojas de cálculo como programas creados con el fin de convertir infor-
mación desorganizada en datos organizados y realizar cálculos con ellos. Los datos de una hoja de
cálculo se organizan en filas y columnas formando una cuadrícula compuesta de celdas; es en éstas
donde se introducen los datos, que pueden ser: texto, números, fórmulas, fechas, horas... , con ellos
se pueden realizar operaciones matemáticas y de ordenación, de manera que las fórmulas se recal-
culan cuando se cambian los datos.
NOTA: en general cualquier información numérica que se pueda organizar en
forma de tabla (filas y columnas) será susceptible de ser tratada por una hoja de
cálculo.
Este grado de flexibilidad permite al usuario crear supuestos en función de parámetros introduci-
dos y obtener los resultados de forma inmediata en la pantalla del ordenador.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 547


OFIMÁTICA

4.2. BREVE EVOLUCIÓN HISTÓRICA


El inventor de la hoja de cálculo fue Dan Briklin hace algo más de una década, un estudiante de
la escuela de negocios de Harvard que denominó a su aplicación VISICALC y batió récords de ventas
pese a sus limitadas prestaciones.
Posteriormente, ya en 1982, surge LOTUS 1-2-3 que se convirtió en un estándar de las hojas de
cálculo. En el año 1988 surgieron QUATTRO, PLAN PERFECT y EXCEL, una hoja de cálculo extraordi-
nariamente mejor dotada.
Para algunos, el año 1990 ha sido el año de las hojas de cálculo de 4ª generación. Frente a las
hojas de antaño, limitadas a mover, copiar, borrar y relacionar celdillas, se imponen la tridimensio-
nalidad, las nuevas posibilidades gráficas y el intercambio de ficheros de las actuales, ofreciendo al
usuario una gran facilidad de manejo.

4.3. CONCEPTOS BÁSICOS


A la hora de hablar de hojas de cálculo es conveniente conocer una serie de términos, como son:
– Dirección de celda. Consta de una o dos letras que identifican una columna y un número
que hace referencia a una fila.
– Rango de celdas. Es un grupo celdas contiguas; puede estar formado por una sola celda,
una columna o un grupo de filas y columnas.
– Fórmulas. Son expresiones que realizan un cálculo, con valores de la hoja. Al introducir una
fórmula en una celda, el programa muestra el resultado en ella.
– Cuaderno de trabajo. Las hojas de cálculo han dejado de ser matrices de doble entrada
por fichero para convertirse en Cuadernos de Trabajo. Estos están formados por un conjunto
de hojas de cálculo (hasta 256 en algunos productos) y cada hoja de cálculo a su vez está
formada por más de dos millones de celdas organizadas en filas y columnas en las cuales
se pueden almacenar fórmulas o datos. Cada una de estas hojas se puede seleccionar me-
diante unas pestañas que se encuentran en la parte inferior o superior de la hoja en función
del producto.
– Funciones. Las funciones son fórmulas matemáticas predefinidas incluidas en una hoja de
cálculo que permiten realizar operaciones devolviendo el resultado en una celda de la hoja.
La mayoría de los productos de hoja de cálculo poseen un conjunto de funciones suficientes
para satisfacer las necesidades de cualquier usuario medio; no obstante, algunos fabrican-
tes añaden conjuntos de funciones más específicas y complejas con el objeto de dar un
valor añadido a sus productos. Entre los diferentes tipos de funciones se pueden destacar
las siguientes:
* Matemáticas: utilizan uno o más valores numéricos como argumentos y devuelven un
valor numérico.
* Lógicas: comparan y evalúan las relaciones entre distintos valores. Ejemplo: @SI() -
evalúa una condición dada y devuelve la expresión especificada si es verdadera u otra
expresión especificada si es falsa.
* De ingeniería: realizan conversión de números, operaciones Booleanas y cálculos con
números complejos o funciones Bessel. Ejemplo: @COMPLEX(x,y) - Convierte los coefi-
cientes real e imaginario en un número complejo.
* Financieras: calculan inversiones y flujo de caja. Ejemplo: @FUTU() - Calcula el valor
futuro de la corriente de flujo de caja.
* Estadísticas: realizan operaciones de suma, recuento y análisis sobre un grupo de valo-
res expresados como una lista o lista de uno o varios argumentos. Ejemplo: la varianza
de la población de todos los valores de una lista.
* De carácter: operan sobre cadenas de caracteres o texto. Incluyen una o varias cadenas
como argumentos y su resultado puede ser una cadena o un valor numérico.

548 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


OFIMÁTICA

4.4. CARACTERÍSTICAS Y FUNCIONALIDADES


Entre las características generales que posee esta aplicación destacan su facilidad de manejo,
su gran campo de aplicación y las siguientes posibilidades de realización:
– Fórmulas: descripción de operaciones o funciones en cualquier celda cuyo resultado es
calculado automáticamente y actualizado (recalculado) en caso de modificar algún dato.
– Tipos de texto: inclusión de rótulos, cabeceras, líneas de totales y cualquier otro tipo de texto.
– Intercambio de los datos: total o parcial (exportar e importar), con otras aplicaciones.
– Presentación preliminar: en pantalla o impresora de las hojas.
– Unión de varias hojas en una sola, así como disgregación de una en varias independientes.
– Macros: permiten automatizar tareas repetitivas y personalizar la hoja de cálculo.
Existen otras funcionalidades avanzadas, entre las que cabe destacar:
– Agrupamiento y consolidación de hojas: en un cuaderno se pueden agrupar varias hojas
que contengan el mismo tipo y estructura de información y consolidar estos datos en una
hoja final con el resultado de los cálculos efectuados en todas las hojas agrupadas.
– Formateos: las hojas de cálculo de última generación ofrecen amplias facilidades de formateo
de bloques y páginas, ya que el aspecto final de un documento es muy importante: los datos
no sólo deben ser fiables sino además deben ser agradables a la vista. Existen herramientas
que ofrecen una gran variedad de estilos predefinidos de tal forma que, seleccionando con el
ratón la parte de la hoja que se quiere formatear, el producto presentará un menú con todas las
opciones posibles y permitiendo personalizar las propias que puedan interesar al usuario.
– Análisis de datos: se definen los datos a obtener, las variables que se pueden modificar y
las constantes a las que hay que ceñirse. La herramienta realizará los cálculos y ajustará los
resultados hasta conseguir la solución al problema.
– Funciones de transformación: por ejemplo, de una hoja de cálculo “plana”, invirtiendo sus
filas y columnas, permitiendo cambiar los títulos entre los ejes de abscisas y ordenadas, y
proporcionando una vista completamente distinta de los datos tan sólo con “arrastrar” las
celdas deseadas con el ratón.
– Soporte varias versiones: el trabajo en una oficina con un determinado número de per-
sonas plantea a veces la necesidad de compartir e incluso comparar distintas versiones de
una hoja de cálculo. Este sería el caso de una persona que solicita a varios miembros de su
equipo una solución económica a un determinado problema a través de una red local.
– Integración con otros productos: las hojas de cálculo deben trabajar con datos que están
dispuestos en forma de tabla. Por lo tanto existe una similitud entre la disposición de los datos
en una hoja de cálculo y una base de datos. Es un factor a tener en cuenta el que una hoja de
cálculo sea capaz de importar datos de una base de datos no sólo a nivel local y en un formato
estándar sino de bases de datos externas y entornos operativos distintos al del microordenador.
Se puede conseguir de esta forma tener una base de datos en un servidor UNIX mientras en el
ordenador personal del usuario existe una hoja de cálculo que presenta los datos consolidados.
En el camino hacia la integración de las herramientas ofimáticas, algunos productos incluyen
un módulo para generar presentaciones a partir de todos los diagramas existentes en la hoja de
cálculo, pudiendo asimismo incluir textos y efectos de transición entre páginas y botones que
contienen macros capaces de bifurcar la presentación hacia diferentes páginas de la misma.
– Tareas con gráficos: una de las características más llamativas de una hoja de cálculo es
la capacidad de obtener gráficos a partir de los datos contenidos en la hoja. Los productos
actuales permiten crear un gráfico en pocos segundos seleccionando el bloque de datos que
se desea representar (selección de un grupo de celdas), pulsando con el ratón en el icono
correspondiente y marcando con el mismo el área donde se desea ubicar el gráfico. Una
vez creado será necesario personalizarlo eligiendo distintos tipos de gráfico 2D, 3D, rotados,
tarta, combinados, etc., y cambiar sus propiedades, como, por ejemplo:
* Color y tamaño del texto.
* Color, grosor, fondo y estilo de las barras y fondos del gráfico.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 549


OFIMÁTICA

* Inclusión de Bitmaps de fondo.


* Dibujo libre de líneas y diversas figuras geométricas.
– Formateo de bloques y páginas. El aspecto final de un documento es muy importante,
los datos no sólo deben ser fiables sino además deben ser agradables a la vista. Existen
herramientas que ofrecen una gran variedad de estilos predefinidos de tal forma que selec-
cionando con el ratón la parte de la hoja que se quiere formatear, el producto presentará
un menú con todas las opciones posibles y permitiendo personalizar las propias que puedan
interesar al usuario.
– Análisis de datos. Son funcionalidades que permiten realizar análisis de hipótesis. Se defi-
nen los datos a obtener, las variables que se pueden modificar y las constantes a las que hay
que ceñirse. La herramienta realizará los cálculos y ajustará los resultados hasta conseguir
la solución al problema.
– Modeladores de datos. Eventualmente se puede necesitar una funcionalidad que permita
transformar una hoja de cálculo “plana”, invirtiendo sus filas y columnas, permitiendo cam-
biar los títulos entre los ejes de abscisas y ordenadas, y proporcionando una vista completa-
mente distinta de los datos tan sólo con “arrastrar” las celdas deseadas con el ratón.
– Gestor de escenarios. Hay productos de hoja de cálculo que disponen de la herramienta
necesaria para que cada miembro del equipo plantee su solución y el responsable del equipo
pueda disponer de una combinación de ellas. El gestor de escenarios es una implementa-
ción novedosa y potente que permite la creación de una nueva hoja con el informe resultante
de aplicar un escenario determinado junto con el nombre del autor del análisis.

5. BASES DE DATOS

5.1. DEFINICIÓN Y CONCEPTOS BÁSICOS


En el entorno de trabajo de cualquier tipo de oficina es habitual tener un archivo con gran parte
de la información necesaria para el desempeño de la actividad diaria de la organización. Toda esta
información, debidamente clasificada y almacenada según criterios precisos, recibe el nombre de
base de datos.
Durante los últimos quince años, la ofimática, con el apoyo de los ordenadores personales, ha
desarrollado programas para gestionar dichas bases de datos. Estos programas se denominan Siste-
mas de Gestión de Bases de Datos (SGBD).
Los SGBDs permiten incorporar nuevos elementos a la base de datos, modificarlos, darlos de
baja y generar listados o informes de los datos contenidos con un orden y criterio determinados. Un
SGDB permite relacionar varias bases de datos a través de un campo común.
En la actualidad los programas gestores de bases de datos han evolucionado desde una interfaz
de usuario orientada a carácter hasta los SGBDs con interfaz gráfica. Esto ha dado lugar a la posibi-
lidad de almacenar, no sólo datos numéricos y alfanuméricos, sino también datos de tipo gráfico o
binario, imágenes y sonido.
La rapidez de acceso a un dato concreto es fundamental, pero esto no sólo se consigue con un
ordenador muy potente, sino que también es precisa una organización lógica y eficaz de los datos. De
esta organización se requiere principalmente:
– Capacidad de almacenamiento suficiente.
– Simplicidad de acceso, tanto en facilidad como en rapidez.
– Claridad, con una interfaz sencilla y natural.
– Independencia física y lógica de los datos.
– Ha de permitir la compartición de la información entre distintos usuarios.
Con respecto al último punto es preciso aclarar que tal vez no todos los usuarios deben poder
tener acceso a todos los datos, por tanto un punto muy importante a tener en cuenta es la limitación
de acceso.

550 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


OFIMÁTICA

Otro punto importante es la integridad de los datos, es decir, que si un dato se encuentra
almacenado en varios sitios y se borra o se modifica, este borrado o modificación se refleje en todos
y cada uno de los sitios donde este dato está almacenado. El hecho de que un dato se encuentre al-
macenado en distintos sitios se denomina redundancia; se debe tender a minimizar la redundancia,
aunque en ocasiones puede ser necesaria.
Con estas ideas podemos afinar nuestra definición de base de datos:
Una base de datos puede definirse como una colección de datos interrelacio-
nados almacenados en conjunto sin redundancias perjudiciales o innecesarias; los
datos se almacenan de modo que resulten independientes de los programas que
los usan y se emplean métodos bien determinados para incluir datos nuevos y para
modificar o extraer datos almacenados.

5.2. EVOLUCIÓN HISTÓRICA


Los fabricantes tienden a desarrollar productos y estándares con interoperabilidad máxima. Es-
tos productos han ido evolucionando desde que los programas como dBase IV (sucesor de dBase
III Plus), RBASE SYSTEM V, ORACLE o PARADOX se configuraron como los auténticos estándares en
cuando a los paquetes SGBS se refiere.
Este programa realiza un proceso de transacción con recuperación para evitar posibles pérdidas
de información debidas a un fallo del sistema, así como la actualización automática de pantallas uti-
lizadas al mismo tiempo por distintas personas, cada vez que una de ellas realiza un cambio.
Existe también una protección de acceso a los datos por medio de claves y cifrado de datos.
Paradox se enfoca tanto al modo monopuesto como multipuesto o a las redes de área local, y está
concebido para correr bajo sistemas operativos monotarea como DOS o multitarea como UNIX y
OS/2, Oracle; en cambio, aunque era compatible con SQL/DS y DB” y se dirigía a grandes entornos
IBM, con el auge de las arquitecturas cliente/servidor está adquiriendo una amplia aceptación en el
mercado.
Posteriormente Microsoft lanzó al mercado su gestor de base de datos ACCESS que se ejecuta
bajo Windows y también está alcanzando altas cotas de mercado. En la actualidad se han incorporado
a los sistemas personales las potentes bases de datos Oracle e Informix diseñadas inicialmente para
sistemas más grandes.

5.3. CONCEPTOS Y FUNCIONALIDADES BÁSICOS


El fuerte desarrollo del entorno gráfico ha dotado a las bases de datos ofimáticas de un entorno
de trabajo potente, buscando la sencillez de manejo y orientado al usuario final. Gran parte de las
tareas que se llevan a cabo con este tipo de programas se realiza con herramientas para el diseño
gráfico.
Entre las tareas que se pueden realizar con dichos asistentes gráficos se pueden destacar las
siguientes: tablas, fichas, formularios, consultas, informes, etiquetas, relacionar tablas.
De forma análoga al resto de los programas ofimáticos de última generación, es importante la
implementación de tecnología de orientación a objetos, que dota al producto de una gran facilidad de
uso. Entre otras, las principales funcionalidades a considerar son las siguientes:
– Soporte de red: todos los productos de bases de datos ofimáticas suelen soportar el traba-
jo con algún tipo de LAN, permitiendo el bloqueo de ficheros y registros. Es un elemento a
valorar la capacidad de trabajar con los principales protocolos de red del mercado.
– Seguridad de la información: a nivel de acceso es importante que se pueda mantener
la confidencialidad de los datos. No sólo modificando los privilegios de acceso a usuarios,
facilidad que proporcionan las redes de área local, sino que el propio gestor de base de
datos debe proveer la asignación de palabras clave o passwords para permitir el acceso a
determinados ficheros. A nivel físico existe el cifrado de ficheros con el objeto de que los
datos confidenciales no se puedan leer si no se conoce la clave para descifrar.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 551


OFIMÁTICA

– Tipos de datos: se almacenan en un campo de base de datos; son los siguientes:


* Numéricos: almacenan números. Pueden incluir decimales.
* Alfanuméricos: almacenan cualquier carácter, ya sean números (que no se utilicen en ope-
raciones matemáticas), letras y caracteres tipográficos. Su límite es de 255 caracteres.
* Lógicos: admiten sólo dos valores.
* Memo: campos de gran capacidad, admiten más de los 255 caracteres de los campos
alfanuméricos, se utilizan para incluir notas, observaciones, etc. Su inconveniente es
que el SGBD no es capaz de localizar cadenas de caracteres dentro de ellos.
* Gráficos: permiten incluir ficheros gráfico estándar, por ejemplo DXF, TIFF, PCX, etc.
* Vídeo: almacenan breves secuencias de vídeo comprimidas denominadas “Full motion video”.
* Audio: incluyen ficheros de formatos WAV, MIDI, etc., que contienen sonido, música, voz.
* OLE/BLOB: nuevos tipos capaces de contener cualquier estructura compleja, como una
hoja de cálculo o una página de un procesador de textos.
– Formularios: un formulario es una pantalla creada por el usuario que permite añadir cam-
pos a una base de datos. Los datos se pueden añadir directamente posicionando el cursor
sobre el último registro, o bien, el usuario puede crear un formulario que permita realizar la
misma función con una pantalla amigable.
– Consultas: los productos de bases de datos ofimáticas permiten realizar búsquedas simples
en el contenido de un campo o bien se pueden realizar búsquedas complejas utilizando ope-
radores lógicos y agrupando búsquedas simples. Los sistemas de gestión de base de datos
más modernos soportan la técnica de interrogación QBE (Query By Example), orientada a
usuarios finales.
– Informes y etiquetas: posibilidad de generar informes y etiquetas a partir de los datos
contenidos. Los informes se pueden realizar ordenando los datos según las necesidades del
usuario y limitando el número de registros en función del criterio del mismo. Asimismo un
informe resulta de una consulta.
– Programación: los SGBD ofrecen algún tipo de programación para usuarios avanzados, bien
mediante un lenguaje de macros, bien mediante un lenguaje de programación que contenga
instrucciones específicas para el tratamiento de información estructurada.
– Indexación: los registros de una base de datos quedan grabados de forma secuencial, con el
objeto de listar dicha información de forma ordenada según un criterio determinado. El resulta-
do de una indexación es una vista de la base de datos ordenada por uno o varios campos.
– Orientación a objetos: de forma análoga al resto de los programas ofimáticos de última
generación es importante la implementación de tecnología de orientación a objetos, que
dota al producto de una gran facilidad de uso. Entre otras, las principales funcionalidades a
considerar son las siguientes:
* Soporte BDs Multiplataforma: los fabricantes de bases de datos ofimáticas, gracias al
avance tecnológico en cuanto a conectividad y la tendencia hacia una mayor integración
de sistemas, han desarrollado estándares basados en conjuntos de APIs , como ODBC
y ODAPI, que permiten independizar los datos del gestor que los produjo y del que los
mantiene. Dichos estándares permiten al usuario acceder a bases de datos abiertas y
ficheros residentes en distintas plataformas de forma simultánea y transparente. Esto
permite al usuario generar consultas e informes con diversas fuentes de información.
* API (Application Programming Interface): conjunto de funciones y servicios que permiten
al usuario acceder a los recursos de un programa o dispositivo. Por ejemplo: Windows
API, OS/2 API, etc.
* Soporte lenguaje SQL (Structured Query Language): lenguaje estándar de consulta de
bases de datos relacionales que permite organizar, gestionar y recuperar datos.
* Integridad referencial: característica recomendable de cualquier SGBD que asegura la
coherencia de datos comunes en tablas relacionadas. Si p. ej. se tienen dos bases de
datos relacionadas entre sí, la primera con un conjunto de oficinas bancarias con sus

552 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


OFIMÁTICA

datos correspondientes de localización, etc. (tabla “padre” con una clave primaria) y una
segunda base de datos con cuentas corrientes relacionadas con sus correspondientes
sucursales (tabla “hija” con una clave secundaria), el sistema gestor de dichas bases de
datos no permitiría añadir una cuenta corriente en una sucursal que no existiera previa-
mente en la tabla “padre” o bien no permitiría borrar una sucursal que tuviese cuentas
corrientes en la tabla “hija”.

5.4. ARQUITECTURAS DE BASES DE DATOS

5.4.1. Modelo relacional


En 1970 apareció el artículo “A relational model of data for large shared data banks” de E.F. Codd,
que presentaba una nueva teoría para el modelo de organización de datos con fundamentos y formula-
ción matemática. La clave del modelo está en la organización de los datos en tablas bidimensionales,
que es la forma más intuitiva. Los usuarios ven una base de datos relacional como una colección de
datos del tipo:

PEDIDOS

Nº Pedido Unidades Importe unitario

001 10 1500

002 145 19000

003 200 3500

Casi todos los productos de bases de datos desarrollados en años recientes se basan en lo que
se conoce como el enfoque relacional. Un sistema relacional es aquel en que:
– El usuario percibe los datos en forma de tablas.
– Los operadores al alcance del usuario generan tablas nuevas a partir de las existentes.
Los conceptos básicos del enfoque relacional son:
– Dominio: conjunto de valores del mismo tipo, caracterizados por un nombre.
– Relación: subconjunto del producto cartesiano de N dominios, no necesariamente distinto,
caracterizado por un nombre.
– Atributo: columna de una relación que representa una propiedad de la misma, y que está
caracterizado por su nombre. Un atributo toma sus valores de un dominio.
– Tabla: forma de representar una relación. Es una vista de una base de datos. Se denomina
vista a la imagen lógica de una o varias bases de datos y que no necesariamente corres-
ponden con la imagen física de la misma. La vista puede estar limitada exclusivamente a los
registros que interesan al usuario, o bien a los registros que le estén permitidos acceder en
función de la seguridad de la BD.
– Clave: la clave de una relación es un atributo o conjunto de atributos que distingue unívoca-
mente las tuplas de una relación. En el ejemplo anterior la clave sería el Nº Pedido. De todas
las posibles claves (claves candidatas) se escoge una que será la clave primaria.
– Normalización: es un modo de realizar un buen diseño de la estructura lógica de cualquier
sistema de información. Codd distinguió tres formas normales 1ª FN, 2ª FN y 3ª FN. En la
actualidad se definen además la FNBC (Forma Normal de Boyce-Codd), 4ª FN y 5ª FN o
Forma Normal de Proyección/Reunión (PJ/NF). Las formas normales se organizan de la si-
guiente manera según no establezcan ninguna restricción a la forma normal más restrictiva
(la 5ª FN).

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 553


OFIMÁTICA


       
     


         




   

   

   

   

    

– Integridad referencial: la integridad referencial es una característica recomendable de


cualquier gestor de base de datos. Dicha característica asegura la coherencia de datos
comunes en tablas relacionadas. Si, por ejemplo, se tienen dos bases de datos relacio-
nadas entre sí, la primera con un conjunto de productos con sus descripciones, stock,
precio unitario, etc. (tabla “padre” con una clave primaria) y una segunda base de datos
con pedidos de productos (tabla “hija” con una clave secundaria), el sistema gestor de
dichas bases de datos no permitiría añadir un pedido de un producto que no existiera pre-
viamente en la tabla “padre” o bien no permitiría borrar un producto que tuviese pedidos
en la tabla “hija”.
– SQL (Structured Query Language): lenguaje de interrogación estructurado; es un lenguaje
estándar de consulta de bases de datos relacionales que permite organizar gestionar y recu-
perar datos almacenados en una base de datos informática.
Los primeros productos relacionales aparecieron a fines de la década de 1970 y a principios de la
siguiente. Ejemplos de estos productos son DB2, SQL/DS el OS/2 Extended Edition Database Mana-
ger, el OS/400 Database Manager todos de IBM, también Rdb/VMS de Digital Equipment Corporation,
ORACLE de Oracle Corporation, INGRES de Ingres Corporation, y otros muchos.
En fechas más recientes se han realizado investigaciones sobre varios sistemas que podrían
llamarse “postrelacionales”; algunos de ellos basados en extensiones con las que es compatible el
enfoque relacional original, aunque lo inverso no se cumple; otros representan intentos de lograr algo
completamente diferente. Estos enfoques son:
– Sistemas deductivos de administración de bases de datos.
– Sistemas semánticos de administración de bases de datos.
– Sistemas de administración de bases de datos de relación universal.
– Sistemas de administración de bases de datos orientadas a objetos.
– Sistemas extensibles de administración de bases de datos.
– Sistemas expertos de administración de bases de datos.
Los nuevos productos de bases de datos relacionales suelen disponer, entre otras, de las siguien-
tes funcionalidades:
– Programación visual: consiste en la generación de un código ejecutable a partir de una
consulta, pantalla o formulario creado de forma gráfica. Este código se puede modificar y
causará idéntico efecto sobre el elemento gráfico, modificándolo.
– Soporte de red: todos los productos de base de datos ofimáticas suelen soportar el trabajo
con algún tipo de red de área local, permitiendo el bloqueo de ficheros y registros. Es un ele-
mento a valorar la capacidad de trabajar con los principales protocolos de red del mercado.

554 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


OFIMÁTICA

– Seguridad de la información: a nivel de acceso es importante que se pueda mantener


la confidencialidad de los datos. No sólo modificando los privilegios de acceso a usuarios,
facilidad que proporcionan las redes de área local, sino que el propio gestor de base de
datos debe proveer la asignación de palabras clave o passwords para permitir el acceso a
determinados ficheros. A nivel físico existe el cifrado de ficheros con el objeto de que los
datos confidenciales no se puedan leer si no se conoce la clave para descifrar.

5.4.2. Modelo de lista invertida


Una base de datos de lista invertida es similar a una base de datos relacional, pero en un nivel de
abstracción más bajo, un nivel en el cual el usuario puede ver directamente las tablas almacenadas
mismas y también ciertas rutas de acceso a esas tablas almacenadas. Contiene un conjunto de ar-
chivos o tablas divididas en filas (registros) y columnas (campos) como en el modelo relacional, pero
con algunas diferencias importantes:
– Se considera que las filas de una tablas de lista invertida están ordenadas en alguna se-
cuencia física (independiente de cualquier ordenamiento adicional que pudiera conseguirse
mediante índices).
– Existe a su vez un ordenamiento total de toda la base de datos. La secuencia física de una
tabla será alguna subsecuencia de la secuencia general de la base de datos.
– Para una tabla dada es posible definir cualquier cantidad de claves de búsqueda. Una clave
de búsqueda es un campo arbitrario o una combinación arbitraria de campos de acuerdo con
la cual se construirá un índice (de este modo los índices no son transparentes al usuario, sin
embargo los mantiene el DBMS igual que en el enfoque relacional).
No existen reglas de integridad, sólo pueden establecerse algunas restricciones. El usuario es el
que se tiene que preocupar de que se cumplan las restricciones y de garantizar la integridad.
Un producto típico basado en el modelo de lista invertida es CA/DATACOM/DB
de Computer Associates International Inc.

5.4.3. Modelo jerárquico


Se compone de un conjunto ordenado formado por múltiples ocurrencias de un solo tipo de
árbol. Un tipo de árbol consiste en un solo tipo de registro raíz, junto con un conjunto ordenado de
cero o más tipos de subárbol dependientes (de nivel más bajo).
Un tipo de subárbol a su vez consiste en un solo tipo de registro –la raíz del tipo de subárbol– junto con
un conjunto ordenado de cero o más tipos de subárbol dependientes, de nivel más bajo, y así sucesivamen-
te. Lo que en una base de datos relacional sería una clave ajena se representa como una liga padre/hijo.
Las ocurrencias de un tipo de árbol tienen una secuencia de ordenación según un recorrido del
árbol de arriba abajo y de izquierda a derecha –ordenamiento en profundidad–.
Existe una integridad referencial en virtud de la siguiente regla “un hijo no puede existir sin su padre”.
De este modo si se elimina un padre determinado, el sistema eliminará en forma automática todo el subár-
bol cuya raíz sea ese padre. De manera similar, no es posible insertar a un hijo si no existe ya su padre.
Un producto típico basado en el modelo jerárquico es IMS de IBM Corporation.

5.4.4. Modelo de red


La estructura de datos de red puede considerarse como una forma extendida de la estructura jerár-
quica de datos. La distinción principal es la siguiente: en una estructura jerárquica, un registro hijo tiene
un y sólo un padre; en una estructura de red, un registro hijo puede tener cualquier número de padres.
Una base de datos de red se compone de dos conjuntos: un conjunto de registros y un conjunto
de ligas. Cada tipo de liga implica dos tipos de registro, un tipo de registro padre y un tipo de registro
hijo. Cada ocurrencia de un tipo de liga dado consiste en una sola ocurrencia del tipo de registro
padre, junto con un conjunto ordenado de múltiples ocurrencias del tipo de registro hijo.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 555


OFIMÁTICA

La integridad se trata de forma muy parecida al modelo jerárquico. Podemos garantizar ciertas
formas de integridad referencial en virtud a la estructura de datos primaria: la liga. Según esto no se
puede insertar un hijo si no existe su padre y se cumplen otras condiciones para claves ajenas.
Un producto típico basado en el modelo de red es CA-IDMS/DB de Computer
Associates International Inc.

6. PAQUETES GRÁFICOS Y DE PRESENTACIONES

6.1. DEFINICIÓN
La imagen y la comunicación tienen cada vez más importancia. El hecho de que una idea o unos
resultados se transmitan de forma brillante y convincente es casi tan importante como la idea o los
resultados mismos.
Esta necesidad ofimática vienen a cubrirla los paquetes de gráficos y presentaciones. Estos han
evolucionado en los últimos años gracias al crecimiento de las prestaciones de los ordenadores per-
sonales y al desarrollo de la industria del software.
Los programas de gráficos y presentaciones soportan diagramas representativos de datos numé-
ricos a modo de hojas de cálculo, combinándolos con texto y/o gráficos. Estos programas ofrecen la
posibilidad de generar diapositivas, notas para el ponente y la proyección del documento en la panta-
lla de un ordenador a modo de película, o bien, apoyándose en hardware especial, como las pantallas
de cristal líquido o los cañones, se pueden realizar demostraciones por pantalla.
En los paquetes gráficos encontramos algunas diferencias debido fundamentalmente a la relati-
va ‘especialización’ que se les ha querido conferir. Algunos de ellos son básicamente programas de
presentaciones, otros son potentes programas de dibujos que incluyen funciones de manipulación de
fotos y animación.
Dentro de la gran cantidad de software existente para gráficos, un grupo muy importante lo cons-
tituyen las aplicaciones de gráficos estadísticos o gráficos de gestión, cuyas posibilidades están
limitadas básicamente a la obtención de las gráficas usadas en los documentos y presentaciones del
ámbito empresarial, incluyendo los diagramas de barras, poligonales y de sectores.
Normalmente estas aplicaciones tienen la posibilidad de comunicarse con otras (hojas de cálcu-
lo, bases de datos, etc.), de donde obtienen los datos cuya representación gráfica se desea, e incluso
en muchos casos van integrados con dichas aplicaciones.
Entre los muchos paquetes gráficos existentes en la actualidad podemos señalar entre los más
importantes los siguientes:
– HARVARD GRAPHICS: programa estándar para la creación, diseño y presentación de gráfi-
cos estadísticos y de gestión.
– POWERPOINT: programa de presentación para Windows. Es compatible con todos los gráfi-
cos creados en este entorno.
– PICTURE IT: paquete de presentaciones basado en modelos predefinidos que el usuario
retoca según sus necesidades.
– COREL DRAW: programa de ilustración para Windows que incluye siete módulos para el
entorno gráfico: CorelDraw, diagramas CorelChart, edición de fotos CorelPhoto-Paint, vec-
torización/OCR, presentaciones CorelShow, animación CorelMove y edición de mapas de bit
CorelTrace.
– MICROGRAPH DESIGNER: programa de ilustración también para Windows que incluye una
aplicación de diseño bitmap, presentaciones y una utilidad de control de impresora.
– GRAPHICS WORKS de MICROGRAFX: ofrece cinco programas completos en un solo pa-
quete: Draw, Photomagic, Orgchart, Winchart y Slideshow.
– Además, existe la versión de programas de gráficos de Lotus con el FreeLance y el potente
Adobe Ilustrator.

556 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


OFIMÁTICA

6.2. CONCEPTOS Y FUNCIONALIDADES BÁSICOS


Los programas de gráficos y presentaciones ofrecen una serie de herramientas y funcionalidades
que determinan el grado de calidad del producto y entre las que se pueden destacar:
– Inserción de imágenes gráficas, diagramas de barras y tablas: los paquetes de gráficos
y de presentaciones permiten la inclusión de diagramas de barras que pueden ser retocados
en cuanto al color, amplitud de sus líneas y sombreados con el objeto de hacer más agrada-
ble y comprensible el diagrama. Este a su vez podrá ser dimensionado de forma gráfica para
ajustarlo al tamaño de la página y poder ubicarlo dentro de la página en la posición que más
convenga al usuario.
– Dibujo a mano alzada: los programas de gráficos y presentaciones disponen de herramien-
tas de dibujo a mano alzada. Así se pueden ensalzar los diagramas generados a partir de
datos numéricos utilizando líneas, flechas, rectángulos y todo tipo de figuras geométricas así
como gráficos en sus distintos formatos: bitmap y vectorial.
– Herramientas de dibujo. Los productos de gráficos y presentaciones disponen de una
variedad de herramientas para el tratamiento de dibujos que será más rica cuanta mayor
calidad tenga el producto. Entre otras podremos encontrar:
* Rotar/Girar: permitirá rotar un gráfico o diagrama sobre cualquiera de sus ejes y con los
grados que se desee.
* Dimensionar: se podrá dimensionar un gráfico o diagrama de forma manual o gráfica.
* Seleccionar y agrupar: funcionalidad muy utilizada que permite agrupar un conjunto de
imágenes gráficas que estén incluidas dentro de una misma página en una sola.
* Posicionar en primer o segundo plano: a veces será necesario organizar dentro de una
página la prioridad de los objetos, posicionándolos en un primer plano, segundo o al
fondo de la imagen.
* Deshacer: función que sirve para deshacer la última o últimas modificaciones realizadas.
Esto se utiliza para recuperar una línea, dibujo o texto recién borrado. Se suele disponer
de varios niveles de “deshacer” pudiendo recuperar hasta diez modificaciones anteriores
con algunos productos.
* Zoom: permite ampliar un área del dibujo simplemente marcándola con el ratón, con el
objeto de retocar con mayor exactitud las imágenes gráficas con las que el usuario está
trabajando.
– Texto: en una presentación, bien como un documento o bien como una proyección sobre
una pantalla, se reflejan las grandes líneas de la misma. Ello implica pequeñas cantidades
de texto con letras grandes, colores llamativos y puntos elevados. Hay productos que con-
siguen dar a los tipos de letra sombreados tales que dan la sensación de profundidad o
elevación.
– Capacidades multimedia: la mayoría de los productos punteros ofrecen capacidades multi-
media permitiendo incluir vídeo en movimiento y sonido de gran impacto para una audiencia
durante una presentación.
– Mesa de Luz: facilitará la reorganización de las páginas en el orden deseado por el usuario.
– Efectos de transición entre páginas: efectos predefinidos de transición entre páginas que
darán al conjunto de la exposición una sensación de profesionalidad tales como:
* Desdoblados de pantalla en diferentes ángulos.
* Sustitución en sentido derecha a izquierda o de arriba a abajo.
* Difuminado de la pantalla.
– Presentación: el objetivo final del trabajo realizado será la exposición de la presentación y
el producto debe proveer facilidades para su organización y “ejecución”: la presentación se
podrá ejecutar en un PC que contenga el producto, o bien permitirá generar ficheros capaces
de ejecutarse sin necesidad de tener instalado éste.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 557


OFIMÁTICA

– Plantillas predefinidas: la estructura y funciones de los paquetes de gráficos y presenta-


ciones actuales están orientadas a la creación de presentaciones de forma rápida y sencilla
dotando al producto final de un aspecto atractivo. La tendencia es que al ejecutar la aplica-
ción, el producto permita elegir entre una gama más o menos amplia de perfiles de presen-
tación formados por un conjunto de páginas. Los perfiles permitirán elegir entre una serie de
formatos de página y cada página habilitará una serie de espacios predefinidos para colocar
títulos, subtítulos, gráficos, diagramas y logotipos. Todos ellos tendrán tamaños, colores y
tipos de letra ya configurados de tal forma que el usuario sólo tenga que seleccionar con el
ratón el espacio ya definido e introducir el texto deseado.
Con este procedimiento se agiliza la creación de documentos y se da coherencia al conjunto
de la presentación. La personalización de las plantillas por defecto es una característica a
valorar. Dichas plantillas deberán poder ser modificadas en función de las necesidades o
preferencias del usuario. Así, se podrá desear cambiar la ubicación, tipo de letra o tamaño
de los títulos, o bien, la posición y tamaño de un logotipo para todo un juego de plantillas.
– Fondos de página predefinidos: el fondo de página consiste en cualquier combinación
de color, uniforme o degradado, que puede contener gráficos y/o figuras que compongan
un fondo común a un juego de plantillas, con el objeto de dar un aspecto uniforme a la
presentación. De la misma forma que las plantillas, se podrá elegir entre una serie de
fondos de página y éstos deberán poder ser modificados y añadidos a la librería correspon-
diente.
Contar con gran cantidad de plantillas y fondos de página por defecto ayudará a aquellos
usuarios poco experimentados y agradará a los que con mayor experiencia pretendan perso-
nalizar sus trabajos. Esto es importante en entornos que deban soportar a usuarios de muy
variados niveles.
– Librería de gráficos: el producto deberá contar con una amplia librería de gráficos, y se va-
lorará que el formato de los mismos sea lo más estándar posible, asegurando de esta forma
la posibilidad de adquirir en el mercado colecciones de gráficos adicionales denominados
“Clip arts”. Entre los formatos gráficos más extendidos se pueden destacar:
* Windows Bitmap (BMP)
* PaintBrush Bitmap (PCX)
* WordPerfect Graphics (WPG)
* Windows Metafile (WMF)
* Tag Image File (TIF)
* Harvard Graphics (SY3)
* Freelance (DRW)
* Graphic Interchange (GIF)
La accesibilidad a través de una barra de iconos que permita previsualizar el gráfico antes de
cargarlo ahorrará tiempo a la hora de elegirlo y dará sensación de comodidad al usuario, siempre
habrá que buscar que estas librerías se puedan enriquecer con gráficos y logotipos creados por el
propio usuario.

6.3. TIPOS DE GRÁFICOS


Los gráficos usados con una computadora pueden ser de dos tipos:
– Gráficos de mapa de bits (bitmap): también llamados gráficos de puntos o de píxeles,
se representan internamente con el conjunto de puntos que conforman la imagen. Hay que
tener en cuenta que para su manejo y almacenamiento, cada punto es un elemento de
información compuesto por sus coordenadas (posición) junto con su color (o intensidad de
grises), y un gráfico de resolución media consta de alrededor de medio millón de puntos.
Se utilizan a menudo para, a partir de una imagen obtenida mediante escáner, retocarla,
colorearla, sombrearla, etc.

558 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


OFIMÁTICA

– Gráficos vectoriales: se representan internamente con la función geométrica correspon-


diente a la figura. Tienen mejor calidad de presentación, permitiendo modificaciones en sus
proporciones, cambio de escala, desplazamientos, giros, ajustes, etc., por lo que son los
gráficos usados en las aplicaciones de diseño asistido por computadora (CAD).

7. HERRAMIENTAS DE TRABAJO EN GRUPO (GROUPWARE)

7.1. CONCEPTOS BÁSICOS


La información no es válida si no se comparte, fluye y se obtiene el máximo rendimiento de ella.
La tecnología de redes de área local ha madurado y gracias a ello se hace posible el trabajo en grupo:
un entorno de trabajo compartido a través de los ordenadores.
Este nuevo concepto trata de optimizar el flujo de trabajo consiguiendo una mayor flexibilidad en
la compartición de recursos, ya sean impresoras, unidades de disco ópticos o unidades de almace-
namiento masivo de datos.
Los productos de trabajo en grupo, en inglés groupware, ofrecen ventajas como el enriqueci-
miento de la información contenida en documentos compartidos. La mayoría de los fabricantes de
paquetes ofimáticos punteros, incluyen características de trabajo en grupo en sus productos, como
por ejemplo la capacidad de poder enviar un documento de hoja de cálculo o procesador de texto a
otro usuario de la red para su revisión.
Este software ha de ser capaz de monitorizar la creación, desarrollo y finalización de información
no estructurada, puesto que las “actividades” pueden consistir desde elaborar el manuscrito final de
un libro hasta terminar un proyecto de construcción, pasando por la aprobación de presupuestos,
confirmación de préstamos hipotecarios, control de compras, etc.
En general, se puede pensar en el Groupware como en la infraestructura a
nivel software que permite a las personas, tanto dentro como fuera de la organiza-
ción, colaborar en el desarrollo de actividades.
La implantación de aplicaciones groupware requiere una plataforma tecnológica sobre los que
asentarse, pero son más importantes los aspectos organizativos, en cuanto a trabajar con unos pro-
cedimientos bien definidos y optimizados, y sobre todo los aspectos sociales, en cuanto a disposición
de los trabajadores para hacerlo en equipo, siendo conscientes de las ventajas que ello les puede
reportar. El éxito está ligado a experiencias que cuentan con el apoyo de la alta dirección de la orga-
nización y comienzan a nivel de departamento, como proyecto piloto de bajo riesgo, que sirva para
demostrar las ventajas e inconvenientes de la tecnología y su impacto en la organización.
En la red podemos crear uno o varios grupos de trabajo, entendiendo por gru-
po de trabajo el conjunto de usuarios conectados en la red que realiza trabajos
con un objetivo común.
Un grupo de trabajo, también llamado groupware, permite a los usuarios incluidos en él encon-
trar y utilizar fácilmente los recursos compartidos más usuales para las necesidades de su trabajo.
Para formar un grupo de trabajo no es necesario cambiar de sitio los ordenadores, ni siquiera que és-
tos estén situados en la misma ubicación física, basta que estén conectados entre sí en red y utilicen
el mismo nombre de grupo de trabajo. Esto se determina en la instalación.
EJEMPLO: para ilustrar el concepto de trabajo en grupo podemos utilizar el ejemplo de una em-
presa de distribución. En esta empresa podemos encontrarnos con el grupo de trabajo PUBLICIDAD
en el que trabajan:
– Adela: miembro del departamento comercial que escribe los documentos con las caracte-
rísticas de los nuevos productos.
– Francisco: miembro del departamento artístico que añade a estos documentos fotografías
e ilustraciones.
– Mª Jesús: miembro del equipo financiero, establece los precios de cada producto así como las
ofertas del mes. Todos ellos comparten sus documentos (recursos lógicos) a través de la red.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 559


OFIMÁTICA

Por otra parte tenemos el grupo de trabajo INVESTIGACIÓN formado por:


– Manuel: jefe del grupo.
– Un grupo de vendedores: realizan estudios de mercado y envían al jefe del grupo toda la
información resultado de sus investigaciones.

  

    

 

 
 
 

     

    


   


Esquema de una pequeña organización de trabajo en grupos

Todos los miembros de cada grupo de trabajo pueden utilizar todos los recursos físicos (periféri-
cos) de su grupo ya que Mª Jesús imprime sus documentos en la impresora que tiene instalada Adela
en su equipo, así como esta última tiene acceso al escáner conectado en el ordenador de Francisco.
Además, todos realizan las copias de seguridad de sus documentos en la unidad de cinta conectada
al equipo de este último.
Sin embargo no sólo pueden acceder a los recursos de su propio grupo, sino que también pueden
acceder a los recursos de otro grupo, ya que sabemos que en esta empresa Francisco se conecta a
Internet para buscar nuevas ilustraciones a través del módem/fax conectado al equipo de Manuel,
donde este último recibe el correo electrónico que le envía el equipo de vendedores diariamente.
Como puede observar los recursos pueden compartirse incluso entre distintos grupos de trabajo.
Cuáles son los grupos de trabajo y a qué recursos tienen acceso es algo que debe determinar una
persona cualificada y a la que se denomina administrador del sistema.

7.2. CLASIFICACIÓN DE PRODUCTOS


Existen muchos tipos de aplicaciones de groupware dependiendo de los criterios que se em-
pleen para realizar su división. A continuación se recogen las agrupaciones más típicas:
– Sistemas de mensajería: consiste en la transmisión de mensajes entre usuarios o sis-
temas. Es la base de la mayoría de aplicaciones groupware. Entre otros ejemplos pueden
citarse: correo electrónico, fax, integración PC/Telefonía, bases de datos de discusión, tablo-
nes de anuncios, etc.
Las conversaciones de grupo, donde todos los participantes exponen sus ideas y son capa-
ces de acceder a las de sus homónimos, se realizan mejor compartiendo un entorno público,
tal como el que proporcionan las bases de datos de discusión. Se basan éstas en un espacio
abierto al grupo, donde se van generando líneas de diálogo, con preguntas, respuestas,
respuestas a respuestas, etc., de forma que pueden seguirse y participar en varias conver-
saciones electrónicas a la vez. En este sentido, en Internet son famosos los “News Groups”,
capaces de aportar conversaciones multitudinarias sobre temas definidos, generalmente con
interlocutores que se conocen previamente.

560 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


OFIMÁTICA

– Automatización de oficinas: conjunto de aplicaciones que permiten automatizar procesos


complejos.
– Charlas: estos paquetes se apoyan en que el hecho de hablar constituye un acto en sí
mismo y que más allá de las palabras es preciso conocer el contexto en que se pronuncian
y la tradición en que se integran para desentrañar completamente el significado. Es preciso
señalar que las comunicaciones responden a pautas del grupo donde se realizan y a la jerga
que en éstos se emplea.
– Investigaciones sobre colaboración: estos paquetes integran herramientas para poten-
ciar las relaciones entre usuarios distantes entre sí.
– Coordinación: facilita que los componentes del grupo de trabajo aúnen esfuerzos en la
misma dirección, facilitando que se pongan de acuerdo. Va desde las agendas de grupo
hasta las de seguimiento de la actividad comercial, por ejemplo, llegando a la estructuración
completa de los procesos.
– Actividades: son una forma de aplicaciones de coordinación, donde el componente
tiempo cobra especial importancia. Son típicas las aplicaciones que tienen que ver con los
organizadores personales y agendas de red, e incluso podrían considerarse dentro de esta
categoría los sistemas de gestión de proyectos, siempre que puedan ser usados en grupo.
Las más típicas de todas ellas son las agendas de grupo, que disponen de un conjunto de
funcionalidades entre las que se encuentran las de posibilitar la localización de huecos libres
entre los convocados, al mostrar el sistema una superposición de todas las agendas, evitando
de esta forma la pérdida de tiempo y el alto número de llamadas y mensajes necesarios cuando
el número de participantes empieza a ser respetable. Asimismo, es posible convocar reuniones
recurrentes, reservar salas, enviar el orden del día, delegar en otro o incluso esperar de la agen-
da que nos avise con unos minutos de antelación, para que podamos llegar a tiempo.
– Workflow: se denomina Workflow a la automatización del flujo de trabajo en una orga-
nización. Desde el punto de vista informático, el Workflow se puede definir como el software
que coordina la ejecución de diversas tareas y datos con el fin de mejorar la productividad de
las personas que trabajan en grupos, hasta llegar en su versión más completa, a lo que se ha
venido en llamar la “oficina sin papeles”. Constituye una forma más estructurada de informa-
ción. Este tipo de aplicaciones tratan de conseguir la coordinación de usuarios, actividades
e información para conseguir una meta. Entre otros ejemplos, cabe citar: automatización de
procesos, control de procesos, rutas dinámicas de documentos, firmas digitales, etc.
– Repositorios de información: composición y distribución de información a y de los usuarios.
Permite que éstos reciban información a petición. En cierto sentido es una forma de publicación
que requiere una acción voluntaria por parte del receptor, encaminada a obtener la información.
Ejemplos de repositorios de información son las bases de datos de documentos, la consolida-
ción de información, el control de versiones, la replicación, los servidores web de Internet, etc.
– Colaboración: son aplicaciones groupware orientadas a facilitar que personas ubicadas en
diferentes localizaciones trabajen juntas, en tiempo real. Entre ellas podemos destacar:
* Videoconferencia. Permite a dos grupos de usuarios situados en diferentes ubicaciones
mantener una reunión virtual a partir de equipos especiales con cámara, sonido y com-
presores de vídeo.
* Videoteléfono sobre PC. Permite a dos usuarios mantener una comunicación viéndose
la cara mutuamente. Se utilizan ordenadores personales dotados de cámara de TV y
equipo de sonido.
* Compartición de pantalla. Permite que dos usuarios en diferentes ubicaciones puedan
visualizar la misma pantalla en su ordenador personal. Alternativamente pueden cederse
el control del sistema, de manera que lo que presente uno de ellos aparezca también en
la otra pantalla.
* Compartición de aplicaciones. Permite no sólo compartir la pantalla, sino la aplicación,
es decir, que ambos interlocutores puedan introducir datos en la aplicación, visualizán-
dose en las pantallas de ambos.
* Reuniones compartidas. Aplicaciones de software que permiten la generación de ideas,
su valoración y votación en grupo.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 561


OFIMÁTICA

Un directivo pasa aproximadamente el 50% de su tiempo reunido, dedicando la mayor parte de


ese tiempo a discusiones y sólo una relativamente pequeña cantidad a desarrollar planes o acciones.
De ahí que surjan productos groupware que prometen a equipos de personas alcanzar conclusiones
en las reuniones, de una forma más rápida y productiva. Entre estos productos se encuadran aque-
llos dirigidos a la generación de ideas, organización de la información, presentación de propuestas y
votaciones.
Estos productos usan la entrada simultánea, por teclado, de todos los participantes como medio
de recoger información de todos ellos sobre el tema discutido. Asimismo, usan tableros electrónicos
y otras herramientas de estructuración para organizar y refinar los datos, borrando duplicados en el
proceso. El propósito de estos instrumentos es reducir el tiempo gastado en reuniones. Se afirma que
se pueden lograr incrementos de productividad entre el 30 y el 70%.

7.3. CONCEPTOS Y FUNCIONALIDADES BÁSICOS


Las herramientas de trabajo en grupo tienden a que el usuario tenga toda la información sin tener
que moverse del puesto de trabajo. Entre los conceptos que facilitan este flujo de información y dotan
al producto de una diferencia cualitativa se pueden destacar:
– Servicios de transporte: soporte lógico para mensajería (e-mail) y aplicaciones que con-
trolan el flujo de trabajo. Es importante considerar los protocolos de comunicaciones y ga-
teways que soporta.
– Servicios de directorio: permiten una administración eficiente de los usuarios y los recur-
sos disponibles.
– Servicios de indización de documentos: permiten un acceso rápido a información almace-
nada por un procesador de textos o documentos de un paquete gráfico y de presentaciones.
– Correo electrónico: permite a un usuario enviar mensajes, documentos y ficheros de datos
a otros usuarios de la red, situándolos en un buzón de entradas, dispuestos para ser recibi-
dos por el destinatario.
– Agenda. Las agendas contienen un calendario para reflejar reuniones y tareas. Pueden ser
compartidas con el resto del departamento, o bien, permiten visualizar las horas disponibles
de otros usuarios y localizar horas en conflicto para convocar reuniones. Estas convoca-
torias de reuniones podrán ser aceptadas o rechazadas por sus destinatarios. Una buena
integración entre la agenda y el correo electrónico evitará al usuario la tarea de conmutar
entre ambas aplicaciones. Asimismo, las características de la agenda se pueden utilizar para
administrar recursos de oficina.
– Integración de herramientas ofimáticas: la mayoría de las herramientas ofimáticas ofre-
cen alguna característica de trabajo en grupo, la más habitual es el acceso a correo elec-
trónico, ofreciendo la posibilidad de enviar un documento a otro usuario. Existen productos
que se comercializan por separado y que habilitan herramientas para compartir y distribuir
información controlando el número de versiones y su estado, si han sido leídas o no, etc.

562 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


OFIMÁTICA

– Grado de integración: no es extraño que en un entorno de trabajo coexistan LANs con


diferentes protocolos y se plantee la necesidad de compartir información y recursos. Es,
por tanto, importante que los productos para trabajo en grupo soporten el mayor número
de protocolos de red posible. Entre los protocolos de transporte de red más habituales se
encuentran IPX/SPX, TCP/IP y NetBios.
– Seguridad: los productos para trabajo en grupo se apoyan en redes “de igual a igual”. Esto
conlleva que cualquier usuario de la red puede acceder a los datos personales almacenados
a nivel local en otro ordenador personal. Los productos para trabajo en grupos proporcionan
diversos niveles de seguridad mediante el control de acceso a través de palabras claves.
Compartir la información no es sinónimo de pérdida de confidencialidad. Un usuario podrá
compartir su información local con todos o con varios usuarios de la red. Existen diferentes
grados de seguridad, entre los que se pueden destacar:
* Por palabra clave (password): los niveles de seguridad se delimitarán en función de la
palabra clave empleada, así, a un directorio o fichero se podrá tener acceso completo,
sólo lectura o no tener acceso por parte de otros miembros del grupo de trabajo.
* Horario de acceso: se limita el acceso a los datos en función de un horario determinado.
* Derechos de acceso: asignación de atributos de lectura, escritura y creación a los fiche-
ros y directorios correspondientes.
* Por funciones y vistas: al usuario únicamente le está permitido realizar una serie de
funciones específicas y dentro de dichas funciones podrá obtener una vista parcial de
los datos deseados. Este nivel está implementado en algunos productos de distribución
de información en formato de base de datos.

8. MENSAJERÍA Y CORREO ELECTRÓNICO

8.1. DEFINICIÓN Y PRESTACIONES


Como ya hemos señalado anteriormente, consiste en la transmisión de mensajes entre usua-
rios o sistemas. Su principal exponente lo encontramos en el correo electrónico.
El correo electrónico consiste en el intercambio de notas escritas entre dos
personas, utilizando un soporte electrónico, como es una red de comunicaciones.
Cada usuario dispone de un entorno privado (buzón) donde mantiene una copia de
los mensajes enviados y recibidos.
A medida que pasa el tiempo, el buzón se convierte en un punto de referencia para localizar
información que nos ha ido llegando o hemos generado. Es más, podemos llegar incluso a enviarnos
mensajes a nosotros mismos como medio de guardar y clasificar información de interés. Consecuen-
cia de ello puede ser el alto número de mensajes que tengamos en nuestro propio buzón, con los
problemas de ocupación de espacio y necesidad de administración, estructuración y organización de
la organización para facilitar su acceso posterior.
Con el correo electrónico pueden darse situaciones problemáticas si se pretende su uso para
mantener conversaciones de grupo. Se define para ello una lista de destinatarios y cada mensaje
se envía a todo el grupo. Las respuestas y comentarios a su vez se vuelven a enviar a todo el grupo.
Aunque participemos poco activamente en la conversación de grupo, nos podemos ver inmersos en
una avalancha de mensajes de poco interés.
De la misma manera, tendremos problemas si pretendemos usar el correo electrónico como base
de los procesos de revisión de documentos, mediante su envío como anexos de mensajes. Es muy
probable que acabemos sin saber cuál es la última versión o que le perdamos el rastro al proceso de
revisión. Existen otras soluciones para abordar, de manera más eficiente, todas estas problemáticas.
La utilización de correo electrónico en una organización presenta un conjunto de beneficios, entre
los que destacan:
– Ahorro: tanto en tiempo como en coste.
– Rapidez: disponer de información rápidamente mediante la utilización del correo electrónico
puede tener un impacto decisivo en el funcionamiento de la organización.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 563


OFIMÁTICA

– Formato digital: la mayor parte de los sistemas de correo electrónico se reciben en formato
digital, lo cual por sí mismo tiene un gran valor y en muchos casos evita volver a teclear el
texto, con el consiguiente ahorro de mano de obra.
– Almacenamiento digital: los mensajes de correo electrónico se reciben en formato digital
y no es necesario imprimirlos para su lectura. Se consiguen ahorros tanto en papel y su
manipulación, como sobre todo de su almacenamiento. Asimismo se disminuyen conside-
rablemente los tiempos asociados con la recuperación de información, al ser más eficaz en
los sistemas informáticos que en los archivos de papel.

8.2. GENERACIONES
El correo electrónico corporativo está pasando de los sistemas basados en host (ordenador central)
a arquitecturas cliente/servidor en red local, pudiendo reconocerse tres generaciones de sistemas:

8.2.1. Host
Son sistemas de correo basados en un ordenador central accedido a través de terminales. El
elemento activo es el Host, que contiene tanto los buzones de correo como el software para mane-
jarlo. Entre sus ventajas se incluyen la administración centralizada y el directorio centralizado. Como
inconveniente, unas interfases de usuario basadas en carácter y con pocas posibilidades de anexar
ficheros, y una interfaz de usuario pobre.

8.2.2. La red local como base para compartir ficheros


Se basa en arquitectura sobre red local, con un fichero compartido que contiene el buzón de
correo. Supuso un aumento de funcionalidad sobre la generación anterior, al permitir anexar ficheros,
mejor interfaz de usuario y compatibilidad con otras aplicaciones. No obstante, se pierde el control
centralizado característico de la primera generación. La seguridad radica en el cliente, en el nivel de
aplicación en forma de palabras de paso. La arquitectura de correo basada en fichero compartido se
usa principalmente porque es pequeña, rápida y simple, haciéndola adecuada para pequeñas redes,
pero su uso a nivel corporativo puede ser problemático.

8.2.3. Servidores de correo en red local


La inteligencia se distribuye entre el servidor y el cliente. La arquitectura de correo en base
de datos proporciona un punto único de administración al sistema (la base de datos) que facilita el
acceso concurrente de usuarios. La base de datos gestiona los tiempos, bloqueo de registros y docu-
mentos y colas, proporcionando un entorno mucho más controlado. Es más estable que los sistemas
de segunda generación, permitiendo más usuarios.
En cuanto a la seguridad, al apoyarse en una base de datos, el servidor puede establecer un
cortafuegos (barrera que impide el acceso) contra intrusos, limitando la exposición contra ataques
intencionados o accidentales. Al existir parte del proceso en el servidor, puede utilizarse proceso ba-
sado en reglas, filtrado y postproceso, automáticos.

8.3. DIRECTORIO
Para enviar un mensaje de correo electrónico debe especificarse la dirección del destinatario con
objeto de que el sistema sepa cómo hacérselo llegar. El usuario puede saber de memoria las direccio-
nes o, más normalmente, contar con una aplicación donde se encuentren las direcciones electrónicas
y pueda recuperarlas por criterios cómodos, tales como nombre, abreviatura o iniciales, por ejemplo.
En un sistema de correo electrónico suelen existir dos niveles de directorios: el local al usuario, con
las direcciones personales; y el corporativo, típicamente común a todas las ubicaciones, resultante de
un proceso de actualización periódico.

564 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


OFIMÁTICA

El problema es que, en una red local, no solamente se dispone del directorio de correo electróni-
co, sino que también existen otros directorios que no se encuentran integrados. Tradicionalmente el
directorio se ha visto como un instrumento para definir usuarios en la red local o como una aplicación
específica del tipo “guía telefónica”.
El reto está en conseguir que el usuario teclee una sola vez su nombre y palabra de paso para
acceder a todos los servicios de la red, ya sean servidor de red, base de datos, correo electrónico,
Internet, host, etc. De igual forma, esto simplifica la administración del sistema, en cuanto a altas,
modificaciones y bajas de usuarios. La tendencia de la industria es basarse en un producto que so-
porte APIs de acceso para el resto de las aplicaciones.
El directorio debe aparecer como un único entorno local a todos los usuarios, sin barreras entre
los sistemas. Debe ser independiente de su localización, soportando el movimiento de recursos y el
acceso de usuarios desde cualquier ubicación física. Las vistas del directorio deben ser adaptadas a
los requerimientos de los usuarios, incluyendo filtrados, reorganización lógica y pseudónimos. Ade-
más, sobre la estructura del directorio es importante disponer de facilidades de búsqueda.

8.4. PUBLICACIÓN
El correo electrónico, como sistema de almacenamiento de información, tiene sus limitaciones.
Quizás la más importante es que sólo está al alcance de una persona. Para obviarlo existen las bases
de datos documentales con información compartida, donde además de ser accesibles por varios
usuarios en modo lectura, pueden recibir la aportación de todos ellos. Las bases de datos documen-
tales conceden gran importancia a los procedimientos de catalogación de la información, tales como
índices o tesaurus.
Estos sistemas de información son pasivos por naturaleza. El usuario ha de navegar a través suya
para averiguar las nuevas incorporaciones que puedan serle de interés. Para resolverlo han aparecido
sistemas que las combinan con la mensajería, de forma que puede informarse a los interesados de
la aparición de nueva información, de manera automática. Típicamente, cada usuario tiene un perfil
de temas de interés, y un programa periódico (agente) le envía un mensaje que contiene enlaces de
hipertexto con las referencias. En cualquier caso, es el propio usuario quien controla la cantidad y
calidad de información que obtiene, evitando las avalanchas que reducen la productividad.
Hoy en día gran parte de la utilización de Internet se centra en la difusión de información conte-
nida en los Webs. En este sentido, Internet puede verse como una gran base de datos documental,
con sus sistemas de búsqueda pasivos (Yahoo, Olé, Altavista, etc.) o activos (agentes programados).
El usuario trabaja en colaboración con el grupo, muchas veces anónimo, que le aporta la información
necesaria para su tarea. Estos grandes repositorios documentales están dando lugar a las bases de
datos de conocimiento corporativo.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 565


TEMA
15

Redes de ordenadores. Redes de área


local. Redes de área extensa. Internet

Las redes de ordenadores han supuesto un paso decisivo en la evolución de la


informática empresarial. Las nuevas posibilidades tales como el trabajo en grupo y
la compartición de recursos han abierto nuevas áreas de investigación y desarrollo
relacionadas con la seguridad, centralización/descentralización de sistemas, etc.
La propia arquitectura y diseño de redes constituye de por sí un tema apasionante
en el mundo de la informática, teniendo su máximo exponente en internet, la red
de redes.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 567


REDES DE ORDENADORES

ESQUEMA INICIAL

1. Introducción

2. Conceptos básicos
2.1. Definición y Características
2.2. Componentes
2.3. Recursos de Red
2.4. Tipos de Conexión
2.5. Protocolos
2.6. Topología
2.7. Tecnología
2.8. Modos de Transmisión
2.9. Medios de Transmisión
2.10. Flujo de Información
2.11. Conmutación
2.12. Métodos de Acceso

3. Estructura de una red

4. Control de la comunicación
4.1. Secuenciación
4.2. Control de errores
4.3. Control de flujo
4.4. Fragmentación
4.5. Gestión de configuración
4.6. Optimización del rendimiento
4.7. Gestión de la seguridad

5. Métodos de acceso

6. Interconexión de redes

7. Clasificación de redes
7.1. Criterios de clasificación
7.2. Por la distribución de tareas en los equipos
7.3. Por extensión geográfica
7.4. Por el tipo de usuarios
7.5. Por su topología
7.6. Por su tecnología
7.7. Por las técnicas de transmisión
7.8. Por el medio de transmisión

8. Arquitectura de redes
8.1. Conceptos y principios
8.2. Servicios orientados a conexión y sin conexión
8.3. Modelo de referencia para la interconexión de sistemas abiertos
8.4. Modelo OSI (Open Systems Interconnection)
8.4.1. Nivel nº 1: Físico
8.4.2. Nivel nº 2: Enlace
8.4.3. Nivel nº 3: Red

568 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


REDES DE ORDENADORES

8.4.4. Nivel nº 4: Transporte


8.4.5. Nivel nº 5: Sesión
8.4.6. Nivel nº 6: Presentación
8.4.7. Nivel nº 7: Aplicación
9. El protocolo TCP/IP

10. Desarrollo y evolución


10.1. Redes sin cables
10.2. Consideraciones estratégicas

11. Redes de área metropolitana y de área extensa


11.1. Redes de área metropolitana (MAN)
11.2. Redes de área extendida (WAN)
12. Redes alternativas

13. Organismos y normas internacionales de normalización


13.1. Organismos
13.2. Estándares de red local
13.2.1. Estándar 802.2
13.2.2. Estándar 802.3
13.2.3. Estándar 802.4
13.2.4. Estándar 802.5
13.3. Estándares para interfaces
13.4. Normas internacionales en la conmutación de paquetes
14. Internet
14.1. Introducción histórica
14.2. Estado actual y tendencias
14.3. Servicios básicos de Internet
14.3.1. Archie
14.3.2. Gopher
14.3.3. WAIS (Wide Area Information Server)
14.3.4. News (Newsgroups)
14.3.5. Telnet
14.3.6. FTP (File Transfer Protocol)
14.3.7. Correo electrónico (Email)
14.3.8. WWW (World Wide Web)
14.4. Otras Posibilidades
14.4.1. Teletrabajo
14.4.2. Teleeducación
14.4.3. Juegos y entretenimientos
14.4.4. Telemedicina
14.4.5. Teleperiódicos
14.4.6. Telecompra
14.4.7. Telebanca
14.4.8. Otros servicios
14.5. Tecnologías de Internet
14.5.1. Direcciones y dominios
14.5.2. Formatos
14.5.3. Programación
14.5.4. Protocolos

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 569


REDES DE ORDENADORES

1. INTRODUCCIÓN
La evolución tecnológica del hardware y software están permitiendo actualmente planteamientos
desconocidos hace una década. Entre ellos destacan los sistemas de información con un esquema
distribuido, que permiten dimensionar más ajustadamente la infraestructura informática de una orga-
nización a sus necesidades reales, consiguiéndose ventajas económicas apreciables.
Los factores principales que permiten esta evolución son:
– La disminución de costos de los dispositivos físicos.
– La capacidad creciente de los ordenadores personales.
– La exigencia de optimización de uso por parte de los usuarios.
Por otra parte, la creciente complejidad de los sistemas de información hace que las aplicacio-
nes informáticas no se puedan concebir de modo independiente y aislado, aunque éstas residan en
equipos distintos.
La integración de aplicaciones y la garantía de un funcionamiento eficaz requiere
un gran trasiego de información. He aquí donde las redes de comunicación de datos y
en particular las redes de ordenadores constituyen un punto crítico en este campo.
La integración de sistemas y aplicaciones se lleva a cabo por medio de redes de ordenadores que
se convierten así en tema crucial para la solución de modernos sistemas de información.
Los sistemas aislados pocas veces resultan adecuados para solventar los requerimientos de
usuario que normalmente necesitan una conexión rápida y flexible con multitud de aplicaciones. Este
hecho queda demostrado mediante un dato significativo: a finales de los 90 la base instalada de
redes de ordenadores a nivel mundial superaba los 2 millones, siendo la infraestructura de comuni-
caciones más generalizada.
Veamos un ejemplo típico de trabajo en red. Supongamos una empresa de distribución que
atiende diariamente las peticiones de numerosos clientes.
Los vendedores utilizan sus ordenadores para comunicar a cada cliente las ofertas del día con
sus precios y descuentos. Estos ordenadores están conectados en red, lo que permite tomar pedidos
directamente, consultar la disponibilidad en almacenes, recibir instrucciones, etc.
A su vez el departamento de contabilidad en la oficina central puede generar automáticamente,
teniendo en cuenta las ventas mensuales de cada vendedor, las nóminas, estadísticas, etc.

2. CONCEPTOS BÁSICOS

2.1. DEFINICIÓN Y CARACTERÍSTICAS


Una red de ordenadores (en nuestro contexto informático, simplemente “una
red”) es la infraestructura física y lógica que conecta un conjunto de dos o más
ordenadores permitiendo que se comuniquen y compartan sus recursos.

Una red de ordenadores está formada por dos o más ordenadores interconectados.

570 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


REDES DE ORDENADORES

De forma más técnica podríamos decir que una red local es un sistema de comunicación que
permite que un número de dispositivos informáticos situados a distancias moderadas se comuniquen
entre ellos a velocidad elevada y bajo coste.
La arquitectura de red es el conjunto de reglas que regula la interconexión
entre los distintos componentes de una red.
Normalmente enlazan terminales, ordenadores personales, servidores y otros recursos dentro de un
área confinada en un solo edificio o grupo de ellos comprendidos en un área de pocos kilómetros (de ahí
el término “red de área local” o LAN). Pueden conectarse también a ordenadores y a redes de comunica-
ción nacionales e internacionales, formando entonces redes mayores. La velocidad de transmisión varía
actualmente desde 1 Mb/s hasta los 1000 Mb/s dependiendo del sistema y la tecnología utilizada.
Aunque la principal aplicación de estas redes, consiste en la transmisión de datos no deben
descartarse la transmisión de voz y de vídeo.
Las características típicas de las redes de área local son las siguientes:
– Área de extensión moderada. Alcanza algunos kilómetros, comprendiendo uno o varios edificios.
– Organización única. Es de propiedad privada, configurada y controlada por la organización,
sin regularización oficial.
– Velocidad comprendida entre 1 y 1000 Mbs, relativamente alta.
– Muy fiable: presenta una baja tasa de errores.
– Alta modularidad: facilidad de expansión y crecimiento.
Por todo ello, una red local permite:
– Al compartir recursos, reduce los gastos que conlleva la adquisición de hardware de alto precio.
– También posibilita compartir programas e información.
– Facilitar las necesidades de comunicación interna y externa.
– Ayuda a la integración de todos los aspectos de los sistemas de información, en particular,
transformando un grupo de microordenadores no muy potentes en un sistema de proceso
distribuido de gran potencia.

2.2. COMPONENTES
Desde el punto de vista de la comunicación, los componentes básicos necesarios en una red
son los siguientes:
– Emisor: El cual genera y emite la información.
– Codificador: Convierte los datos que se envían en un mensaje, es decir transforma la infor-
mación a un formato adecuado para que se pueda transmitir.
– Medio de transmisión: Proporciona la vía a través de la cual se envía el mensaje.
– Decodificador: Convierte los datos recibidos de forma que el receptor pueda procesarlos.
– Receptor: Destinatario de la información enviada, y en definitiva el que la utiliza de forma
efectiva.
Desde una perspectiva tecnológica, los elementos que conforman una red son:
– Nodo: Término empleado en el ámbito de grandes ordenadores, o en su defecto de grandes
redes, en referencia a la intersección de un enlace de comunicaciones intermedio entre
emisor y receptor.
– Estación de trabajo o Host: Describe cualquier microordenador, ordenador personal, ter-
minal y todos los periféricos conectados a estos o que trabajan de forma independiente.
– Servidor: Ordenador que realiza la administración de la red y los periféricos. Este ordenador
está provisto de ciertas funciones para “servir” a los ordenadores de la red, tales como:
almacenamiento en disco, acceso a impresoras, cintas de backup, dispositivos de comuni-
caciones, etc.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 571


REDES DE ORDENADORES

Sus funciones principales son controlar y gestionar el hardware y el software de la red, per-
mitiendo el uso de ambos por los ordenadores que la componen. El servidor también protege
la información contra accesos no permitidos y gestiona el almacenamiento de la misma.
– Conexiones: El eje central de una red es el sistema que conecta las estaciones de trabajo
al servidor. Este sistema es una combinación de cables y arquitectura hardware.

2.3. RECURSOS DE RED


En la definición anterior se menciona un término importante en el contexto de las redes de orde-
nadores: los recursos de red (también denominados servicios de red)
Un recurso o servicio es un elemento (directorio, fichero o cualquier periférico
como una impresora, unidad de cinta, etc.) que puede ser compartido con el resto
de usuarios conectados en la red.
Los recursos pueden ser:
– Físicos: Un recurso físico es un componente hardware conectado a la red, una impresora,
un escáner, cualquier periférico que pueda ser compartido a través de la red.
– Lógicos: El término recurso lógico engloba a toda la información que puede ser accedida a
través de la red, bien sean ficheros de datos, directorios o programas.

2.4. TIPOS DE CONEXIÓN


Cuando un ordenador se conecta a una red tendrá acceso a los recursos compartidos a través de
ésta, bien sean físicos o lógicos. Esta conexión a la red se compone de dos tipos de operaciones:
– Conexión física: Para compartir los recursos de una red los ordenadores y los demás dispo-
sitivos que la componen deben estar conectados físicamente. Todos los dispositivos deben
tener una tarjeta de red –cuya definición veremos a continuación–.
– Conexión lógica: Una vez realizada la conexión física a la red hay que demostrar que somos
un usuario autorizado, proporcionando al sistema una identificación y contraseña válida. Al
entrar en la red ha hecho una conexión lógica.
En este punto es preciso identificar el ordenador y el recurso necesario dentro de la red. Para
ello se les asigna un nombre que nos permita reconocerlos y poder acceder a ellos.
La conexión en red permitirá utilizar programas y documentos de otro ordenador sin necesidad
de tener que utilizar discos para copiarlos, imprimir documentos en una impresora conectada a otro
ordenador, así como enviar fax con el módem de otro equipo, conectarse a Internet, enviar y recibir
mensajes a través del correo electrónico, etc.
La tarjeta o adaptador de red es un dispositivo físico que se sitúa dentro del
ordenador y le permite a éste comunicarse con el resto de ordenadores que haya
conectados en la red a través de cables y de conectores.

Diferentes cables, conectores y tarjetas de red. Estos dispositivos


tienen el cometido de realizar la conexión física a la red.

572 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


REDES DE ORDENADORES

2.5. PROTOCOLOS
En el ámbito diplomático un protocolo es un conjunto de reglas o métodos aceptados para llevar
a cabo cierta actividad. En una red, los ordenadores deben cumplir los protocolos establecidos para
realizar la comunicación.
Los protocolos de red especifican conjuntos de reglas y convenciones acepta-
das que deben cumplir los equipos de una para transmitir y recibir datos en forma
ordenada.
En función de la confiabilidad de la comunicación, los protocolos se clasifican en:
– Confiables: Garantizan la entrega de los datos. Para ello es necesario un mecanismo de
intercambio de mensajes de confirmación entre emisor y receptor, además de otros de com-
probación de errores.
– No confiables: No garantiza la correcta entrega de los datos. Además no se informa a la
aplicación que intenta comunicarse por la red de cuándo se produce un fallo. Estos protoco-
los son más fáciles de diseñar y utilizar, ocupando menos ancho de banda en sus comunica-
ciones. Su uso se justifica en términos de costos.
Siempre se pueden usar combinaciones de ambos tipos, por ejemplo en TCP/IP existe la siguien-
te combinación: el protocolo TCP es confiable y funciona sobre IP que es no confiable.
Por otra parte, el medio utilizado para conectar los puntos de la red determinará los siguientes
aspectos de ésta:
– La velocidad máxima de transferencia de información.
– Longitud del segmento: distancia a la cual es posible transmitir sin utilizar repetidores de señal.
– El grado de sensibilidad a interferencias.
– El mayor o menor coste del cableado y de las interfaces de conexión.
– Las posibilidades de integración voz/datos así como la posibilidad de utilizar banda ancha.
Existen diferentes tipos de medios de transmisión. La elección de uno depende del tamaño de la
red, del ancho de banda deseado para la red y del coste del medio.
Cada medio de transmisión tiene sus ventajas e inconvenientes; no existe un modelo ideal con
una serie de características definidas. Las principales diferencias entre los distintos medios de trans-
misión radican en la anchura de banda permitida (y consecuentemente en el rendimiento máximo de
transmisión), su grado de inmunidad frente a interferencias electromagnéticas y la relación entre la
amortiguación de la señal y la distancia recorrida (necesidad de repetidores).

2.6. TOPOLOGÍA
El aspecto más primario de una red lo constituyen los elementos físicos que la forman y la disposi-
ción que adoptan unos con relación a otros. La forma de interconectar las estaciones de la red mediante
recursos de comunicación es lo que se conoce como estructura topológica o topología de la red.
La topología de una red hace referencia a la disposición física o configuración
geométrica de las conexiones entre los ordenadores.

El estudio de las diversas topologías existentes lo haremos en el apartado de clasificación de redes.

2.7. TECNOLOGÍA
Los términos topología y tecnología están muy relacionados en cuanto que uno desarrolla al otro:
Una tecnología de red es una forma práctica de implementar cierta topología.
Los ordenadores se conectan en red utilizando una tecnología que determina el diseño y funcio-
nalidad de elementos como la tarjeta de red, los cables, conectores, protocolos, etc.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 573


REDES DE ORDENADORES

2.8. MODOS DE TRANSMISIÓN


Hace referencia a las características de la señal utilizada y al modo en que ésta utiliza el ancho
de banda disponible, proporcionado por el medio de transmisión. Básicamente existen dos técnicas
de transmisión en las redes locales:
– Banda base: En un momento dado sólo se transmite una única señal sobre el medio (se
asimila a un canal al que se le asigna toda la anchura de banda disponible). Para permitir
transmisiones simultáneas se realiza una multiplexación por división en el tiempo (TDM,
Time Division Multiplex). Esta técnica se ha adoptado ampliamente por no ser necesaria la
utilización de módem y porque la señal se puede transmitir a alta velocidad. En banda base
la señal no está modulada, no siendo muy adecuada en transmisiones a larga distancia ni en
instalaciones con alto nivel de ruidos e interferencias. Permite la utilización de dispositivos y
repetidores muy económicos. Es adecuada en entornos con aplicaciones de transmisión de
voz y vídeo además de datos. La transmisión en banda base es la técnica más habitual en
las redes de área local, cuya misión fundamental es la interconexión de ordenadores.
– Banda ancha: Se pueden realizar varias transmisiones simultáneas utilizando varios canales
a la vez y multiplexando por división de frecuencias (FDM, Frequency Division Multiplex). Se
modula la información sobre ondas portadoras analógicas, por este motivo los dispositivos digi-
tales se conectan a las redes de este tipo a través de un módem. A cada canal se le asigna una
frecuencia y en los receptores se sintoniza el canal que el usuario desea tener. Son adecuadas
en entornos con aplicaciones de transmisión de voz y vídeo además de datos, aunque su coste
suele ser superior a las redes en banda base y su puesta a punto y gestión más compleja.
Una red heterogénea puede combinar segmentos con técnicas de transmisión diferentes. En la
tabla siguiente se presenta una comparativa entre banda ancha y banda base:

BANDA BASE BANDA ANCHA


Dependiendo del soporte físico, desde
Ancho de Banda Hasta 20 Mbps
KHz hasta GHz
Tipo de señal Digital Analógica
Varias redes sobre mismo cableado
Aplicabilidad Datos, voz digitalizada
(datos, voz, vídeo)
Mayor coste (elementos de conexión
Complejidad/Coste Sencillez/economía
más complejos)

2.9. MEDIOS DE TRANSMISIÓN


Define las características físicas del medio sobre el que se utiliza para conectar cada uno de los puntos
de la red (cable coaxial, par trenzado, etc.). La utilización de uno u otro medio de transmisión determinará:
– La velocidad máxima de transferencia de información.
– La longitud máxima del segmento: distancia a la cual es posible transmitir sin utilizar repeti-
dores de señal.
– El grado de sensibilidad a interferencias.
– El mayor o menor coste del cableado y de las interfaces de conexión.
– Las posibilidades de integración voz/datos así como la posibilidad de utilizar banda ancha.

2.10. FLUJO DE INFORMACIÓN


En función del flujo de la información entre dos dispositivos, la comunicación puede ser:
– Simplex: La información siempre fluye en un único sentido.
– Half duplex: La información puede fluir en ambas direcciones, pero no simultáneamente.
– Full duplex: La información puede fluir en ambas direcciones simultáneamente.

574 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


REDES DE ORDENADORES

En general, las redes ofrecen la posibilidad de trabajar con dos canales de comunicación por
cada proceso de comunicación. Uno maneja la transferencia de datos y otro se utiliza para informa-
ción de control o datos urgentes, como los códigos de escape, con más prioridad que el primero.
Algunos protocolos de internet proporcionan campos para almacenar estos datos urgentes.

2.11. CONMUTACIÓN
Independientemente del flujo de la información, las redes utilizan comunicación conmutada, que
permite compartir líneas físicas de comunicación. Si no se utilizase la comunicación conmutada, se
necesitaría una línea desde un ordenador hasta todos los demás. Esto es inviable a medida que el
número de ordenadores crece (el número de líneas crecería exponencialmente).
La comunicación conmutada presenta dos modalidades:
– Conmutación de circuitos: Se crea una ruta única, ininterrumpida y exclusiva entre dos dis-
positivos (también se denomina punto a punto). La línea se libera al cortar la comunicación. El
principio es que las líneas se comparten entre los dispositivos, pero cada uno debe esperar su
turno. Ejemplo: las líneas de teléfono o un conmutador entre dos ordenadores y una impresora.
– Conmutación de paquetes: Sistema utilizado por la mayoría de las redes actuales. La
información se divide en paquetes y se transmiten por la red. Los paquetes no tienen por
qué viajar por el mismo camino ni llegar al destino en orden, lo cual puede suponer un
inconveniente. Además los paquetes deben incluir la dirección del destino. Los protocolos
respectivos serán los responsables del correcto ensamblaje de la información. La principal
ventaja es ser más estable: en efecto, si se cortase un canal, siempre se puede redirigir el
tráfico por rutas alternativas. Un ejemplo tradicional es el sistema de correos.

2.12. MÉTODOS DE ACCESO


Cuando hablamos por teléfono compartimos con la otra persona un medio de comunicación: la
línea telefónica. ¿Qué ocurre si pretendemos hablar a la vez que nuestro interlocutor? Terminamos
sin enterarnos ninguno de los dos.
Una red consiste en un conjunto de ordenadores que comparten un medio por el que transmiten
información. ¿Qué ocurre cuando más de un ordenador intenta transmitir información simultánea-
mente por dicho medio? Se produce lo que se denomina una colisión y se pierde toda información.
Los métodos de acceso son mecanismos que intentan solucionar el proble-
ma de las colisiones en las redes de ordenadores administrando de forma lógica el
medio que comparten.
En la práctica existen dos procedimientos básicos de conseguir acceso sin que ningún nodo sufra
excesivos tiempos de espera ni se otorgue control sobre la red a más de un nodo simultáneamente:
– Detección de colisiones: Los ordenadores analizan el medio antes de transmitir mediante
el sensor de portadora. Si uno encuentra que está ocupado, espera un lapso de tiempo
aleatorio antes de volver a intentarlo. Pese a estas reglas pueden darse casos de colisión
(dos ordenadores encuentran el bus libre y transmiten al mismo tiempo).
Para solucionar esto, el ordenador que está transmitiendo debe a la vez escuchar el bus
para detectar información que no le corresponda mediante la detección de colisiones, en
cuyo caso para la transmisión, y la continúa después de un intervalo de tiempo pequeño y
aleatorio (es el equivalente a “por favor, usted primero”).
La combinación de ambas técnicas se denomina CSCD (Carrier Sense Collision Detection).
– Paso de testigo: Las colisiones se evitan impidiendo la transmisión a los ordenadores que
no estén autorizados. La autorización consiste en un paquete especial denominado testigo
(token) que circula incesantemente por la red. Los ordenadores lo reciben y si no tienen
nada que transmitir lo pasan, en caso contrario se lo quedan, transmiten y lo liberan pos-
teriormente. A veces el testigo se pierde, pero existen técnicas para regenerarlo adecuada-
mente.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 575


REDES DE ORDENADORES

3. ESTRUCTURA DE UNA RED


Conceptualmente, los diseñadores de redes diferencian dos componentes fundamentales:
– Aplicaciones: utilizan el subsistema de comunicaciones para ejecutar su cometido. Están
orientadas a ofrecer resultados a los usuarios.
– Subsistema de comunicación (subred): medio por donde circula la información. General-
mente se diseña de forma transparente al usuario. Los subsistemas de comunicación de las
redes de conmutación de paquetes (son la gran mayoría de las existentes y las estudiaremos
más adelante) se basan en dos componentes fundamentales:
* Elementos de conmutación: pueden ser ordenadores (denominados hosts) o un dispo-
sitivo como un router o un puente. Su función básica es dirigir los paquetes de infor-
mación hacia su destino correcto. Otras definiciones para un elemento de conmutación
son: IMP (Interface Message Processor), conmutador de paquetes o nodo.
* Líneas de transmisión, circuitos o canales de comunicación: son los elementos físicos
que conectan los conmutadores de paquetes.



   


 
  
 


Esquema general de una red con los equipos terminales (ordenadores de usuario),
la subred (delimitada por la nube) y los nodos que la componen

En una red de conmutación de paquetes existen nodos intermedios entre el emisor y el receptor
entre los cuales fluyen los paquetes para llegar a su destino.

Se define salto (hop) al paso de un paquete por un nodo intermedio entre el


emisor y el receptor, por ejemplo, un router.

Existen dos diseños básicos del subsistema de comunicación:


– Canales punto a punto: los nodos se conectan unos a otros formando un canal virtual que
se rompe cuando la conexión se cierra.
– Canales de difusión (broadcast): todos los conmutadores de paquetes reciben todos los
paquetes de datos que circulan por la red. Los canales de difusión pueden ser de dos tipos,
en función de cómo se distribuyen los paquetes de datos.

576 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


REDES DE ORDENADORES

4. CONTROL DE LA COMUNICACIÓN
La transmisión de datos es una operación compleja que requiere cierto nivel de control. Las ope-
raciones necesarias son las siguientes:

4.1. SECUENCIACIÓN
La red puede dividir un mensaje en varias unidades de datos denominadas paquetes para su
envío. El emisor transmite los paquetes en su orden lógico, pero no se garantiza que el receptor los
reciba en la misma secuencia; esto depende del protocolo utilizado. Por lo general los protocolos
orientados a conexión garantizan la misma secuencia de llegada; los protocolos sin conexión, no.
La secuenciación define el orden en que el receptor recibe los paquetes que componen el men-
saje original. Lleguen en orden o no, el receptor debe recombinar los paquetes para formar el mensaje
original. Los protocolos de Internet proporcionan servicios de secuenciación que incluyen los campos
de control necesarios.

4.2. CONTROL DE ERRORES


El viaje de las señales electromagnéticas por los canales está sometido a diversos factores que
pueden alterarlas. Los ruidos inducidos y la atenuación son los más importantes. El resultado puede
ser que el receptor no interprete exactamente lo que el emisor ha enviado produciéndose un error. Un
modo de servicio con control de errores garantiza la correcta transmisión.
Los métodos de control de errores se enfrentan a dos posibles sucesos: la pérdida total de los
datos, o que éstos lleguen corruptos. El primer suceso se detecta mediante la técnica de time-out
(espera por un tiempo determinado); el segundo mediante sumas de comprobación y comproba-
ción de redundancia cíclica (CRC: Cyclic redundancy Check). Los CRC requiere procesos de cóm-
puto complejos, que suelen ser implementados en hard. Algunas tarjetas de red, como las Ethernet,
lo implementan de serie.
La detección, corrección y recuperación de errores es un punto vital en el diseño de redes. Un
canal de comunicación ruidoso puede ocasionar problemas de bloqueos en la comunicación. Dada
la importancia de este factor, existen protocolos de Internet que incluyen el control de errores como
modo de servicio.

4.3. CONTROL DE FLUJO


En una red pueden coexistir ordenadores muy diversos, por lo que es muy posible que las prestacio-
nes entre ellos varíen. Para impedir que un ordenador sature a otro con un flujo de información, se em-
plean las técnicas de control de flujo, que administra las velocidades de transferencia de la información,
respeta la capacidad del buffer de datos del receptor y evita la pérdida de datos por sobrecarga.
El problema del control del flujo de datos ocurre no sólo entre ordenadores distintos, sino incluso
entre las capas de un mismo equipo. Además, varios procesos pueden utilizar el mismo canal, por lo
que el encauzamiento de los datos puede complicarse aún más. Los protocolos de Internet manejan
de modo automático el control de flujo para sus programas.

4.4. FRAGMENTACIÓN
Aunque los procesos de red dividen los mensajes en paquetes, existen ocasiones en que éstos
deben volver a dividirse para que sean aceptados por algunos servicios. Es el proceso de fragmen-
tación de datos.
La fragmentación aumenta las probabilidades de pérdida de datos, en cuyo caso, además, habría
que reenviar el paquete completo y repetir el proceso de fragmentación, aumentando la carga de
los sistemas. Aunque el control de la fragmentación está incluida en los protocolos de Internet, los
programadores deben conocer el fenómeno para ayudar a reducirlo.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 577


REDES DE ORDENADORES

4.5. GESTIÓN DE CONFIGURACIÓN


La gestión de configuración define las acciones encaminadas al mantenimiento del conjunto de
hardware, software y circuitos que forman la red, con objeto de ir modificando dicho conjunto de una
manera suave y fiable como respuesta a unas necesidades de servicio cambiantes.
Una actuación normal de gestión de configuración en una red local es la incorporación de nuevos
usuarios. Cada vez que esto sucede se añade una nueva estación a la red que comparte el equipa-
miento y cableado. Con incorporaciones sucesivas, el ancho de banda limitado y específico de cada
red puede llegar a la saturación, con el consiguiente deterioro de las prestaciones.

4.6. OPTIMIZACIÓN DEL RENDIMIENTO


Este aspecto contempla la evaluación del comportamiento, eficiencia de los recursos y de las
actividades de comunicación. Su objetivo es la utilización óptima de los recursos de comunicación y
el incremento de su capacidad para satisfacer las tareas diarias del usuario.
Para mejorar el rendimiento de una red lo primero que se requiere es conocer lo que necesita ser
mejorado. Una buena fuente de información acerca de estas necesidades de mejora pueden ser los
usuarios. Sin embargo, el mejor procedimiento consiste en la aplicación de las oportunas herramien-
tas de análisis No es difícil medir objetivamente el rendimiento aislado de cada uno de los distintos
componentes de la red. Lo que no es de ninguna manera sencillo es calcular el rendimiento de la red
cuando se combinan todos sus componentes.
La modificación de alguno de los componentes de la red no asegura de modo inmediato un
mayor rendimiento global de ésta. Una buena práctica de gestión de rendimiento debe incluir el es-
tablecimiento de pruebas (benchmarks) para medir el rendimiento.

4.7. GESTIÓN DE LA SEGURIDAD


La gestión de la seguridad conlleva la aplicación de políticas de seguridad que controlen el ac-
ceso a la red, a los sistema de control y a la información que se transmite. Los temas a abordar se
pueden agrupar en tres categorías principales: dos relativas al acceso a la red y otra relacionada con
el control administrativo.
– Acceso físico: la seguridad en un entorno de proceso de datos comienza por el control de
acceso a los equipos. Las redes por naturaleza son sistemas distribuidos, característica que
no debe impedir que los servidores se instalen en salas con acceso controlado. También hay
que considerar el cableado como posible elemento potencial de enganche no autorizado
de nuevos nodos o dispositivos de monitorización del tráfico. Asimismo es de considerar el
acceso a ordenadores conectados a la red como riesgo potencial por causa de los datos
almacenados de forma local (en su propio disco duro). En general las técnicas de acceso
físico se ocupan de impedir el acceso a la red por parte de personas no autorizadas.
– El acceso lógico: pretende impedir el uso de recursos a aquellas personas no autorizadas. El ac-
ceso a los datos lo gestiona el sistema operativo de red que efectúa el control lógico de acceso a
la información mediante palabras de paso y derechos de entrada/salida a directorios y ficheros.
– Control administrativo: el administrador de la red se ocupa del control de accesos físicos y lógicos
y es quien inicia todas las acciones de recuperación de fallos, de salvaguardia y de supervisión.

5. MÉTODOS DE ACCESO
Cuando hablamos por teléfono compartimos con la otra persona un medio de comunicación: la
línea telefónica. ¿Qué ocurre si pretendemos hablar a la vez que nuestro interlocutor? Terminamos
sin enterarnos ninguno de los dos.
Una red consiste en un conjunto de ordenadores que comparten un medio por el que transmiten
información. ¿Qué ocurre cuando más de un ordenador intenta transmitir información simultánea-
mente por dicho medio? Se produce lo que se denomina una colisión y se pierde toda información.

578 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


REDES DE ORDENADORES

Los métodos de acceso son mecanismos que intentan solucionan el proble-


ma de las colisiones en las redes de ordenadores administrando de forma lógica el
medio que comparten.
En la práctica existen dos procedimientos básicos para conseguir acceso sin que ningún nodo
sufra excesivos tiempos de espera ni se otorgue control sobre la red a más de un nodo simultánea-
mente. El primero es el método de contención y el segundo el de testigo:
– Contención/Detección de colisiones: los ordenadores analizan el medio antes de transmi-
tir. Si está ocupado, se espera un lapso de tiempo aleatorio antes de volver a intentarlo. Este
método es el equivalente a por favor usted primero, y se denomina CSCD (Carrier Sense
Collision Detection).
– Paso de testigo: las colisiones se evitan impidiendo la transmisión a los ordenadores que no
estén autorizados. La autorización consiste en una señal especial denominada testigo (token),
que circula incesantemente por la red. Los ordenadores lo reciben y, si no tienen nada que
transmitir lo pasan, en caso contrario se lo quedan, transmiten y lo liberan posteriormente. A
veces el testigo se pierde, pero existen técnicas para regenerarlo adecuadamente.

6. INTERCONEXIÓN DE REDES
Con frecuencia es necesario conectar dos o más redes entre sí, formando entonces una internet.
Las internets (conexión de varias redes) no toman ninguna topología específica, sino aquéllas de las
redes que las forman.
Para la interconexión de redes se utilizan ciertos dispositivos que veremos a continuación breve-
mente. Para un estudio en profundidad véase el tema 7.
– Repetidores: se usan para superar el problema de la atenuación o pérdida de la señal con
la distancia. Aunque un repetidor podría conectar en teoría dos tipos de medio, en la práctica
recoge las señales eléctricas de un medio y las copia y amplifica en otro similar al primero.
Así una red se puede hacer extensible hasta largas distancias.
– Puentes (Bridges): un puente conecta dos redes A y B que utilizan la misma tecnología, por
ejemplo, Ethernet o ARCNET. Un puente sólo pasa información entre las redes si ésta tiene
como destinatario un ordenador de la otra red. En caso contrario lo ignora, por lo que el
tráfico de una red no se ve afectado por el de la otra.
– Enrutadores (Routers): un router es un dispositivo que conecta dos redes de la misma o
distinta tecnología, por ejemplo, una Ethernet y una Token Ring. Los routers tienen una direc-
ción en la red a diferencia de los puentes (diferencia importante entre ambos dispositivos),
y son parte esencial en grandes redes con distintas tecnologías como internet.
– Compuertas o pasarelas (Gateways): este es un término genérico que puede referirse a
conceptos distintos:
* El primero es como un router, con el mismo significado que explicamos en el apartado
anterior. Este sentido del término está cayendo en desuso.
* El segundo es una compuerta de aplicación: software que traduce los datos entre dis-
tintas aplicaciones de red, por ejemplo, entre dos sistemas de correo electrónico.
– Ordenadores multienlace: ordenador que dispone de varias tarjetas de red. Si las tarjetas
son de distinta tecnología, el ordenador puede servir como router.

OTROS ELEMENTOS DE INTERCONEXIÓN


Cortafuego o firewall
Dispositivo que se coloca entre una red local e internet con objeto de asegurar que las comuni-
caciones entre los usuarios de dicha red e internet se realicen conforme a las normas de seguridad
de la organización que lo instala.
NOTA: Un cortafuegos puede incluirse en un servidor proxy.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 579


REDES DE ORDENADORES

Proxy
El proxy es un servidor que conectado normalmente al servidor de acceso a la WWW de un pro-
veedor de acceso, almacena toda la información que los usuarios reciben de la WEB, por tanto, si otro
usuario accede a través del proxy a un sitio previamente visitado, recibirá la información del servidor
proxy en lugar del servidor real.
Un proxy también realiza la función de un servidor especial encargado, entre otras cosas, de cen-
tralizar el tráfico entre Internet y una red privada, de forma que evita que cada una de las máquinas
de la red interior tenga que disponer necesariamente de una conexión directa a la red.
Es decir, un proxy web es utilizado para interceptar la navegación de páginas web por motivos de
seguridad, anonimato, rendimiento, etc.
Un proxy web se puede acceder por una dirección IP que es agregada a un navegador (también
existen programas proxy para evitar el proceso de configuración). Cuando alguien utiliza el navegador,
cualquier acceso a la web realizado desde éste, pasa primero por el servidor proxy. Este paso inter-
medio puede servir para:
– Navegación anónima: El proxy puede configurarse para que la navegación sea de forma
anónima, las páginas destino no conocerán la dirección IP (identificación en internet) del
equipo que las está accediendo; sólo verán la dirección IP del proxy. Si un proxy no está
configurado para ser anónimo se dice que es de navegación transparente.
– Navegación segura: Un proxy se encarga de filtrar o alertar sobre aquellas páginas web
inseguras o filtran el contenido indeseado (por ejemplo, contenido adulto).
– Navegación más rápida: Ya sea porque el proxy tiene una mejor conexión a internet y envía
al navegador más rápido los datos, o porque el proxy funciona como caché, guardando las
páginas más visitadas (o las visitadas recientemente).
– Control del tráfico: Existen programas espías y otros malwares que configuran los ordena-
dores para que todo el tráfico web pase primero por un proxy. Este proxy se encarga de espiar
el tráfico, pudiendo sacar todo tipo de información del usuario. Si los datos (como claves y
tarjetas de crédito) no están cifrados, cualquiera puede leerlos.
Este tipo de proxy también puede enviar publicidad a los ordenadores infectados (publicidad que
no existe en las páginas web originales).
NOTA: Un servidor proxy puede contener mecanismos de seguridad (firewall
o cortafuegos) que impiden accesos no autorizados desde el exterior hacia la red
privada.

EQUIPO DEL 1. CONEXIÓN DIRECTA


USUARIO INTERNET

2. CONEXIÓN
MEDIANTE PROXY

SERVIDOR PROXY

Esquema de conexión a internet directa y mediante proxy. En el primer caso la conexión es inmediata (sin intermediarios) entre
el equipo y la red, mientras que en el segundo el servidor proxy actúa como un agente interpuesto en dicha comunicación.

580 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


REDES DE ORDENADORES

7. CLASIFICACIÓN DE REDES

7.1. CRITERIOS DE CLASIFICACIÓN


Las redes de ordenadores se pueden clasificar por distintos conceptos en función de las característi-
cas expuestas a continuación. Los criterios de clasificación no son siempre excluyentes, a veces ocurren
de forma complementaria. Algunos de ellos son de tipo tecnológico, otros funcional, geográficos, etc.
– Por la distribución de tareas en los equipos:
* Par a par.
* Cliente/servidor.
– Por su extensión geográfica:
* LAN: red de área local (Local Area Network).
* MAN: red de área metropolitana (Metropolitan Area Network).
* WAN: red de área extensa (Wide Area Network).
– Por el tipo de usuarios:
* Privadas.
* Públicas.
* Redes de valor añadido.
– Por su topología (forma de conexión):
* Bus.
* Estrella.
* Anillo.
– Por la tecnología utilizada:
* Ethernet.
* ARCNET.
* Token Ring.
* Etc.
– Por las técnicas de transmisión:
* Redes de comunicación conmutadas:
• Por conmutación de circuitos.
• Por conmutación de mensajes.
• Por conmutación de paquetes.
* Redes de comunicación por difusión:
• Red local.
• Red de satélite.
• Red de radio.
– Por el medio de transmisión:
* Cableado coaxial.
* Par trenzado.
* Fibra óptica:
• Monomodo.
• Multimodo.
* Inalámbrico.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 581


REDES DE ORDENADORES

7.2. POR LA DISTRIBUCIÓN DE TAREAS EN LOS EQUIPOS


– Redes par a par (peer to peer): red muy sencilla que tiene dos o más estaciones de trabajo
conectadas entre sí que pueden usar los recursos de ambas. Todas las estaciones de trabajo
de una red par a par son (o pueden ser) iguales. No se designa ninguna de ellas como el
ordenador principal o el centro de control.

En las redes par a par todos los ordenadores tienen la misma importancia

– Redes cliente/servidor: la red cliente/servidor tiene al menos una estación de trabajo con-
figurada como un servidor. El servidor es un ordenador que ejecuta el sistema operativo de
red. El servidor controla la comunicación y los recursos de red compartidos. Las estaciones
clientes son los ordenadores conectados a la red.

La arquitectura cliente/servidor implica un ordenador principal que gestiona


diversas operaciones de la red (control de acceso, gestión de recursos, etc.)

Las aplicaciones que siguen el modelo cliente/servidor necesitan una conexión de red entre dos
ordenadores al dividir el proceso en dos partes: la del cliente (que solicita información) y la del servi-
dor (que la provee). Por lo general, la aplicación completa consta de dos programas independientes,
uno en el cliente y otro en el servidor.
Una aplicación servidor permanece latente esperando una solicitud de un cliente. La aplicación
cliente proporciona un servicio específico útil a los equipos de la red, facilitando información o almace-
nándola en una base de datos centralizada. Cuando la aplicación cliente realiza una solicitud, ésta viaja
por la red y es atendida por la aplicación servidor. Este modelo se basa en el concepto de circuito virtual
para la comunicación de los programas. Cada extremo de un circuito virtual se denomina socket.
Los servidores pueden clasificarse en dos tipos:
– Iterativo: este tipo de servidor maneja las solicitudes individualmente en secuencia, según
llegan desde los clientes. Son relativamente sencillos, pero para que realmente sea efectivo,
el servicio proporcionado debe ser breve (en duración temporal). El tiempo de respuesta
suele ser predecible por el servidor.
– Concurrente: crea un proceso independiente para manejar cada solicitud de servicio de for-
ma simultánea, por lo que el sistema operativo debe estar preparado para ello (multitarea).
El tiempo que estos procesos van a estar activos no es predecible. Estos servidores adminis-
tran la mayoría de los servicios relacionados con los archivos, cuyos tiempos de respuesta
generalmente van a depender del tamaño de éstos.

582 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


REDES DE ORDENADORES

La arquitectura cliente/servidor hace depender el funcionamiento del sistema de los servicios suminis-
trados por servidores de ficheros y de impresión. Este equipamiento adicional hace más caro este tipo de
instalaciones pero ofrece mayores cotas de prestaciones y seguridad. La existencia de un almacenamiento
en disco centralizado facilita los mecanismo de control de accesos y de salvaguardia de la información.

7.3. POR EXTENSIÓN GEOGRÁFICA


– LAN: Red de área local (Local Area Network). Las redes de área local (LAN) están restrin-
gidas a una organización. Es una red con tecnología homogénea que está bajo el completo
control de un usuario llamado el administrador de la red.
Una red de área local cubre un área moderada, se puede considerar un máximo de 10 Km
y uno o varios edificios. No está sujeta a regulación oficial. La velocidad alcanza hasta 1000
Mbps, con una tasa de errores muy baja (sobre todo frente a las redes de comunicación
públicas). Tiene una alta modularidad y es de fácil expansión.
Las áreas típicas de aplicación de las redes de área local son el acceso a bases de datos
comunes, la transferencia de ficheros, los servicios de ofimática, comunicaciones entre pro-
cesos, comunicaciones simultáneas de voz y datos, sistemas gráficos y diseño asistido por
ordenador (CAD Computer Aided Design).
EJEMPLO: Red en el edificio de una facultad.
– MAN: Red de área metropolitana (Metropolitan Area Network). Ante la proliferación de
redes de área local surge la necesidad de interconectarlas entre sí de una forma eficiente.
Así hablaremos de redes de área metropolitana (MAN).
Estas redes deben cubrir una extensa área geográfica y ser capaces de operar a más de 20
Mbps, sirviendo de columna vertebral de las redes de área local, con un soporte de servicios
de multimedia (vídeo, voz y datos).
EJEMPLO: Red extendida entre el conjunto de edificios de un campus universitario.
– WAN: Red de área extensa (Wide Area Network). Una red de área extensa podría definir-
se como una red que interconecta ordenadores, terminales y redes de área local a escala
nacional e internacional.
EJEMPLO: Red que se despliega entre todas las universidades de un país.

7.4. POR EL TIPO DE USUARIOS


– Redes privadas: las redes privadas se constituyen en el seno de una organización o corporación
para uso exclusivo por la misma y utilizan líneas propias, en el caso de redes locales (distancias
cortas), o líneas alquiladas a las compañías de comunicación en caso de redes más extensas.
Una Red Privada es aquella solución capaz de resolver las necesidades de servicios de las
empresas, utilizando medios alternativos a los de la red pública.
La UIT-T y el ETSI (European Telecommunications Standards Institute) definen
el concepto de red privada como aquella red que puede ser constituida por estruc-
turas dedicadas, por la utilización de medios de las redes públicas o por un mezcla
de ambos tipos de medios.
– Redes de uso privado (RUP): con el fin de rentabilizar al máximo los circuitos de trans-
misión, es posible el uso de los mismos circuitos o líneas principales por varios usuarios,
gracias a unidades externas de multiplexación y concentración. De esta forma aparece el
concepto de Red de Uso Privado (RUP), constituida por circuitos alquilados y equipos de
conmutación, concentración y/o multiplexación dedicados al uso exclusivo de un usuario.
– Red Privada Virtual (RPV): es el servicio que ofrece a sus usuarios el acceso a prestaciones
y facilidades proporcionados habitualmente por las redes privadas, utilizando como sistema
soporte, total o parcialmente, recursos de la red pública y a un menor coste. Utilizando una
red pública se da el mismo servicio y funciones que con una red privada.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 583


REDES DE ORDENADORES

Las empresas usuarias contratan una serie de facilidades que son programadas en los recur-
sos inteligentes de la red. Mediante estos programas conectados a los nodos de conmuta-
ción de la red pública básica, se realiza el control del acceso de los usuarios de las RPVs a la
red, y se realizan para ellos las instrucciones de encaminamiento (o de otro tipo que hayan
sido contratadas) en la red de modo transparente.
Los usuarios, sin ser propietarios de la misma, tienen garantizado un uso exclusivo de ésta y
una tarifa plana por la utilización de la misma, así como compromisos específicos en cuanto
a la calidad de servicio, los plazos de instalación y el período de solución de incidencias.
– Redes públicas: las redes públicas las proporcionan las compañías de telecomunicación
y son de libre utilización por cualquier usuario que se abone. Son conocidas redes públicas
IBERPAC, RDSI (Red Digital de Servicios Integrados), etc.
– Redes de valor añadido: las redes de valor añadido satisfacen necesidades específicas de
telecomunicación.

7.5. POR SU TOPOLOGÍA


El aspecto más primario de una red lo constituyen los elementos físicos que la forman y la disposi-
ción que adoptan unos con relación a otros. La forma de interconectar las estaciones de la red mediante
recursos de comunicación es lo que se conoce como estructura topológica o topología de la red.
La topología de una red hace referencia a la disposición física o configuración
geométrica de las conexiones entre los ordenadores.
– Anillo: los equipos están conectados de dos en dos sin interrupciones, mediante un cable
común, formando un circulo continuo. No existen conexiones terminales, ya que se forma
un anillo (una ruta ininterrumpida pero no necesariamente circular). Los datos sólo viajan
en una dirección por el anillo. Una interrupción en la línea detiene la red, además toda la
información pasa por ordenadores que no son los destinatarios. El doble anillo incluye dos
anillos físicos utilizándose uno de ellos para transmisión y el otro para recepción.

– Bus: todos los ordenadores se conectan a un medio común: el bus, por donde la in-
formación puede viajar en ambas direcciones. Se requieren conexiones terminales en
los extremos del bus (terminadores) cuya función es amortiguar el rebote de la señal.
Al igual que en un anillo, la información pasa por todos los ordenadores y un fallo en la
línea ocasiona la caída de la red.

584 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


REDES DE ORDENADORES

– Estrella: todos los ordenadores se conectan a un equipo central (hub). No existe comuni-
cación directa entre dos nodos, lo cual representa una ventaja en cuestiones de seguridad.
Todos la información se envía al hub que se encarga de su correcta distribución. Otra ventaja
importante es que si se interrumpe la comunicación entre un nodo y el hub, el resto de los
equipos no se ven afectados. La mayor desventaja, sin embargo, es que si falla el hub toda
la red queda inutilizada.

Otras configuraciones posibles se pueden derivar de éstas dando origen a las topologías mixtas, como
el árbol (variante de la topología en estrella) y la malla, que se obtiene cuando se conectan nodos pertene-
cientes a la misma red o a redes distintas de cualquiera de las topologías descritas anteriormente.

7.6. POR SU TECNOLOGÍA


Los términos topología y tecnología se prestan a cierta confusión.
Una tecnología de red es una forma práctica de implementar cierta topología.
Los ordenadores se conectan en red utilizando una tecnología que
determina el diseño y funcionalidad de elementos como la tarjeta de
red, los cables, conectores, protocolos, etc.
– Ethernet: tecnología desarrollada en 1973 por un equipo de
Xerox en Palo Alto (California) dirigido por Bob Metcalf. Estas
redes pueden configurarse en estrella o en bus.
– ARCNET (Attached Resource Computer Network): fue la
primera LAN introducida en 1968 por Datapoint Corporation.
Se puede configurar en estrella o en bus.
– Token Ring: es una interesante mezcla de topologías. Utiliza
una técnica denominada paso de testigo. Su topología es
un híbrido de estrella y anillo. Utiliza un dispositivo denomina-
da MAU (Multistation Access Unit) que funciona como punto
central de la red, que puede verse como un anillo en forma
de estrella. Caja con conexiones tipo
RJ45, uno de los estándares
de las redes Ethernet

7.7. POR LAS TÉCNICAS DE TRANSMISIÓN


Una red de comunicaciones conmutada consiste en una serie de equipos terminales conectados
mediante una red de equipos intermedios cuya función es gestionar el trasvase de información del
origen al destino. Estos equipos intermedios se denominan nodos.
Los nodos están conectados mediante rutas de transmisión en las que entran los datos de un
equipo terminal, entonces son encaminados a su destino, mediante un proceso denominado con-
mutación de nodos. Los datos son transmitidos de la fuente al destino mediante encaminamiento a
través de los nodos.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 585


REDES DE ORDENADORES

Dentro de este tipo de redes podemos diferenciar:


– Conmutación de circuito: se establece un camino físico dedicado entre los elementos que
se comunican que permanece durante toda la llamada, se estén o no transmitiendo datos. El
camino es transparente para el usuario en el sentido de que éste no tiene que conocer su exis-
tencia. La conmutación de circuitos proporciona una buena eficiencia y resultan económicos
solamente si existe una transmisión de datos prácticamente continua en los dos sentidos.
– Conmutación de mensajes: la estación emisora incorpora al mensaje una dirección de
destino, pasando éste de un nodo a otro. En los nodos se recibe el mensaje, se almacena y
se retransmite al nodo siguiente, no siendo necesario el establecimiento de una ruta dedi-
cada entre ambas estaciones.
– Conmutación de paquetes: combina las ventajas de la conmutación de mensajes y la de
circuitos y trata de reducir las desventajas de ambas.
Se denomina Paquete a un grupo de dígitos binarios (datos y señales de con-
trol), que se tratan como una unidad y que se organizan en un formato específico.
El tamaño del paquetes que pueden presentarse a la red está limitado. Si un mensaje supera la
máxima longitud permitida, se dividen en unidades de datos más pequeñas, por lo que el tamaño de
los paquetes influye en la velocidad a la que se transmite un mensaje.
En cada nodo de la red, los paquetes se reciben y se almacenan completos para que, una vez
comprobada la ausencia de errores, sean retransmitidos al nodo siguiente. Por lo tanto, cuanto mayor
sea la longitud de los mismo, mayor será el tiempo de espera hasta su retransmisión.
No obstante existen dos limitaciones importantes que impiden hacer los paquetes excesivamente
pequeños:
– Los paquetes pueden llegar fuera de secuencia, por lo que el software será más complicado
cuanto mayor sea el número de paquetes a manejar.
– Los paquetes llevan encabezamientos que oscilan entre 8 y 16 bytes, por lo que si el men-
saje se fragmenta demasiado se produce una sobrecarga de información de control con
respecto a la información útil.
Lo anterior implica que los paquetes deben tener una longitud que no sea ni demasiado grande
ni demasiado pequeña, recomendada de un máximo de 128 bytes.
En una red de conmutación de paquetes se define salto (hop) al paso de un paquete por un
nodo intermedio entre el emisor y el receptor, p. ej., un router.
Los mayores problemas y complejidades de las redes de conmutación de paquetes provienen de
la necesidad de transmitir mensajes multipaquete, teniendo que entregar los paquetes en el destino
en la secuencia adecuada. Se han definido dos modos básicos de operación, en cuanto a la forma de
envío y recepción de paquetes, denominadas datagramas y circuito virtual.
– Datagrama: mensaje que se envía en un único paquete, cada paquete es tratado indepen-
dientemente, lo que implica que paquetes con el mismo nodo de destino puedan viajar por
rutas diferentes, por lo que el equipo terminal de datos deberá reordenar los paquetes en la
secuencia original. Una red de datagramas trabaja en modo “no conexión”, dado que no se
requiere que el establecimiento previo de un circuito sea físico o virtual.
Este métodos es eficaz para transmitir cantidades pequeñas de información; por otro lado,
requieren equipos terminales y software más sencillo. No obstante, han tenido poca acepta-
ción en el mercado, aunque en un principio formaban parte de la recomendación X.25 y fue
suprimida de la versión en 1984.
– Circuito virtual: establece una conexión lógica antes de transmitir información, la cual, al
ir fragmentada en paquetes, podrá utilizar caminos diversos, aunque siempre conserva los
extremos de la misma.
Estos circuitos pueden ser permanentes o conmutados. En el primer caso, existe una co-
nexión permanente entre los extremos aunque, por la propia filosofía de la conmutación de
paquetes, la red sólo se ocupa cuando se transmite información; por el contrario, los circui-
tos virtuales conmutados requieren una fase previa de establecimiento de llamada, una vez
que se ha establecido, los paquetes se encaminan automáticamente al destino apropiado,
procediéndose a la liberación, una vez terminada la transmisión.

586 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


REDES DE ORDENADORES

El envío de reconocimientos es un mecanismo clave para la protección frente a errores de


transmisión en la conmutación de paquetes. Cada vez que un paquete se recibe correctamente, se
envía un reconocimiento hacia atrás para que el emisor sepa que ha llegado sin problemas al siguien-
te nodo. Si el reconocimiento no llega en un período de tiempo prefijado, el emisor presupone que
ha habido error y lo retransmite.
En los años 70, aparecen redes públicas especializadas en transmisión de
datos como TELENET, DATAPAC o TRANSPAC (1975-1980). España fue un país
pionero; Telefónica inauguró su red de transmisión de datos con tecnología de
conmutación de paquetes en 1971 (IBERPACRSAN), si bien otras administraciones
como la DBP (Alemania), ofrecían desde 1967 servicios de transmisión de datos
por conmutación de circuitos. La conmutación por paquetes y por circuitos, es la
que se utiliza de forma más extendida en las redes públicas de datos, siendo la con-
mutación de paquetes la de mayor éxito y la de una perspectiva mayor de futuro.

7.8. POR EL MEDIO DE TRANSMISIÓN


– Cableado Coaxial: originalmente fue el cable más utilizado en las redes locales debido a su
alta capacidad y resistencia a las interferencias, pero en la actualidad su uso está en declive.
Su mayor defecto es su grosor, que limita su utilización en pequeños conductos eléctricos y
en ángulos muy agudos. Existen dos tipos de cable coaxial:
* Thick (grueso).
* Thin (fino).
– Par Trenzado: es el más común y se originó como la solución para conectar teléfonos,
terminales y ordenadores sobre el mismo cableado. Los diferentes tipos de cables de par
trenzado son:
* Par trenzado no apantallado (UTP, Unshielded Twisted Pair).
* Par trenzado apantallado (STP, Shielded Twisted Pair).
* Uniforme.
– Fibra Óptica: este cable está constituido por uno o más hilos de fibra de vidrio. Uno de los paráme-
tros más característicos de las fibras es la relación entre los índices de refracción del núcleo y el de
la cubierta, que depende también del radio del núcleo y que se denomina frecuencia fundamental.
Según el valor de este parámetro se pueden clasificar los cables de fibra óptica en dos clases:
* Monomodo: cuando el valor de la apertura numérica es inferior a 2,405, un único modo
electromagnético viaja a través de la línea y por tanto ésta se denomina monomodo.
Estas fibras, con emisores láser de altas prestaciones, proporcionan sistemas con un
gran ancho de banda y baja atenuación; pero resultan más caras de producir y el equi-
pamiento es más sofisticado.
* Multimodo: cuando el valor de la apertura numérica es superior a 2,405, viajan varios modos
electromagnéticos denominándose multimodo. Las fibras multimodo son las más utilizadas en
las redes locales por su menor coste. Las distancias de transmisión de este tipo de fibra están
alrededor de los 2,5 Km y se utilizan a diferentes velocidades: 10, 16 y 100 Mbps.
– Inalámbrico: permite mayor flexibilidad y disminuye los costes de la instalación. Sus incon-
venientes son: el efecto negativo sobre su rendimiento, fiabilidad de las conexiones, seguri-
dad y efectos sobre la salud. Algunas de las implementaciones pueden ser: radiofrecuencia
(18 GHz), infrarrojos y spread spectrum.

8. ARQUITECTURA DE REDES
8.1. CONCEPTOS Y PRINCIPIOS
Una arquitectura de red es un conjunto de reglas que gobierna la interconexión y
la interacción de los componentes de una red, incluye los formatos para los datos, los
protocolos y las estructuras lógicas para las funciones de datos conectados a la red.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 587


REDES DE ORDENADORES

Las modernas arquitecturas de redes se basan en los principios del desarrollo modular y parti-
cularizan el concepto de módulo en lo que se ha llegado a denominar capa. Cada capa tiene unas
funciones específicas, y para conseguirlas se apoya en la capa inferior. De la misma forma presta
servicios a la capa superior. Este diseño del software se denomina programación vertical.
Las arquitecturas se clasifican en:
– Jerárquica: un sistema maestro es el encargado de toda la red y realiza funciones de ges-
tión y control.
– Distribuida: asigna a cada sistema de comunicaciones de la red las mismas funciones, las
funciones de la red se comparten entre sistemas parejos que ofrecen un conjunto de servi-
cios a los usuarios.
Un sistema abierto permite a una amplia variedad de equipos utilizar los ser-
vicios de comunicaciones sin necesidad de que sufran modificaciones mediante la
estandarización de interfaces y protocolos de comunicaciones.
En un sistema abierto el diseño, los aspectos y las especificaciones del sistema no están patenta-
dos, están a la libre disposición de cualquier interesado. Estas características han desembocado frecuen-
temente en la creación de estándares de fabricación en la industria informática (estándares de facto).
Según la anterior definición, las arquitecturas también pueden clasificarse como:
– Abiertas: su diseño sigue ciertas normas que las hacen compatibles con otras arquitecturas
abiertas. Los equipos se pueden conectar y comunicar sin necesidad de otras adaptaciones.
– Propietarias: el diseño es específico y pertenece a una compañía en concreto. Las ventajas
anteriores no son aplicables: no existe compatibilidad con otras redes. Para comunicar redes
con distintas arquitecturas propietarias se necesitan dispositivos especiales de conversión.

8.2. SERVICIOS ORIENTADOS A CONEXIÓN Y SIN CONEXIÓN


Existen dos modos de operación, que se refieren al tipo de conexión.
– Con conexión: el camino lógico es una conexión que se establece y libera según se necesita.
– Sin conexión: el camino lógico es desconocido, cada conexión tiene que llevar toda la infor-
mación disponible.
Conceptualmente un modo de servicio orientado a conexión funciona como un servicio punto a
punto, creando un circuito virtual que da ilusión de que existe una ruta física de comunicación.
Las conexiones de red basadas en estos servicios deben establecer un enlace con el otro ordenador
antes de poder transmitir nada (observar la analogía con el sistema telefónico). Un circuito virtual garantiza
que la información se reciba en el orden correcto. Existen casos importantes donde utilizar un circuito vir-
tual, p. ej., en la transmisión de ficheros, donde la secuencia de llegada de la información es importante.
Los servicios sin conexión no crean una comunicación punto a punto, funcionan como un servicio
de entrega (observar la analogía con el envío de paquetes por correos). Cada mensaje enviado por un
servicio de este tipo debe incluir toda la información necesaria para su entrega.

8.3. MODELO DE REFERENCIA PARA LA INTERCONEXIÓN DE SISTEMAS ABIERTOS


El primer paso hacia el establecimiento de una arquitectura abierta como alternativa a las arqui-
tecturas propietarias la dio en 1977 un equipo de expertos en redes de un organismo internacional
denominado ISO (International Standarization Organization).
Este equipo desarrolló un modelo de referencia para la interconexión de sistemas abiertos deno-
minado OSI (Open Systems Interconnection), base para la coordinación y el desarrollo de estándares
en las redes de comunicaciones.
NOTA: ISO se fundó en 1946 y establece normas internacionales en todos
los campos excepto en electrónica e ingeniería eléctrica (para los que existe otra
organización: IEEE).
El modelo de referencia OSI de ISO representa una red como una serie de capas o niveles funcionales
bien definidos, pero no especifica un diseño concreto. En la práctica se han desarrollado diferentes redes
basadas en OSI modificando el número, nombre y función de las capas originalmente propuestas.

588 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


REDES DE ORDENADORES

La comunicación entre las capas se produce a través de una interfaces bien definidas que ocultan
la capa inferior, pero que aportan todas sus servicios a la superior. Al construir servicios en cada capa
y permitir la comunicación entre éstas, los diseñadores crean módulos funcionales independientes.
NOTA: Estas capas pueden implementarse en hardware o en software.
Las redes pueden constar de muchos tipos de tecnología y de ordenadores alejados
geográficamente. El modelo OSI minimiza u oculta tales diferencias a las aplicaciones de
red. También permite a los diseñadores construir redes compuestas de capas funcionales de
software y hardware bien definidas.
El diseño de capas de OSI tiene las siguientes ventajas:
– Divide los problemas de interconexión en partes manejables.
– Facilita que el software de red pueda mejorarse de forma incremental, sin necesidad de
introducir cambios revolucionarios.
– Permite al hardware y al software de un distribuidor funcionar con los productos de otros
distribuidores que soporten los mismos estándares en cada nivel.
– Facilita el establecimiento de interfaces entre un medio y otro.
En un modelo de capas como OSI, cada capa emplea protocolos bien definidos para comunicar-
se con las que la rodean. Las siete capas del modelo OSI se representan en la figura siguiente:
 
 !  
 "

  
  

    

    


   
   

  
    
 

     

  
   


     

  

 
 

Modelo de capas OSI de ISO como arquitectura de redes


Los datos se envían verticalmente hasta la capa física, que los remite a la otra máquina donde el
proceso e invierte, fluyendo los datos hacia arriba hasta alcanzar la capa de destino. Existe,
por tanto, la diferencia entre la counicación virtual y la ruta física que siguen los datos.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 589


REDES DE ORDENADORES

Cada nivel está constituido y agrupa un conjunto de funciones que proporcionan servicios especí-
ficos que facilitan la comunicación. Un nivel (N) recibe servicios del nivel N-1 y proporciona servicios
al nivel superior (N+1). Las comunicaciones entre niveles adyacentes se denominan primitivas.
La comunicación entre capas de red en distintos equipos se denomina conversación. La conver-
sación entre las capas físicas toma forma de señales electromagnéticas, el resto son virtuales, en el
sentido de que utilizan las capas inferiores para realizar la comunicación efectiva.
Las conversaciones entre capas del mismo nivel de dos máquinas distintas se denominan pro-
cesos pares. Conceptualmente la conversación parece desarrollarse entre las dos capas, idea muy
importante de cara a los programadores, ya que así evitan las complejidades de las capas inferiores
utilizando los comandos propios de la capa con la que trabajan.
Cuando se transmite un mensaje, pasa del nivel 7 al nivel 1 del sistema emisor y cada nivel aña-
de su propia cabecera o trata el mensaje de alguna forma. Los tramas se transmiten sobre el medio
hasta el sistema receptor en el que pasan del nivel 1 al 7, eliminándose las cabeceras y reconstitu-
yéndose el mensaje. Cada nivel ofrece servicios específicos al nivel superior, y la comunicación lógica
tiene lugar entre los niveles correspondientes de los dos sistemas.
Los datos no se transmiten directamente entre niveles, excepto en los físicos, que están unidos
por el medio físico. Se establecen interfaces interniveles para definir los servicios que el nivel N espera
del nivel inferior N1 y que proporcionan al nivel superior N+1.
Los niveles 1 a 3 proporcionan los protocolos de bajo nivel, principalmente implementados en
hardware o mediante controladores dedicados, mientras que los niveles 4 a 7 proporcionan los proto-
colos de aplicación o de más alto nivel, que normalmente se implementan en el software del host.
La relación entre capas viene definida por las funciones de red (servicios) que las capas inferiores
ofrecen a las superiores, así como a las reglas apropiadas para su utilización (protocolo). Un ejemplo
es el servicio de detección de errores que ofrece la capa de enlace de datos a la capa de red.
Es importante la diferencia entre servicio y protocolo:
– El servicio es la propia funcionalidad que ofrece la capa.
– El protocolo es la forma en que dicho servicio debe ser utilizado (formato de las llamadas y
respuestas, número y tipos de parámetros, etc.).
Ejemplo de diferencia entre servicio y protocolo: al usar el correo, escribi-
mos el domicilio en nuestra carta. El servicio o funcionalidad del domicilio es que
la carta llegue a su destino. Sin embargo existen ciertas reglas sobre cómo escribir
el domicilio: la primera línea es el nombre, la segunda la calle, el código postal
depende de la localidad, etc. Ese es el protocolo para utilizar el servicio.
Dos sistemas abiertos interconectados implementan los mismos estándares en cada nivel y dos
entidades cualesquiera que pertenezcan al mismo nivel en el sistema correspondiente se comunican
mediante un protocolo común.

8.4. MODELO OSI (OPEN SYSTEMS INTERCONNECTION)


Los principios más importantes para definir y desarrollar las capas en el modelo OSI son los
siguientes:
1. Crear una nueva capa cada vez se necesite un nivel de abstracción distinto.
2. Cada capa debe desempeñar una función bien definida.
3. Las funciones de cada capa deben ajustarse a la definición de los protocolos estandarizados
internacionalmente.
4. Los límites entre las capas deben diseñarse de forma que minimicen el flujo de datos entre
ellas.
5. El número de capas debe ser lo suficientemente grande como para que los diseñadores no
necesiten colocar funciones distintas en la misma capa. Pero el número tampoco debe ser
excesivamente grande, complicando la utilización del sistema.

590 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


REDES DE ORDENADORES

En la siguiente figura se muestran las capas de red resultantes de aplicar estos principios y las
unidades de datos que manejan.

NIVEL CAPA TIPO DE DATOS


7 APLICACIÓN MENSAJES
6 PRESENTACIÓN MENSAJES
5 SESIÓN MENSAJES
4 TRANSPORTE MENSAJES
3 RED PAQUETES
2 ENLACE TRAMAS
1 FÍSICO BITS

8.4.1. Nivel nº 1: Físico


Transmite los datos a través de los canales de comunicación de la red. Incluye elementos físicos
(hardware) que gestionan las propiedades eléctricas (señales de control, sincronización, modulación,
frecuencias o niveles de tensión para la representación de 0 y 1) y mecánicas del cableado (número y
disposición de pines de los conectores, tipo de cable, etc.). El método de transmisión (simplex, half o full)
también se define en la capa física, así como la topología y la tecnología (Ethernet, Token Ring, ARCNet).
Asegura la compatibilidad de las interfaces físicas y proporciona:
– Transmisión física de los datos a través del medio, definición de conectores, señales de
control, velocidad de transmisión, etc.
– Gestión del nivel físico.
– Activación y desactivación de la conexión física.
– Detección de colisiones en los sistemas CSMA/CD.

8.4.2. Nivel nº 2: Enlace


Transfiere datos binarios sin formatear (una cadena de 0 y 1) entre la capa física y la de red.
Existe una capa de enlace para cada diseño físico de red, ya que la capa física contiene detalles sobre
la topología y tecnología de ésta. Suele estar implementada a nivel hardware en la propia tarjeta de
red, por ello cada tecnología tiene su tipo específico de tarjeta.
La función principal es garantizar la correcta transmisión de datos. Para ello formatea (trocea) las ca-
denas binarias en tramas y viceversa, convirtiendo éstas en señales para que las gestione la capa física.
Veamos un ejemplo, una trama Ethernet:


 
  
 
 
           

Estructura de una trama Ethernet. El campo preámbulo sirve para sincronizar el receptor. Las direcciones de destino
y origen se utilizan en labores de enrutamiento y notificación de errores, el tipo de trama indica qué protocolo
se debe emplear conforme ascienden los datos por el resto de las capas

Cada tarjeta Ethernet tiene una dirección única, denominada dirección MAC,
que se incluye en la trama para identificar el destino y el origen de ésta.

La conversión de señales eléctricas a un formato definido de trama es un medio de comprobación


de errores. En efecto, una trama es unidad de datos identificable sobre la que calcular un valor CRC.
El CRC es el resultado de un cálculo complejo sobre el resto de los datos de la trama. El emisor
lo calcula, lo incluye en la trama y la envía. El receptor lo calcula de nuevo cuando recibe la trama y lo
compara con el que ésta trae incorporado. Si ambas coinciden la transmisión se considera correcta.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 591


REDES DE ORDENADORES

La capa de enlace realiza las siguientes funciones:


– Establecimiento y liberación del enlace.
– División en tramos, control de su secuencia y sincronización.
– Detección y corrección de los errores de transmisión.

8.4.3. Nivel nº 3: Red


Es el sistema primario de entrega dentro de la red. Delimita la frontera entre la subred y los orde-
nadores emisores y receptores. Determina la ruta o trayectoria que siguen los datos hasta llegar a su
destino. Maneja el tráfico, el congestionamiento, las tasas de transferencia a través de los canales de
comunicación, así como un control de errores de nivel más alto que la capa de enlace. Aunque por
definición controlaría también el secuenciamiento de paquetes, en Internet es la capa de transporte
la que se encarga de ello.
Las redes emplean tablas de enrutamiento para dirigir correctamente los paquetes; éstas actúan
como una base de datos de caminos posibles a un destino. Las tablas pueden ser dinámicas (se
actualizan automáticamente) o estáticas (las actualiza el administrador de la red), que se utilizan
cuando la configuración de la red rara vez cambia. El software de red en este último caso es más
sencillo, ya que en el caso de una tabla dinámica el software debe contemplar las actualizaciones.
El enrutamiento de los datos, por otra parte, es un factor muy importante en el rendimiento de
una red cuando ésta aumenta su tamaño y se incrementa el tráfico de paquetes. Enviar demasiados
paquetes por un router o nodo puede causar congestionamientos. En casos en que esto sea inevita-
ble, un correcto control del flujo puede disminuir el congestionamiento, indicando a los transmisores
demasiado rápidos que ralenticen sus envíos.
En una red conmutada, los nodos y las conversaciones virtuales, el modelo de capas se trans-
forma como sigue:

  

   

 

   


 


  

 

   






   
 

 
 
















 
     

  
   
 


592 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


REDES DE ORDENADORES

La capa de red tiene mecanismos de contabilidad del tráfico. Esto es importante cuando las re-
des cruzan fronteras geopolíticas o existe algún tipo de tarificación sobre el uso de los canales.
La capa de red realiza las siguientes funciones:
– Seleccionar rutas primarias y alternativas o establecer los circuitos virtuales correspondientes.
– Seleccionar las conexiones con la red direccionando nodos intermedios.
– Multiplexar conexiones de red.
– Construir bloques de datos y reconstruidos en el destino.
– Detectar y corregir errores.
– Control de flujo y secuencia.
– Inicialización de las conexiones de red.
– Establecimiento de conexiones entre redes (internetworking).

8.4.4. Nivel nº 4: Transporte


La capa de transporte transfiere datos de ordenador a ordenador (de extremo a extremo), actuan-
do en equipos terminales de la red. La información recibida por el receptor se entrega a la aplicación
en particular que la necesite.
  















 


 

Esquema de comunicación entre aplicaciones de diferentes ordenadores.


Los niveles inferiores del esquema OSI han sido omitidos por simplicidad

La capa de transporte es fundamental a la hora de administrar el ancho de banda de una red


conmutada. Por ejemplo, para incrementarlo se pueden crear conexiones de red múltiple para una
única conexión de transporte, aumentando así el flujo de paquetes por la red.
NOTA: podemos hacernos una idea precisa del concepto de ancho de banda
si pensamos en una tubería; cuanto más ancha sea más capacidad para transpor-
tar agua tendrá. Ancho de banda es un término que define la capacidad total de
transmitir información de un medio.
El uso de varias conexiones de red por una única de transporte requiere multiplexar los datos,
concepto que se refiere al proceso de combinar varias señales en un solo canal de comunicación. En
el receptor tiene lugar el fenómeno inverso, llamado demultiplexación.
Los diseños de multiplexión y demultiplexación determinan cómo administra la capa de transpor-
te el tráfico de paquetes en la red, teniendo un impacto importante en otras áreas de la red.
El control de costos es un factor importante, quizá tenga más importancia aumentar el número
de canales multiplexados a costa de reducir el ancho de banda para cada uno de ellos. Cuando la
importancia del ancho de banda importa más que el costo, se diseñan capas de transporte que crean
conexiones múltiples de red, sin embargo, si los costes son más importantes, crece el número de
canales multiplexados por cada conexión.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 593


REDES DE ORDENADORES

NOTA: una buena analogía es considerar una autopista de tres carriles que se
encoge en uno solo al llegar a un túnel bajo el agua: los costos son más importan-
tes que la fluidez del tráfico.
La capa de transporte administra el flujo de datos de extremo a extremo (a diferencia de la de
red que lo hace nodo a nodo), así como entre procesos pares o programas. Para ello las capas de
transporte intercambian entre sí mensajes y solicitudes referentes al control de flujo.
Las funciones de la capa de transporte son:
– Establecer una conexión de transporte sin prestar atención a los nodos intermedios.
– Transmisión de datos, detección de errores.
– Liberación de la conexión de transporte.
– Gestión del nivel de transporte.
– Asignación de direcciones a los usuarios.
– Control de la calidad de servicio.

8.4.5. Nivel nº 5: Sesión


La capa de sesión es la interfaz del usuario con la red: transforma los datos que circulan por la
red en datos para las aplicaciones, negocia las conexiones entre procesos y aplicaciones, manejando
detalles como nombres de cuentas, contraseñas y permisos de usuario.
Cada persona que se conecta e identifica (proceso de login), inicia una sesión de red. Se deno-
mina asignación al proceso de preparar una sesión: un enlace comunicativo entre dos ordenadores
terminales.
Antes de establecerse la comunicación, se negocian aspectos como la identificación de los
equipos, la autorización para establecer la conexión, las tasas y el tipo de transmisión (simplex, half
o dúplex), el control de errores, etc. Estos parámetros pueden ser renegociados una vez establecida
la conexión.
La capa de sesión sirve de cobertura a los posibles fallos de la de transporte, agrupando men-
sajes que entrega en bloque a una aplicación, o rechazándolos todos (tal es el caso de una consulta
a una base de datos distribuida que falla antes de que se reciba la totalidad de la información). Si la
capa de transporte no proporciona servicios de secuenciación, la de sesión debe hacerlo si existen
aplicaciones que lo necesiten.
La capa de sesión puede ser eliminada totalmente si no se necesitan servicios de comunicación
de aplicación a aplicación. Internet así lo hace, situando el software de conexión en la capa de apli-
cación (ya que este software es en sí una aplicación).
Las funciones del nivel de sesión son:
– Asociación de sesiones con conexiones de transporte.
– Control de flujo para la sesión.
– Intercambio de datos entre tareas.
– Apertura, terminación y restablecimiento de las conexiones de sesión.

8.4.6. Nivel nº 6: Presentación


Realiza funciones que el ordenador necesita a lo largo de una comunicación entre aplicaciones,
manejando y convirtiendo formatos de impresión, visualización y archivos. Define cómo se presenta
la red ante el ordenador que la utiliza.
Las funciones de la capa de presentación resaltan en grandes redes con una amplia variedad de
ordenadores conectados, donde abundan distintos estándares de formatos de visualización, impre-
sión, archivos y otros, por ejemplo ASCII, EBCDIC, terminales VT100, etc. La capa de presentación
integra esta diversidad haciendo transparentes las diferencias para la capa de aplicación.

594 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


REDES DE ORDENADORES

Las redes en Internet no incluyen una capa de presentación estándar; así, los programas de
aplicación desempeñan las funciones antes mencionadas en su propia capa. Por esta razón existen
muchas módulos de software (bibliotecas) para que los programadores puedan incluir dichas funcio-
nes. La API Winsock de Microsoft es un buen ejemplo de ello.
Otros servicios de la capa de presentación son los siguientes:
– Cifrado de datos: los datos se cifran por seguridad mediante un mecanismo de encripta-
ción, el ordenador receptor aplica el proceso inverso. El cifrado se produce en capas altas de
la red para evitar filtraciones en las más bajas.
– Compresión de datos: de forma análoga al cifrado, la compresión es un proceso reversible
entre emisor y receptor. A diferencia de los algoritmos de encriptación, los de compresión están
disponibles públicamente. La compresión también debe hacerse en capas altas para que la re-
ducción del tráfico sea efectiva desde el principio, aumentando así el ancho de banda efectivo.

8.4.7. Nivel nº 7: Aplicación


La capa de aplicación maneja todos los detalles específicos de las aplicaciones de la red, como,
por ejemplo, el correo electrónico o las bases de datos distribuidas. Todos los programas de usuario
final para red forman parte de esta capa.
Existen diferencias significativas entre las aplicaciones de red y las que no lo son. Por ejemplo,
para aprovechar las enormes capacidades de procesamiento distribuido de las redes, las aplicaciones
deben estar preparadas en aspectos tales como el bloqueo de ficheros o registros, seguridad en el
acceso a los datos, o bien se pueden diseñar aplicaciones que impliquen varios ordenadores atacan-
do un mismo problema.
La línea divisoria de las capas de presentación y aplicación es importante, ya que Internet no inclu-
ye una capa de presentación oficial. La distribución de software debe hacerse en módulos que manejen
temas específicos de red y no problemas específicos de la aplicación. En caso contrario se estarían
combinando las dos capas, con los consecuentes problemas de portabilidad y mantenimiento.
Proporcionan los siguientes servicios a los programas de aplicación:
– Identificación de partes implicados en la comunicación y determinación de su estado de
disponibilidad.
– Comprobaciones de autorización y validez. Petición de acceso a ficheros.
– Asignación de costos y agrupación de los recursos disponibles.
– Aplicaciones de sincronización.
– Corrección de errores.
– Selección del diálogo.
– Comprobación de la identidad y sintaxis de los datos.
– Terminales virtuales.
– Control y entrada remota de trabajos.
– Correo electrónico.
– Acciones sobre bases de datos.

9. EL PROTOCOLO TCP/IP
TCP/IP (Transfer Control Protocol / Internet Protocol) es el conjunto de protocolos de mayor difu-
sión actualmente y el motor de Internet. El conjunto TCP/IP es una colección de protocolos cooperati-
vos y complementarios. En ocasiones el término tecnología internet se utiliza para referirse a TCP/IP.
Cada protocolo de TCP/IP transmite datos por la red en su propio formato y con distintas opciones, p.
ej. control de errores activado o no.
El concepto pila de protocolos deriva del modelo OSI, que estructura la red en
capas con funciones muy específicas. OSI representa la red como una pila vertical
de protocolos, de ahí el concepto.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 595


REDES DE ORDENADORES

Una pila de protocolos puede referirse a cualquier combinación de capas de red con sus protoco-
los asociados. La pila de protocolos TCP/IP es sólo una posibilidad más, aunque la más extendida uni-
versalmente. Los datos fluyen por la pila de protocolos de igual forma que vimos en las capas OSI.
Aunque OSI define 7 capas funcionales, es sólo una guía, no un diseño estricto. De hecho una
red TCP/IP (aquella que utiliza el protocolo TCP/IP) sólo tiene 5 capas. Es importante señalar que el
propio protocolo TCP/IP engloba las capas OSI de enlace, red y transporte. Una red basada en él
deberá incluir la física por debajo y la de aplicación por encima.
En una red TCP/IP los programas pueden comunicarse con la capa de transporte (TCP y UDP) y
con la de red (IP e ICMP), requiriéndose en este último caso más esfuerzo de programación. En todos
los casos, los datos fluyen por el protocolo IP hasta la capa física.
Muchas redes en Internet utilizan tecnología Ethernet, pero TCP/IP permite conectar diversas tec-
nologías de red como Token Ring (siempre que incluya una implementación TCP/IP). Esto es posible
porque la capa de enlace oculta los detalles de la tecnología a TCP/IP. La portabilidad y conectividad
de los programas basados en TCP/IP se ve así muy potenciada; incluso si se decide cambiar la tecno-
logía de una red, las aplicaciones basadas en TCP/IP seguirán funcionando.
Existen dos tipos básicos de servicios en TCP/IP:
– Stream (Flujo de bytes): la información se transmite como una serie de bytes sin importar su
longitud o el número de transmisiones requeridas para su envío o recepción. Por ejemplo, para
enviar 100 bytes, se pueden hacer cinco envíos de 10 bytes y uno de 50; el receptor puede
recibir cinco envíos de 20 bytes. TCP es de esta clase. Estos protocolos garantizan la entrega de
los datos en el mismo orden en el que fueron emitidos, utilizando para ello circuitos virtuales.
– Datagram (Datagrama): la información se fragmenta en unidades que se tratan individual-
mente. El orden de llegada no tiene por qué coincidir con el de emisión. Si el receptor nece-
sita los datos ordenados, es una labor propia, no del protocolo. UDP e IP son de este tipo.
Estos protocolos son más fáciles de implementar y consumen menos recursos.

10. DESARROLLO Y EVOLUCIÓN

10.1. REDES SIN CABLES


En los apartados anteriores se han analizado las redes locales dentro de lo que se puede llamar
concepción clásica, aunque no por su antigüedad en el mercado. Uno de los campos de desarrollo
que está introduciendo cambios quizá revolucionarios son las llamadas redes sin cables, cuyo medio
de transmisión consiste en ondas de radio.
En los últimos dos años ha proliferado el anuncio de productos de red para operar de esta ma-
nera y existiendo normas aceptadas desde principio de la década. El punto importante de aportación
consiste en la capacidad de extender la informática de despacho hacia una informática personal real
no limitada por las restricciones de cableado. Los sistemas no se instalarán en el despacho del usua-
rio, se suministrarán al propio usuario con la movilidad que da la transmisión sin cables.
Los estándares y la regulación de asignación y uso de radiofrecuencias constituyen la única vía
para que se puedan integrar de forma efectiva los equipos y programas de distintos vendedores, de
modo que resulte un único sistema operacional. La asignación del espectro viene controlada por los
Gobiernos. En ambos casos la situación es diferente en Estados Unidos y en Europa.
En Estados Unidos, dentro del grupo IEEE 802, se constituyó en 1990 un comité para desarrollar
el estándar 802.11 de redes locales sin cable. En Europa se comenzó antes, en 1980, dentro del
ETSI (European Telecomunications Standards lnstitute).
Otros aspectos que presentan este tipo de redes son la peligrosidad, la seguridad y velocidad de
transmisión que puede ofrecer esta tecnología.
– Salud. Se deben tener en cuenta las posibles implicaciones que para la salud de las
personas puede constituir el convivir en un entorno de radiofrecuencia. La investigación
que se está llevando a cabo indica la necesidad de limitar la potencia de emisión de tales
dispositivos.

596 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


REDES DE ORDENADORES

– Seguridad. Existe la posibilidad de sintonizar frecuencias por parte de usuarios no autori-


zados. En este sentido el proyecto europeo incluye normativas relativas al mecanismo de
encriptado y de autentificación de terminales, de modo que se impida el acceso fraudulento
a la red.
– Velocidad. En sistemas de redes sin cable la arquitectura de la red produce un impacto
decisivo en la velocidad de transmisión. No se pueden, por tanto, considerar velocidades
sin tener en cuenta ni este efecto ni tampoco los procedimientos de acceso al medio. No
obstante se puede hablar de velocidades comprendidas entre 1 y 10 Mb/s. La próxima
generación de redes locales sin cable diseñadas para atender necesidades de aplicaciones
avanzadas se espera que alcance los 100 Mb/s.

10.2. CONSIDERACIONES ESTRATÉGICAS


El desarrollo tecnológico del momento actual posibilita la integración de los diversos recursos infor-
máticos disponibles en un sistema único más adecuado a los fines de cualquier organización. La res-
puesta no se encuentra siempre en introducir el último logro tecnológico (como quieren los fabricantes),
sino en contribuir significativamente a la coherencia e integración de la información con una tecnología
que combine la facilidad de uso de un ordenador personal con las capacidades típicas de un ordenador
mainframe.
Esta es la evolución que está ocurriendo en el mundo de las redes de área local. Se ha superado la
idea inicial de compartición de recursos para llegar a la de integración de los dispositivos informáticos en
un sistema de proceso distribuido capaz de suministrar información allí donde se necesita. Se denomina
proceso en red (network computing) y pretende efectuar el mejor uso de cada componente de ésta.
En esta concepción lo primario son la información y los servicios suministrados al usuario. El or-
denador pasa a ser un periférico del sistema. El modelo tradicional de una red subordinada al ordena-
dor se ha invertido situando en el centro a la red y haciendo del ordenador un elemento subsidiario.
El sistema operativo de red hace posible un enlace efectivo y operativo de
los distintos sistemas incorporados a la red.

11. REDES DE ÁREA METROPOLITANA Y DE ÁREA EXTENSA

11.1. REDES DE ÁREA METROPOLITANA (MAN)


Este tipo de redes están situadas entre las redes de área local (LAN) y las redes de área exten-
dida (WAN), en cuanto a su velocidad y características de transmisión.
Surgen ante la proliferación de redes de área local que crean la necesidad de ser interconectadas
de una forma eficiente. El método de interconexión debe satisfacer los requerimientos de distancia,
alta velocidad y protocolo de comunicaciones, y cumplir unos estándares y servicios.
Deben cubrir una extensa área geográfica y ser capaces de operar a más de 100 MBps, sirviendo
de “columna vertebral” de las LANS, con un soporte de servicios de multimedia (vídeo, voz y datos). En
la actualidad, los grupos de desarrollo de estándares, están enfocando su trabajo en la definición de
unas características que proporcionen una conectividad universal para los servicios de multimedia.

11.2. REDES DE ÁREA EXTENDIDA (WAN)


Una red de área extensa podría definirse como una red que interconecta ordenadores, terminales
y redes de área local a escala nacional e internacional. Estas redes tienen como características:
– Tiempos de propagación altos, debido a las grandes distancias que cubren.
– Velocidades de transmisión de datos lentos, sobre todo comparadas con los LAN.
– Altas tasas de errores, haciendo necesario procedimientos efectivos para la detección y su
recuperación.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 597


REDES DE ORDENADORES

– Definición de estándares al estar involucrados en la conexión, terminales, ordenadores, etc.,


de distintos fabricantes.
– Posibles reconfiguraciones de red ante fallos de alguno de los enlaces.
– La red puede almacenar datos y después enviarlos, introduciendo retrasos impredecibles.
– Los costes derivados del uso de la red pueden depender del tráfico, mientras que en una LAN
los costos son fijos.
– Pueden existir puntos de acceso (gateways), para la interconexión entre redes.

12. REDES ALTERNATIVAS


Aunque la mayoría de los fabricantes de sistemas de comunicaciones están haciendo evolucionar
sus productos hacia los estándares de ISO, existe una gran variedad de alternativas en lo referente a
arquitecturas de red y protocolos. Es casi imposible que se abandonen todas estas alternativas y, en
muchos casos, será necesario proporcionar gateways entre los sistemas que cumplan los estándares
del ISO y aquellos que empleen otros sistemas.
Existen muchas redes basadas en estándares alternativos y su sustitución será un proceso largo.
A nivel físico, de enlace y de red, la mayoría de las arquitecturas soportan una gran diversidad de
estándares para redes de área local:
– Arquitectura SNA (IBM): aunque SNA aparece anteriormente al trabajo OSI, ya IBM optó por
la conveniencia de la modularización de las tareas implicadas en la comunicación, por ello los
niveles de OSI de Aplicación, Presentación, Enlace y Físico se corresponden casi idénticamente
con los de SNA, aunque con otros nombres. Los niveles intermedios, aunque el conjunto de
funciones coincida globalmente, están divididos de forma diferente en ambas arquitecturas.
SNA fue diseñado para un entorno conocido y homogéneo, mientras que OSI debe servir a
entornos diferentes desconocidos y heterogéneos. SNA ha pasado por diversas revisiones
que han ido disminuyendo sus diferencias con el OSI.
– Arquitectura DNA (DEC): es la arquitectura de redes de Digital, que proporciona un modelo
para las realizaciones de redes DECNET, nombre con el que se denominan las redes DEC.
– X25: la X.25 es una recomendación del CCITT contemporánea a los primeros trabajos sobre
el OSI, en concreto sobre los tres primeros niveles.
– Otras alternativas de red incluyen XNS (XEROX) y DSA (HONEYWELL).

13. ORGANISMOS Y NORMAS INTERNACIONALES DE NORMALIZACIÓN

13.1. ORGANISMOS
Las normas de interconexión de máquinas de comunicación, ya sean teléfonos, ordenadores o
robots, nacen por consenso entre fabricantes, órdenes gubernamentales o presión de los compradores
y, ocasionalmente, porque la importancia de una determinada compañía hace que las demás la sigan.
Para realizar la tarea de normalización, existen una serie de organismos a nivel nacional e internacional:
– CCITT (Comité Consultivo Internacional Telegráfico y Telefónico). Formado por organismos
gubernamentales de telecomunicación y compañías privadas.
– ISO (Internacional Standard Organization). Asociación voluntaria de organismos nacionales
de normalización de los diferentes países miembros.
– ECMA (European Computer Manufactures Association). Dedicada al desarrollo en coopera-
ción con normas aplicable a tecnologías de ordenadores.
– CEPT (Conferencia Europea de Correos y Telecomunicaciones). Reagrupa a las administra-
ciones europeas de comunicaciones y las normas son utilizadas de forma oficial por todos
los países de la UE.

598 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


REDES DE ORDENADORES

– ANSI (American National Standards lnstitute). Representante de EE UU en ISO, coordinando


toda la actividad de normalización en ese país. Asociadas a éste existen:
* EIA (Electronic Industria Association). Responsable de normas sobre interfaces.
* IEEE (Institute of Electrical and Electronics Engineers). Dedicado principalmente a nor-
mas sobre redes de área local (LAN’S).

13.2. ESTÁNDARES DE RED LOCAL


Los estándares a que nos referimos quedan recogidos en el proyecto IEEE 802, donde se incluyen:
– 802.1: introducción.
– 802.2: correspondiente al subnivel LLC comunes a todas las redes.
– 802.3: acceso de contención con técnicas CSMA/CD y es representativo de redes ETHERNET.
– 802.4 y 802.5: métodos de no contención y utilizan testigo, el primero en configuración bus
y el segundo en configuración anillo.

13.2.1. Estándar 802.2


Este estándar se ocupa del control del enlace lógico subnivel LLC dentro del nivel 2 de enlace de
datos e inmediatamente debajo del nivel 3 de red. Suministra una descripción de los procedimientos
del protocolo a nivel de enlace de una red de área local para la transferencia de datos y su control
entre cualquier pareja de puntos de acceso al servicio.
Los procedimientos de control dentro del protocolo gobiernan el ensamblado de las tramas de
enlace y su intercambio entre estaciones de datos de un modo independiente al de comparación
del medio de transporte. Esto significa que se soportan las funciones de enlace de datos de manera
independiente del medio de transmisión y se emplean los servicios del subnivel MAC para suministrar
a su vez servicio al nivel de red.
El protocolo ofrece una misma interfase entre los niveles superiores y los distintos protocolos
MAC dotando de transparencia al nivel 3 de red con respecto a los diferentes medios de transmisión
que constituyen la infraestructura de la red local.
En cuanto a tecnologías de comunicación por fibra óptica se debe hacer mención a la repercu-
sión que estos estándares están teniendo sobre las redes locales. El FDDI (Fiber Distributed Data
Interface), inicialmente para fibra óptica, está permitiendo la implementación de redes locales de
mayor capacidad y la introducción de tramos troncales.
De esta forma se aborda en redes locales el servicio a nuevas necesidades de comunicación que
requieren más velocidad (hasta 100 Mb/s), como son transferencia de ficheros, gráficos y algunas
aplicaciones relativas a voz. También tiene relevancia esta norma en todo lo que afecta a la interco-
nexión de redes locales o de éstas con redes tipo MAN.

13.2.2. Estándar 802.3


Este estándar proporciona un método de acceso al medio de manera que dos o más estaciones
comparten un medio de transmisión en bus común. El estándar es aplicable a diferentes tipos de me-
dio y define un nivel de especificación suficiente para una red de área local de banda base que opera
hasta 10 Mb/s. También define las primitivas de servicio entre el subnivel MAC y el nivel físico.
Con pequeñas diferencias el estándar coincide con el sistema ETHERNET. Define un bus lógico
lo que no exige necesariamente que la implementación física también lo sea. ETHERNET y la norma
inicial operan a 10 Mb/s sobre un cable coaxial con todas las estaciones conectadas a la línea de
transmisión. El desarrollo posterior del estándar se ha extendido a redes de pares trenzados de ma-
nera que ahora se tienen cuatro variantes del 802.3.
La primera 10BaseT es una red local de banda base a 10 Mb/s sobre pares trenzados. La distan-
cia máxima entre cualquier nodo y el central es de 100 m con una topología en estrella.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 599


REDES DE ORDENADORES

La 10Base5 es de banda base a 1 Mb/s también sobre par trenzado. Permite una distancia máxi-
ma entre estación y nodo central de 250 m en configuración de estrella. La 10Base5 de banda base
opera a 10 Mb/s sobre cable coaxial y permite distancias de hasta 500 m. Se usa apantallamiento y
emparejamiento para minimizar las interferencias electromagnéticas.
Por último la 10Base2 es una red local de banda base que opera a 10 Mb/s sobre cable coaxial
fino. La longitud máxima es de 185 m. El empleo de cable fino da mayor facilidad para adecuarse a
trazados bruscos aunque la señal se atenúe más rápidamente.

13.2.3. Estándar 802.4


Este estándar define los elementos del método de acceso de paso de testigo en bus. El procedimien-
to de acceso coordina el uso del medio que comparten las estaciones conectadas con objeto de sumi-
nistrar una conexión compatible. El estándar especifica las características físicas y eléctricas del medio
de transmisión, las señales eléctricas usadas y los formatos de la trama de datos transmitidos. Asimismo
determina las acciones que se desencadenan en la estación al recibir una trama de datos y los servicios
que se suministran en la interfase virtual entre el propio subnivel MAC y el LLC que está por encima.
También se describen las primitivas de servicio entre el subnivel MAC y el nivel físico por debajo.

13.2.4. Estándar 802.5


Este estándar especifica los formatos y protocolos que se utilizan en el método de paso de testigo
en anillo en lo relativo al subnivel de control de acceso y al nivel físico. Describe el procedimiento de
incorporación al anillo, los formatos de trama y los protocolos MAC. Éstos incluyen los algoritmos,
mecanismos de prioridad y de direccionamiento, temporizadores y contadores necesarios para la
correcta operación del método. Asimismo identifica los servicios de interfase que suministra el sub-
nivel MAC al LLC y análogamente el nivel físico a este mismo subnivel MAC. Todos estos servicios se
definen en términos de primitivas y parámetros asociados.
También se definen las funciones de nivel físico y la fijación de la estación al medio mediante
cable trenzado de 1 y 4 Mb/s.

13.3. Estándares para interfaces


Los medios físicos de comunicación y los aspectos físicos del problema de la interconexión fueron
los primeros en estandarizarse.
A este nivel, la estandarización es esencial en cualquier sistema de comunicaciones, porque sin un
acuerdo previo acerca de las características de las señales eléctricas (ópticas), éstas resultan imposibles.
Sin una interfaz física, previamente acordada, los fabricantes de equipos de comunicaciones,
como módems, no pueden conseguir que éstos funcionen en una gama amplia de ordenadores, y
los fabricantes de terminales y equipos terminales, serían incapaces de conectar los dispositivos que
producen, para una gama de ordenadores amplia.
Una interfaz se emplea entre entidades disimilares y supone la transferencia física directa de los datos.
Los medios de interconexión proporcionan el camino físico para las señales, por lo tanto debe
existir una interfaz, previamente acordado, que especifique el diseño, las dimensiones, etc. Entre las
más populares están RS232, RS422 y RS423, CCITT X.21, V24, V24, V28, X.3. X.28, X.29.

13.4. Normas internacionales en la conmutación de paquetes


Existen una serie de normas internacionales orientadas a definir el acceso de los usuarios a las
redes. Entre las recomendaciones del CCITT podemos destacar:
– X.25: interfaz entre DTE y DCE para terminales que operan en modo paquete en redes públicas
de datos con conmutación de paquetes. Especifica los procedimientos de operación con redes
de paquetes que proporcionan servicios de Llamada Virtual y Circuito Virtual Permanente. Se
definen las operaciones en los tres niveles inferiores del Modelo de Referencia OSI: físico,
enlace, red.

600 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


REDES DE ORDENADORES

– X.28: interfaz DTE/DCE para un equipo de datos arrítmico con acceso a la facilidad de empa-
quetado/desempaquetado de datos (PAD), en una red pública de datos, situada en el mismo
país. Describe los procedimientos para la conexión y operación de DTE’S sencillos asíncro-
nos. El PAD realiza la función de convertir el flujo de información serie del DTE en paquetes
X.25, para su envío a la red y viceversa.
– X.75: procedimiento de control terminal y de tránsito de las comunicaciones y sistemas de
transferencia de datos por circuitos internacionales entre redes de datos con conmutación
de paquetes. Especifica los procedimientos de conexión en redes públicas X.25 entre sí.

14. INTERNET

14.1. INTRODUCCIÓN HISTÓRICA


Es de suponer que todos hemos oído hablar de Internet. Es un término que está invadiendo nues-
tros hogares, las escuelas y, sobre todo, el mundo empresarial. Para realizar una primera toma de con-
tacto vamos a exponer brevemente algunos de los hitos históricos precursores de la actual Internet.
La primera transmisión digital de datos se inició cuando Samuel B. Morse realizó una demos-
tración pública del telégrafo en 1844. El siguiente avance importante se produjo en 1874, cuando
Thomas Edison ideó la multiplexación de dos señales en dos sentidos utilizando un único cable,
obteniéndose velocidades mucho más altas que en las transmisiones telegráficas; este aparato, co-
nocido como teletipo, sustituyó paulatinamente al telégrafo.
La aparición de los ordenadores en la década de 1950, y su gran difusión posterior a partir de
1980, impulsada principalmente por el microordenador PC de IBM, han dado origen a una nueva cultu-
ra y a una nueva forma de tratamiento de la información. En los siguientes años, y debido a la expansión
y a la popularidad del PC, algunas compañías centran sus investigaciones en el desarrollo de productos
que permitían compartir información y recursos, y surge el concepto de redes de ordenadores.
En la década de los sesenta, en plena guerra fría, el Departamento de Defensa de Estados
Unidos estaba preocupado por la vulnerabilidad de las comunicaciones militares ante posibles ata-
ques a sus centros de control.
Esta inquietud se tradujo en un proyecto para desarrollar una red que continuase siendo ope-
rativa, incluso si un ataque nuclear afectase grandes segmentos de ella. En 1969 la agencia ARPA
encargó la construcción de una red que uniría grandes ordenadores de distintas universidades que
colaboraban con este Departamento. La llamaron ARPANet.
NOTA: ARPA es la agencia de proyectos de investigación avanzada del Depar-
tamento de Defensa de EE UU (ARPA: Advacend Research Projects Agency– Agencia
de Proyectos de Investigación Avanzados).
A medida que ARPANet demostraba su utilidad, el ejército americano empezó a acaparar el
tráfico de la red, pasando a llamarse entonces DARPA (Defense ARPA). La red DARPA incrementaba
paulatinamente el número de ordenadores conectados, los cuales eran de diferentes clases, fabrican-
tes, etc. La comunicación entre ellos era cada vez más difícil.
Los responsables de la red DARPA contrataron el desarrollo de un protocolo de comunicaciones que
acabase con los problemas presentados hasta el momento. Así nació el protocolo TCP/IP, que consta
en realidad de dos protocolos principales: Transfer Control Protocol (Protocolo de control de transferen-
cia) e Internet Protocol (Protocolo de Internet), creado en la Universidad de Berkeley en 1983.
Tras el éxito demostrado por TCP/IP en DARPA, la Universidad de Berkeley lo incluyó en su sis-
tema operativo UNIX y lo distribuyó gratuitamente con él, extendiéndolo por el mundo informático
rápidamente.
NOTA: TCP/IP (Transmisión Control Protocol/Internetwork Protocol) es requisito
imprescindible para conectarse a Internet, y de hecho actualmente muchos siste-
mas operativos lo incluyen como una parte fundamental de su estructura.
DARPA se escindió en la original ARPANet y en otra rama militar denominada Milnet de uso
exclusivamente militar. ARPANet se dedicó fundamentalmente a Centros de Investigación.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 601


REDES DE ORDENADORES

En años sucesivos fueron apareciendo otras redes que adoptaron TCP/IP como protocolo de
comunicaciones, dando lugar a las redes denominadas Internet muchas de las cuales terminaron
fundiéndose con ARPANet, entre otras:
– BBN Telenet: red orientada al uso comercial.
– Usenet: en 1979 numerosos científicos informáticos se unieron para formar una red de
ordenadores para investigación.
– Bitnet (But It’s Time Network): fundada en 1983.
– CSNet (Computer Science Network).
– Etc.
A finales de los ochenta se creó NSFNet (National Science Foundation Network) para la
interconexión de superordenadores con enlaces de alta velocidad transcontinentales. A ella estaban
conectadas las redes de varias universidades, y debido a las sucesivas conexiones jerárquicas de
otras redes, se acabó convirtiendo en la infraestructura fundamental de Internet.
Internet es la evolución de ARPANET después de la implantación del pro-
tocolo TCP/IP y de la fusión con otras redes basadas en este protocolo.
El hito crucial de Internet ocurrió el 1 de enero de 1983 en que TCP/IP se con-
virtió en el protocolo estándar para Arpanet. Ese día nació Internet.
Hasta 1990 las aplicaciones básicas de Internet eran FTP (File Transfer Protocol – Protocolo de
Transferencia de Ficheros), Telnet (conexiones remotas), Impresión remota y el correo electrónico
o email. Posteriormente aparecieron Archie (herramienta de búsqueda FTP en Internet), y Gopher,
que permite organizar documentos en Internet mediante una estructura de menús jerárquicos (en
los servidores Gopher se utilizaba la herramienta de búsqueda Veronica, Very Easy Rodent-Oriented
Netwide Index to Computerized Archives).
Sin embargo, la explosión de Internet no fue causada por estas herramientas. En 1992 Tim
Berners-Lee desarrollo los protocolos WWW (World Wide Web – Telaraña de alcance mundial), HTML
(Hipertext Markup Language – Lenguaje de marcas de hipertexto) subconjunto del SGML (Standard
Generalized Markup Language), y un año después, en noviembre de este mismo año, se lanzó el
navegador Mosaic por parte de NCSA (National Center for Supercomputing), marcando el comienzo
de la popularidad de la web.
A comienzos de 1993 había 130 direcciones web en Internet, pero en menos
de medio año después del lanzamiento de Mosaic ya había más de 10.000 servi-
dores. Durante los últimos años Internet está creciendo de forma exponencial.
Algunas compañías distribuyen navegadores gratuitamente con el objeto de crear un reconoci-
miento de su nombre que proporcione valor añadido a otros productos de su empresa. En la actualidad
existen dos navegadores que están en pleno auge: Navigator, de NetScape, y Explorer, de Microsoft.
Otros conceptos relacionados son los siguientes:
– Intranet: se define así a una red de ordenadores basada en el protocolo TCP/IP, con la par-
ticularidad de que pertenece a un ámbito privado, generalmente a una empresa u organiza-
ción. Una intranet suele ser accesible sólo por el personal autorizado de dicha organización.
Por otra parte, los sitios web de una intranet son tecnológicamente indistinguibles de aque-
llos que encontramos en Internet, a excepción de que suelen disponer de un cortafuegos que
impide los accesos no permitidos.
Como la propia Internet, las intranets se utilizan principalmente para compartir información.
Las intranets son actualmente el segmento de mayor crecimiento en Internet, por su bajo
costo de construcción y mantenimiento, bastante menor que las redes privadas basadas en
protocolos propietarios.
– Extranet: Con frecuencia este término se presta a confusión con el anterior. Una extranet
es una intranet parcialmente accesible a usuarios externos a la organización, para ello estos
deben identificarse en el sistema mediante un usuario y una palabra de paso. Esta identifi-
cación determina el alcance de accesibilidad del usuario. Las extranets se están convirtiendo
en un medio muy popular para el intercambio de información entre empresas, entre admi-
nistración y administrados, etc.

602 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


REDES DE ORDENADORES

– ISP (Internet Service Provider): un proveedor de servicios de Internet es una empresa de-
dicada a conectar a Internet a los usuarios y ofrecer el mantenimiento necesario para que el
acceso funcione correctamente. También ofrecen servicios relacionados, como alojamiento
web o registro de dominios entre otros.
Inicialmente este acceso se realizaba mayoritariamente a través de ordenadores personales
dotados de módems, utilizando como medio de transmisión las líneas de teléfono. Esto permi-
te aprovechar la estructura de comunicaciones ya implantada por las compañías telefónicas.
Sin embargo, el desarrollo de la tecnología ha permitido que el acceso a Internet pueda
realizarse desde una amplia gama de dispositivos: PC (de sobremesa y portátiles), teléfonos
móviles, PDAs, etc.
Pero además de las conexiones telefónicas e inalámbricas, Los ISP actuales también ofertan
acceso a Internet a través de las líneas de televisión por cable y de las transmisiones de la
nueva televisión digital terrestre (TDT). Incluso se ofrecen servicios (aún en fase de pruebas)
que dan acceso a Internet mediante la red eléctrica; se conocen por las siglas PLC.

14.2. ESTADO ACTUAL Y TENDENCIAS


Internet es una red de redes, esto significa que está integrada por múltiples redes esparcidas
por todo el mundo, y ofrece sus servicios a un gran número de usuarios. Se caracteriza por su gran
capacidad de mover información, encontrarla y utilizarla.
Internet está revolucionando profundamente nuestra sociedad y hay signos que auguran unos
cambios trascendentales en el estilo de vida tradicional. La contribución más importante de estas
nuevas vías de comunicación lo constituye sin duda el acceso rápido, fácil y económico a una canti-
dad ingente de información de todo tipo y contenido.

Internet hace realidad la idea de “aldea global”, en el sentido de que permite localizar grandes cantidades de
información distribuida universalmente, así como una comunicación rápida y barata con cualquier persona o empresa
en cualquier parte del globo. Actualmente los servicios basados en Internet se multiplican en nuestro beneficio.

La Internet de hoy día es el resultado de la generalización de su uso, desde ambientes especiali-


zados a todo tipo de usuarios. Actualmente se compone de más de 50.000 redes y muchos millones
de ordenadores conectados. En unos 100 países es posible la conexión completa y en otros 160 se
dispone de correo electrónico. La red se encuentra continuamente creciendo y cambiando, ampliando
la velocidad de sus conexiones, modificando su estructura y adoptando nuevos estándares y servicios.
Existe un organismo denominado lnterNlC (Internet Network Information Center), que define los
nombres de los nodos de lnternet, asigna las direcciones y dominios, supervisa el funcionamiento de
la red y decide la adopción de nuevos estándares.
Sin embargo, no hay nadie que gobierne Internet. Cada red que se conecta cuida de sus recur-
sos, de sus conexiones y de sus problemas internos, y cada máquina conectada directamente es
responsable de su conexión hasta el siguiente nodo jerárquico.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 603


REDES DE ORDENADORES

Actualmente, el principal problema de Internet es la seguridad. Para intentar solventarlo surgen


dispositivos como los llamados cortafuegos (Firewall), sistemas que tratan de impedir que usuarios
ajenos a una red puedan acceder a ella.
Aunque inicialmente los sistemas UNIX dominaban el mundo de Internet, la
introducción de nuevas plataformas de 32 y 64 bits, tales como Windows, OS/2,
Linux, etc. ha permitido a estos sistemas tener un importante papel en la infraes-
tructura global de la red.

14.3. SERVICIOS BÁSICOS DE INTERNET


Hasta hace relativamente poco tiempo, eran necesarios ciertos conocimientos técnicos para poder des-
envolverse por Internet. Por ejemplo, acceder a un determinado servidor requería conocer alguna información
sobre él. Pronto se vio la necesidad de crear unos servicios básicos que facilitasen el trabajo en Internet.
Estas nuevas herramientas cuentan con interfaces gráficas que permiten moverse (navegar) por
Internet sin necesidad de ser un experto informático y, sobre todo, permiten localizar la información
que interesa entre los miles de servidores repartidos por todo el mundo.

14.3.1. Archie
Los servidores archie mantienen bases de datos de ficheros que se encuentran distribuidos en
servidores FTP, con lo que facilitan las búsquedas en estos. Estas bases de datos se actualizan auto-
máticamente, aunque solo acceden a servidores FTP anónimos, por lo que solo recogen información
de servidores accesibles de esta forma. La información disponible son los nombres de los ficheros y
directorios, pero no sus descripciones.
Este servicio está en desuso actualmente.

14.3.2. Gopher
Los servidores gopher ofrecen una interfaz gráfica basada en menús para acceder a documentos
situados en los más de 3.000 servidores que hay de este tipo. Al acceder a un servidor gopher se
empieza a navegar por la red ya que el acceder a un submenú puede significar haber saltado de un
servidor a otro que puede encontrarse en cualquier otra ubicación.
Estos servidores también permiten visualizar y transferir los datos del servidor gopher al que se
está accediendo. Por otro lado, una vez encontrado el fichero que se buscaba, es posible utilizar el
resto de herramientas de Internet con él.
Al igual que en el caso anterior, hoy en día este servicio está muy desfasado.

Página ejemplo de una búsque-


da con Gopher en Internet.

604 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


REDES DE ORDENADORES

14. 3.3. WAIS (Wide Area Information Server)


Los servidores wais no solo almacenan nombres de ficheros, sino que guardan los textos com-
pletos de los ficheros en sus índices. Esto permite utilizar comandos de búsqueda por contenido con
los documentos que archiva.
Existen muchos servidores wais, cada uno de los cuales está especializado en un tema. Es muy
normal utilizar wais con grupos de news y listas de distribución.

14. 3.4. News (Newsgroups)


Las news son áreas temáticas sobre diversos temas de interés. Hay más de 10.000 áreas temá-
ticas reunidas en grupos formando una estructura jerárquica.
Los servidores de news tienen herramientas creadas para mantener discusiones entre los usua-
rios de la red: un usuario puede acceder al área temática que le interese, puede leer los mensajes
nuevos que otros usuarios han dejado, y puede dejar su propio mensaje dirigido a todo el que quiera
leerlo o bien directamente a otro usuario determinado al que desea contestar.
Relacionadas con las news están las listas de distribución. Cuando un usuario se da de alta
en una lista de distribución, cada nuevo mensaje que llegue sobre ese tema le será enviado por
correo electrónico. Esto tiene el peligro de que el número de mensajes que nos llegue puede ser
muy alto, y si se paga en función de la cantidad de información que nos llega, la cuenta puede
subir mucho.

14.3.5. Telnet
Es una herramienta que permite la conexión remota a otro ordenador, como si se estuviese
trabajando en un terminal. Al intentar acceder se solicita un identificador y una palabra clave. Una
vez pasado este trámite, en nuestra pantalla se abre una ventana que refleja la otra pantalla, que lo
procesa, devolviendo el resultado a la nuestra.
Este servicio puede ser interesante para, por ejemplo, procesar en otras máquinas programas
que no pueden ser procesados en la propia. También ha servido a algunas pequeñas empresas para
poder disponer de una red distribuida, sin tener que realizar grandes inversiones.

14.3.6. FTP (File Transfer Protocol)


FTP significa Protocolo de transferencia de archivos. Un protocolo es un lenguaje que permi-
te a los equipos comunicarse entre sí. Se utiliza para hacer que los archivos y las carpetas queden
públicamente disponibles para su transferencia a través de Internet. En algunos casos es necesario
obtener permiso del administrador del equipo de la red para iniciar la sesión y tener acceso a los
archivos del equipo.
A menudo podremos también utilizar FTP para tener acceso a determinadas redes o servidores
sin tener una cuenta ni poseer la contraseña oficial para ese equipo. Estos servidores FTP
“anónimos” pueden contener una gran cantidad de datos disponibles públicamente a través de FTP.
En estos servidores FTP anónimos se debe escribir como nombre de usuario y palabra clave: “anony-
mous”, aunque es considerado como una muestra de cortesía el dar la propia dirección como palabra
clave. Estos servidores suelen tener software de dominio público y shareware.
Un tipo especial de correo electrónico es el denominado FTP por correo (FTPmail), en el que se
transfieren ficheros como si fuesen mensajes de correo electrónico. Esto es útil únicamente cuando
solo se dispone de acceso por correo electrónico, ya que es engorroso y lento.
NOTA: desde los navegadores como Internet Explorer, la dirección de Internet
(dirección URL) de un servidor FTP tiene una apariencia ligeramente diferente de
las direcciones de las páginas Web normales, ya que comienzan como: ftp://servi-
dor.dominio.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 605


REDES DE ORDENADORES

14.3.7. Correo Electrónico (Email)

14.3.7.1. Definición
Es el servido más básico y uno de los más extendidos. En esencia, el correo electrónico es un
servicio que permite el envío y la recepción de mensajes por medio de un ordenador. Lo importante
es que, prácticamente, cualquier información puede transmitirse dentro de un mensaje y que puede
llegar, de manera rápida, sencilla y fiable a cualquier lugar del mundo con conexión a Internet (esto
incluye actualmente las redes de telefonía móvil).

14.3.7.2. Ventajas
En un entorno profesional, el uso del correo electrónico agiliza y formaliza los canales de comu-
nicación externos e internos de la organización, ya que permite combinar la precisión y seguridad de
la información escrita con la rapidez de las telecomunicaciones. Las ventajas del correo electrónico
frente a otros medios de comunicación (fax, teléfono, etc.) son:
– Comunicación muy rápida.
– Amplio alcance internacional.
– Muy bajo coste.
– Posibilidad de envíos a muchos receptores simultáneamente.
– Inclusión de todo tipo de archivo (documentos, hojas de cálculo, vídeo, música, etc.).
– Información directamente procesable por el ordenador.

14.3.7.3. Características
El correo electrónico presenta, por un lado, las ventajas del correo tradicional:
– Coste reducido: es el servicio que permite transmitir mayor cantidad de información a menor
precio.
– Utilización simple.
– Práctica disponibilidad global.
– Comunicación asíncrona: no es necesario que el receptor de la información se encuentre
disponible en el momento en que el emisor la está enviando.
– Permite el envío de prácticamente cualquier objeto (no materiales en el caso del correo
electrónico).
– Es la base para servicios de difusión masiva de la información.
Por otro lado, el correo electrónico emplea las facilidades que ofrecen las telecomunicaciones y
la informática en el tratamiento de los mensajes:
– La velocidad de transferencia es muy alta.
– La información contenida en los mensajes puede ser procesada, archivada y consultada
fácilmente.
– Permite la localización flexible del receptor. No es necesario que se encuentre físicamente en
el lugar habitual de recepción de los mensajes para poder acceder a ellos.
– Ofrece mejores garantías de privacidad en la comunicación.
– Permite su interrelación con otros servicios de red.
Estas características han hecho que, desde el comienzo de Internet, el correo electrónico haya
sido un servicio básico de éste y que sea, posiblemente, el más popular. Mientras que otros servicios
puede que no hayan sido empleados nunca (o empleados muy esporádicamente) por un número
significativo de usuarios, se puede afirmar, sin género de dudas, que prácticamente cualquiera con
acceso a Internet es usuario del correo electrónico.

606 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


REDES DE ORDENADORES

Existen desde hace tiempo en el mercado soluciones de correo electrónico de ámbito local,
para empresas u organizaciones, basados en ordenadores multiusuario (como Unix) o redes de
área local (como Novell o Microsoft). La difusión del correo electrónico Internet ha hecho que todos
estos sistemas incorporen en la actualidad mecanismos de conversión de formatos entre los men-
sajes internos de ámbito local y los formatos empleados en Internet, de manera que los usuarios
de estos tipos de correo puedan tener acceso al correo Internet sin cambiar sus pautas habituales
de trabajo.
A través de la existencia de las llamadas listas de distribución es posible la recepción de un
único mensaje por múltiples usuarios, habiendo sido enviado a una única dirección electrónica; su
utilización está relacionada con grupos y focos de discusión o enseñanza.

14.3.7.4. Funcionamiento básico


A la hora de componer y enviar un mensaje, el programa de correo electrónico pedirá una serie
de datos según una ventana igual o similar a la siguiente:

El asunto de que trata el mensaje. Es conveniente


usar un resumen claro y conciso del asunto del
mensaje, utilizando para ello una frase corta.

Dirección del receptor o receptores del mensaje o de copias del


mismo. Podemos incluir tantas direcciones como deseemos,
adecuadamente separadas. La mayor parte de los programas
de correo electrónico permiten al usuario incluir en este campo
valores que haya ido guardando en algún tipo de agenda o
libro de direcciones.

Texto completo del mensaje. La mayor parte de los programas de correo


permiten en este punto la inclusión de ficheros de texto dentro del cuerpo
del mensaje. También permiten la selección de cualquier fichero que
contenga nuestro ordenador para su envío. Dado que estos ficheros
suelen tener datos que no pueden tratarse como texto, no se incluyen
directamente en el texto del mensaje, sino que son tratados como
ficheros adjuntos (DWWDFKPHQWV) al mensaje.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 607


REDES DE ORDENADORES

Libreta de direcciones de un programa de correos. Desde esta ventana


podemos elegir los destinatarios de nuestros mensajes.

La mayor parte de los programas de correo permiten también que en cada mensaje se incluya
automáticamente un fichero conteniendo una “firma” que queramos añadir a nuestros mensajes. Es
práctica habitual incluir en ese fichero nuestro nombre y otros datos (como el teléfono, el fax, etc.).
Al recibir los mensajes, los programas de correo electrónico presentan un resumen de los mis-
mos, con su remitente, el asunto del que tratan y (opcionalmente) algunos datos más, como su
tamaño o la fecha de envío.
Seleccionando uno de estos mensajes podemos leer su contenido y, opcionalmente, aplicarle
algunas operaciones que permita el programa, como responder a su remitente, reenviarlo a otra di-
rección, borrarlo, salvar el contenido en un fichero, etc.

Pantalla principal de un famoso programa de mensajería electrónico.


La pantalla se divide en varias áreas cada una con una función específica.
Las carpetas (cuadro superior izquierdo) actúan como contenedores que clasifican los
mensajes enviados, recibidos, borradores, etc. Debajo de esta ventana encontramos los contactos.
La parte derecha de la pantalla presenta una relación de los mensajes (arriba)
de la carpeta seleccionada, y el propio mensaje seleccionado (debajo).

608 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


REDES DE ORDENADORES

Cuando se responde a un mensaje, los programas de correo electrónico suelen rellenar automá-
ticamente los campos correspondientes al destinatario (con la dirección del remitente del mensaje
original) y del asunto (con la cadena «Re:» precediendo al asunto del mensaje original). También es
habitual que, opcionalmente, se incluya de manera automática el contenido del mensaje original pre-
cedido de algún carácter (como ‘´), que indique que ese texto es una cita de un mensaje recibido.
Existen programas de correo que ofrecen como opción el pedir confirmación de la entrega e
incluso de que el mensaje ha sido leído.

Mensaje de respuesta. Los campos “Para” y “Asunto” se rellenan automáticamente,


dejando al usuario la posibilidad de modificarlos posteriormente.

Si un mensaje recibido contiene algún tipo de datos adjuntos, el programa informará de ello y
permitirá realizar ciertas operaciones sobre él, dependiendo del tipo del fichero.
Por motivos de seguridad, dado que por correo electrónico podemos recibir cualquier tipo de
información, conviene ser cuidadosos a la hora de emplear los ficheros adjuntos. En principio, estos
pueden estar infectados con algún virus o contener algún procedimiento malicioso aun cuando parez-
can inofensivos (los llamados caballos de Troya).
Como norma general debe aplicarse una política de diferentes grados de confianza: desde aque-
llas personas con quienes mantenemos correspondencia muy a menudo y en las que podemos con-
fiar plenamente, hasta fuentes totalmente desconocidas por nosotros y de las que desconocemos sus
intenciones. En el primer caso, podemos procesar los ficheros adjuntos sin precaución, mientras que
en el último son aplicables todas las precauciones que tomemos usualmente para comprobar ficheros
de procedencia dudosa, como utilizar programas de detección de virus.
Normalmente, los programas de correo electrónico permiten almacenar los mensajes en car-
petas, de manera que podemos clasificar los que vayamos enviando o recibiendo de la forma que
resulte más adecuada. Por defecto, existen carpetas para:
– Almacenar los mensajes nuevos que aún no hayamos leído o que no hayamos movido a otra
carpeta.
– Almacenar los mensajes que hemos enviado hasta que efectuemos la conexión con el servi-
dor para que entren en la Red.
– Almacenar una copia de los mensajes que hayamos enviado.
– Almacenar, temporalmente, los mensajes que hayamos borrado en una sesión de trabajo, de
manera que podamos recuperarlos si decidimos volvernos atrás de la decisión de borrarlos.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 609


REDES DE ORDENADORES

Carpetas disponibles por defecto. El usuario puede agregar las


que desee y organizarlas según sus necesidades concretas.

Dado que trabajar con el correo electrónico no requiere una conexión permanente con el servidor,
los programas suelen tener una opción para iniciar esa conexión, durante la cual se envían todos los
mensajes pendientes de entrega y se recogen los que se hayan recibido.
Cuando se trabaja a través de una conexión telefónica, esta técnica permite un ahorro importante
en el coste de uso de la Red. Una sesión normal de trabajo podría consistir, pues, en una primera
conexión para recibir mensajes nuevos; a continuación, y ya sin necesidad de estar conectados al
proveedor de servicio, se contestarían los mensajes recibido y se prepararían otros nuevos. Una vez
que todos los nuevos mensajes a enviar estén listos, una nueva conexión al servidor permitiría lan-
zarlos a la Red.
Es importante destacar que cuando se envía un mensaje, no se establece una conexión directa
con el ordenador del usuario destinatario, sino que el mensaje circula por la red, de nodo en nodo,
buscando el mejor camino hasta llegar a su destino. En unos segundos o minutos (en horas en el peor
de los casos) el mensaje llega a su destino, y cuando el destinatario vuelve a conectarse, el sistema
le notifica que tiene un mensaje recibido.

14.3.7.5. Webmail
Un webmail consiste en una aplicación informática, concretamente un cliente de correo electró-
nico, que provee una interfaz web por la que acceder al correo electrónico. Esto significa que desde
el punto de vista del cliente, basta con un navegador para disponer de funcionalidades básicas de
correo electrónico.
Un sistema webmail permite listar, desplegar y borrar los correos almacenados en el servidor
remoto desde un navegador estándar, generalmente mediante una sencilla interfaz.
Una de las grandes ventajas de webmail se basa en que los correos pueden ser consultados
posteriormente desde otro ordenador conectado a la misma red (por ejemplo Internet) con el único
requisito de que disponga de un navegador web.
Recordemos que otras formas de acceder al correo electrónico pueden ser:
– Conectándose con un cliente de correo local a un servidor de correo remoto utilizando un
protocolo ad hoc de transporte de correo, como IMAP o POP, descargar los correos y alma-
cenarlos localmente.
– Utilizando un cliente de correo por consola, por ejemplo Mutt.

610 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


REDES DE ORDENADORES

Página de acceso al servicio webmail de la Junta de Andalucía.

14.3.8. WWW (World Wide Web)

14.3.8.1. Definición

NOTA: La denominación más popular para referirse a este servicio es Web o WWW.

El proyecto WWW (World Wide Web) comenzó en 1989 cuando Tim Berners-Lee en el CERN
(Centro de Europeo de Investigación de Energía Nuclear) se planteó encontrar un modo de compartir
la investigación y las ideas con otros investigadores repartidos por todo el mundo, llamándose en su
propuesta inicial proyecto de hipertexto.
Hipertexto es un término acuñado por Ted Nelson en los años sesenta que hace referencia a
todo texto que contiene conexiones con otros documentos, de modo que el lector puede hacer clic
sobre una palabra o frase para obtener información adicional sobre temas relacionados.
Hipermedia es un término más amplio para los documentos que incluyen información en forma-
to multimedia (sonido y vídeo).
Técnicamente, la web hace referencia al ciberespacio abstracto de información, mientras que
Internet hace referencia a la parte física de la red (es decir, al hardware). No obstante, web suele
utilizarse como sinónimo de Internet refiriéndose tanto a la red física como a la información en sí
misma. La base tecnológica de Internet y de la web es el empleo de protocolos: lenguaje y reglas
que comunican ordenadores. TCP/IP es el principal protocolo de Internet.

14.3.8.2. Características
La web se ha convertido en el sistema de información por excelencia de Internet. Sus caracterís-
ticas más importantes son:
– Información por hipertexto: como antes mencionábamos, consiste en que diversos ele-
mentos (texto o imágenes) de la información que muestra la pantalla están vinculados con
otras fuentes. Para acceder a esta otra información bastará con hacer clic sobre dichos
elementos.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 611


REDES DE ORDENADORES

– Gráfico: en la pantalla aparece simultáneamente texto, imágenes e incluso sonidos y ani-


maciones.
– Global: se puede acceder a él desde cualquier tipo de plataforma, usando cualquier nave-
gador y desde cualquier parte del mundo.
– Pública: la información está distribuida en miles de ordenadores que ofrecen su espacio
para almacenarla. La mayoría de la información es pública y accesible por el usuario, aunque
también existen recursos por los que hay que pagar.
– Dinámica: la información puede ser actualizada en cualquier momento para reflejar mejo-
ras, comentarios, innovaciones, etc.
– Independiente: dada la inmensa cantidad de fuentes de información, es independiente y libre.

14.3.8.3. Conceptos y principios de funcionamiento


El funcionamiento de la web se basa en el modelo cliente/servidor:
– Un servidor Web es un programa que funciona en un ordenador de gran capacidad cuya
función principal es facilitar información solicitada por otros ordenadores en forma de docu-
mentos con una estructura específica. El servidor sólo trabaja cuando se le solicita informa-
ción, utilizando un protocolo denominado HTTP. Esta técnica es muy eficaz ya que el cliente
sólo necesita una pequeña parte de los recursos del servidor.
– Un cliente Web, también llamado navegador, es un programa que se ejecuta en el equipo
del usuario y que permite a éste solicitar documentos a un servidor. Para ello debe ser capaz
de comunicarse con un servidor y comprender los diversos lenguajes y formatos en los que
se manejan la información en la WWW. Aunque cualquier compañía de software podría crear
un navegador propio, los más populares y ampliamente aceptados son Netscape e Internet
Explorer.
Los navegadores ofrecen la opción de iniciarse en una página www concreta, a la preferencia
del usuario. Por ejemplo, en Internet Explorer es muy fácil especificarla (menú Herramientas,
Opciones de Internet).
Algunas compañías distribuyen navegadores gratuitamente con el objeto de crear un reco-
nocimiento de su nombre que proporcione valor añadido a otros productos de su empresa.
En la actualidad existen dos navegadores que están en pleno auge: NetScape Navigator e
Internet Explorer de Microsoft.
– HTTP (HyperText Transfer Protocol): Protocolo de transferencia de hipertexto: es el me-
canismo más extendido utilizado por los servidores y los navegadores para comunicarse. Este
protocolo regula las solicitudes de los navegadores y la transferencia de ficheros HTML por
parte de los servidores. HTTP proporciona al sistema características multimedia, soportando
la recuperación y presentación de texto, gráficos, animaciones y la reproducción de sonido.
HTTP maneja múltiples protocolos de aplicación permitiendo al usuario acceder a muchos
servicios, tales como FTP, Gopher y WAIS. Dado que el protocolo HTTP es la base de la mayor
parte de transacciones Web, los servidores Web HTTP se llaman también servidores HTTP.
– HTML (HyperText Markup Language): Lenguaje para marcado de hipertexto. La infor-
mación que el servidor envía al cliente web está codificada mediante este lenguaje, que
estructura y formatea documentos a partir de texto en la WWW. HTML se basa en etiquetas
(instrucciones que indican cómo debe mostrarse el texto) y atributos (parámetros que dan
valor a la etiqueta).
– URL (Universal Resource Locator): Localizador Universal de Recursos: dirección que loca-
liza una información en Internet. Los URL constan de tres partes:
* Protocolo: es el programa que utilizará el navegador para obtener el archivo elegido
(HTTP, FTP, Gopher, etc.).
* Nombre del host: sistema donde se encuentra almacenada la información que busca-
mos.
* Ruta del fichero: ubicación del archivo dentro del host.

612 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


REDES DE ORDENADORES

Por ejemplo:
KWWSZZZELHQYHQLGRVHVSXEOLFRVDOXGRVKWPO

Ruta del fichero

Nombre del host

Protocolo

Entre los principales tipos de URL destacan:


– HTTP: son los más populares ya que son los utilizados por los servidores de WWW para enviar
documentos a través de Internet.
– FTP: se utilizan para referenciar archivos situados en servidores que usan el protocolo FTP
(File Transfer Protocol). Este protocolo es normalmente utilizado para enviar y recibir ficheros.
Es el protocolo que se usa para enviar nuestras páginas al servidor de Internet.
– File: apuntan hacia archivos contenidos en el mismo disco donde se encuentra el navegador.
No resulta muy interesante utilizar estos URL, puesto que el acceso de otras personas desde
otros sistemas, generalmente fallará.
– Mailto: se usa para mandar correos electrónicos. Cuando seleccionamos este tipo de URL se
abre la aplicación de correo electrónico de nuestro ordenador para enviar un correo a la dirección
hacia la que apunta el URL. La forma estándar es: mailto:webmaster@bienvenidos.es
– News: URLs de grupos de noticias; en estos servidores se almacenan mensajes donde se
discuten sobre diferentes temas.

INTERNET

Equipo de
usuario
HTTP

Servidor

Navegador:
Interpreta el
código HTML y
muestra la página

HTML: Define la URL: Define la


estructura de la localización de
página web la página web
en Internet

Este esquema muestra los diferentes conceptos introducidos anteriormente.


El cliente envía una petición al servidor solicitando un documento que se identifica por su dirección URL.
Esta solicitud se realiza utilizando un protocolo denominado HTTP. Cuando el servidor localiza el documento requerido (que nor-
malmente estará en otro servidor), lo envía al navegador en formato HTML para que éste lo interprete y lo muestre en pantalla.
Los documentos Web o HTML permiten acceder a otros documentos enlazados en cualquier lugar del mundo,
sin más que hacer clic sobre la palabra o frase de hipertexto. Lo cual hace que este sistema funcione como una enorme telara-
ña (“web” en inglés) de información.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 613


REDES DE ORDENADORES

Un navegador mostrando una página web.


El interface de los sistemas web presenta al usuario la información en forma de pantallas o
páginas diseñadas mediante HTML, permitiendo combinar texto, gráficos e iconos, imágenes, música y vídeo digital.

Lo negativo de la web es que exige conexiones rápidas y que genera mayor volumen de tráfico que
cualquier otro servicio. Además requiere una conexión TCP/IP totalmente funcional, detalle que hoy en
día no es tan importante como antes, cuando las comunicaciones carecían de la fiabilidad actual.
Por otra parte, los servidores web incluyen actualmente servicios de encriptación y autentificación
del cliente, de modo que los usuarios puedan enviar y recibir datos con seguridad.
Durante los últimos años Internet está creciendo de forma exponencial, siendo la web el servicio
que más está impulsando este éxito. La web permite acceder de una forma fácil y muy intuitiva a
todas las posibilidades de la red, resultando además, para las organizaciones, una manera atractiva
de informar de sus actividades o servicios.

14.3.9. Buscadores

14.3.9.1. Definición
En informática un buscador es una herramienta que permite al usuario encontrar un documento
que contenga una determinada palabra o frase.
Los motores de búsqueda son sistemas que buscan en Internet (algunos buscan sólo en la Web
pero otros buscan además en News, Gopher, FTP, etc.) cuando se les pide información sobre algún
tema. Las búsquedas se hacen con palabras clave o con árboles jerárquicos por temas; el resul-
tado de la búsqueda es un listado de direcciones Web en las que se mencionan temas relacionados
con las palabras clave buscadas.
Se pueden clasificar en dos:
– Índices temáticos: sistemas de búsqueda por temas o categorías jerarquizados (aunque
también suelen incluir sistemas de búsqueda por palabras clave). Se trata de bases de datos
de direcciones Web elaboradas “manualmente”, es decir, hay personas que se encargan de
asignar cada página Web a una categoría o tema determinado.
– Motores de búsqueda: por palabras clave. Son bases de datos que incorporan automáti-
camente páginas web mediante “robots” de búsqueda por la red.

614 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


REDES DE ORDENADORES

Como operan de forma automática, los motores de búsqueda contienen generalmente más
información que los directorios. Sin embargo, estos últimos también han de construirse a partir de
búsquedas (no automatizadas) o bien a partir de avisos dados por los creadores de páginas (lo cual
puede ser muy limitativo). Los buenos directorios combinan ambos sistemas.
NOTA: una cuestión muy importante es el orden en que aparecen las con-
sultas, ya que los usuarios solo suelen leer las primeras. Puede haber algoritmos
que ubiquen en primer lugar las páginas Web que mejor se adapten a las palabras
introducidas, pero en otros casos se cobra por aparecer en primer lugar.

14.3.9.2. Funcionamiento
Cada buscador tiene sus propias formas de realizar las búsquedas, así que se recomienda leer el
documento de ayuda correspondiente. Aún así existen ciertas convenciones muy aceptadas y exten-
didas que pasamos a describir.
– Lenguaje natural: Se plantea la búsqueda en lenguaje natural. Es decir, si queremos buscar
documentos sobre el desarrollo de los microprocesadores, en la mayoría de los buscadores
podemos simplemente escribir: Desarrollo de los microprocesadores
Los principales buscadores admiten búsquedas en lenguaje natural.
– Páginas relacionadas: los buscadores incorporan algún tipo de función que busca páginas
semejantes a la localizada (por ejemplo, related en Google o like en Altavista).
– Frases literales: si queremos que una determinada frase forme parte del documento o
documentos en que estemos interesado, la podemos teclear precedida y seguida por el
símbolo “dobles comillas”.
– Términos requeridos y excluyentes: mediante el signo menos, excluimos términos. Por
ejemplo, podemos indicar que no queremos que nos muestre documentos en los que apa-
rece la palabra “Microsoft”, en este caso escribiríamos: comercio electrónico contabilidad
–Microsoft
– Mayúsculas, minúsculas: algunos buscadores como Google simplemente no distinguen
entre mayúsculas o minúsculas y es indiferente ponerlo de una u otra forma.
Pero para otros, como Altavista, las minúsculas es el caso general. Si se pone la palabra en
minúsculas Altavista busca todas las palabras, tanto en mayúsculas como en minúsculas.
Por el contrario, si se pone la palabra en mayúsculas (o solo la primera letra) solo busca
aquellas palabras que se hayan escrito con mayúsculas.
– Comodines: El uso de comodines (*) es muy importante y puede usarse en buscadores
como Altavista y Yahoo!, pero no en Google. Por ejemplo, para que busque tanto las palabras
en singular como plural o raíces de palabras.
– Operadores booleanos: Google admite el uso de OR (con mayúsculas). Para buscar sobre
Bill Gates, podemos probar con: bill OR william gates
Altavista (seleccionando “búsqueda avanzada”) permite búsquedas booleanas. En este caso,
en vez de usar + y -, se utilizan los términos AND, OR, NOT, y más posibilidades como NEAR,
que localiza documentos que tienen las dos palabras alejadas como máximo 10 palabras. En
la búsqueda avanzada también se puede limitar la búsqueda a documentos que hayan sido
publicados o modificados por última vez en un intervalo de tiempo.
– Caracteres especiales: se recomienda consultar la ayuda de cada buscador, por ejemplo,
en Altavista o Google no es necesario poner acentos o eñes. Incluso es mejor no hacerlo,
pues si se emplean acentos u otras marcas diacríticas, AltaVista sólo mostrará los documen-
tos cuya identificación coincida exactamente con los términos empleados en la búsqueda:
al poner “electrónico” buscará solo si aparece “electrónico”. En cambio “electronico”, busca
tanto con acento como sin acento.
En Google, si se desea distinguir palabras con y sin eñe, utilizamos el signo +, es decir,
escriba [+cana] en vez de [+caña].

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 615


REDES DE ORDENADORES

– Funciones: Los buscadores no se limitan a buscar textos, sino que mediante el uso de fun-
ciones especiales permite identificar:
* Las páginas con la palabra o frase especificada en el nombre de dominio.
* Las páginas que residan en un servidor web específico.
* Las páginas que contienen alguna imagen.
* Las páginas que contengan algún enlace a un servidor determinado, y muchas más.

14.3.9.3. Historia
El primer buscador fue Wandex, un índice (ahora desaparecido) realizado por la World Wide Web
Wanderer, un robot desarrollado por Matthew Gray en el MIT, en 1993. Otro de los primeros busca-
dores, Aliweb, también apareció en 1993 y todavía está en funcionamiento.
El primer motor de búsqueda de texto completo fue WebCrawler, que apareció en 1994. A di-
ferencia de sus predecesores, éste permitía a sus usuarios una búsqueda por palabras en cualquier
página web, lo que llegó a ser un estándar para la gran mayoría de los buscadores. WebCrawler fue
también el primero darse a conocer ampliamente por el público. También apareció en 1994 Lycos
(que comenzó en la Carnegie Mellon University).
Muy pronto aparecieron muchos más buscadores, como Excite, Infoseek, Inktomi, Norther-
nLight y Altavista. De algún modo, competían con directorios (o índices temáticos) populares tales
como Yahoo! Más tarde, los directorios se integraron o se añadieron a la tecnología de los buscado-
res para aumentar su funcionalidad.
Antes del advenimiento de la Web, había motores de búsqueda para otros protocolos o usos,
como el buscador Archie, para sitios FTP anónimos y el motor de búsqueda Verónica, para el pro-
tocolo Gopher.
En la actualidad se aprecia una tendencia por parte de los principales buscadores de Internet a dar el
salto hacia entornos móviles creando una nueva generación de buscadores: los buscadores móviles.
Alrededor de 2001, el buscador Google adquirió prominencia. Su éxito estaba basado en parte
en el concepto de popularidad basado en PageRank, bajo la premisa de que las páginas más de-
seadas eran más enlazadas por otras páginas que el resto. Esta idea permitió a Google disponer las
páginas de una determinada búsqueda en función de su importancia, basada en este algoritmo, esto
es, las páginas más enlazadas por otras páginas se mostraban en primer lugar. La interfaz minimalista
de Google se hizo muy popular entre los usuarios y desde entonces ha tenido un gran número de
imitadores.
Google y muchos otros buscadores no sólo usaban PageRank, sino más de 150 criterios para
determinar la relevancia de una web.
En 2004, Yahoo! lanzó su propio buscador basado en una combinación de tecnologías de sus
adquisiciones y proporcionando un servicio en el que ya prevalecía la búsqueda en Webs sobre el
directorio.
El más reciente de los grandes buscadores es Live (antes MSN Search), de Microsoft, que
previamente dependía de otros para listar sus búsquedas. En 2004 debutó una versión beta con sus
propios resultados, impulsada por su propio robot (llamado msnbot). Al principio de 2005 comenzó
la versión definitiva.
El mercado está ahora dominado por Google, Yahoo y Microsoft. El resto de grandes buscadores
tienden a ser portales que muestran los resultados de otros buscadores y ofrecen, además, otro tipo
de contenidos que tienen mayor o menor importancia en la página como hace el propio Yahoo!
Noxtrum es el primer motor de búsqueda global diseñado por una empresa española, Telefónica
Publicidad e Información lanzado al mercado en versión Beta el 1 de diciembre de 2005. Su objetivo
es ser el líder en las búsquedas en Internet del mundo hispanohablante, y para ello está especializado
en las búsquedas locales, actualmente sólo operativas en España.
Noxtrum parte de la implementación de FAST para construir su propio motor de búsqueda, con lo
que realmente no cuenta con tecnología de búsqueda propia, sino que adapta al español la tecnolo-
gía usada en su día por navegadores como AllTheWeb, hoy propiedad de Yahoo.

616 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


REDES DE ORDENADORES

14.3.9.4. Buscadores y directorios más importantes


Buscadores:
– Google (http://www.google.com)
– Excite (http://www.excite.com)
– Netscape (http://www.netscape.com)
– Infoseek (http://www.infoseek.com)
– Lycos (http://www.lycos.com)
– Wisenut (http://www.wisenut.com)
– Raging (http://ragingsearch.altavista.com)
– AltaVista (http://www.altavista.com) y (http://es.altavista.com)
– MSN (http://search.msn.com/
– Northernlight (http://www.northernlight.com)
– Webcrawler (http://webcrawler.com)
– Direchit (http://www.directhit.com)
– Hotboot (http://www.hotbot.com)
– Altheweb (http://www.alltheweb.com)
– Overture (http://www.overture.com)
Buscadores especializados:
– Científicos: Scirus (http://www.scirus.com)
– Noticias: Google News (http://news.google.com)
– Imágenes: Google Images (http://images.google.com)
– Compras:
* Dealtime (http://www.dealtime.com)
* Froogle (http://www.froogle.com)
* Yahoo compras (http://shopping.yahoo.com)
Buscadores selectivos:
– Ask (http://www.ask.com)
– Teoma (http://www.teoma.com)
– Highbeam (http://www.highbeam.com)
Metabuscadores:
– Metacrawler (http://www.metacrawler.com)
– Myway (http://myway.com)
– Dogpile (http://www.dogpile.com)
– Kartoo (http://www.kartoo.com)
– Ez2www (http://www.ez2www.com)
– SurfWax (http://www.surfwax.com)
– Vivisimo (http://www.vivisimo.com)
– Ixquick (http://www.ixquick.com)
– Beaucoup (http://www.beaucoup.com)
– Qbsearch (http://www.qbsearch.com)

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 617


REDES DE ORDENADORES

Directorios:
– Terra (http://buscador.terra.es/terra/inc/directorio.html)
– Yahoo (http://www.yahoo.com) y (http://www.yahoo.es).
– Directorio de Google (http://directory.google.com).
– The Open Directory: (http://dmoz.org) realizado por miles de voluntarios.
– About (http://www.about.com).
– Looksmart (http://www.looksmart.com)
– Librarians' Index to the Internet (http://www.lii.org)
– Ozú (http://categorias.ozu.es)
– El índice (http://www.elindice.com)

14. 4. OTRAS POSIBILIDADES


Todas aquellas actividades que implican la comunicación de información han tenido un gran
desarrollo en Internet. Es posible realizar desde simples consultas de información hasta operaciones
bancarias, envío de documentos confidenciales, compras de productos y los pagos correspondientes
mediante tarjetas de crédito, etc.
Existen numerosos servicios disponibles, muchos de los cuales no se hubieran podido imaginar hasta
hace poco tiempo: teletrabajo, telecompra, teleeducación, telemedicina, teletramitación, telebanca, etc.
Una buena prueba de la apuesta de la Administración por las posibilidades de las autopistas de
la información, es que en los últimos años la Unión Europa ha destinado 67.000 millones de euros al
desarrollo de redes de telecomunicaciones europeas en cuatro áreas prioritarias: teletrabajo, teleen-
señanza, telemedicina y teleadministración.

14.4.1. Teletrabajo
Por teletrabajo entendemos cualquier actividad profesional realizada en cual-
quier momento y en un lugar independiente del emplazamiento común de trabajo,
gestionada mediante redes de comunicaciones y transmisión de datos.
Gran parte de las tareas de oficina realizadas por los trabajadores en las dependencias de la
empresa podrán llevarse a cabo desde puntos distantes. Si el usuario dispone de medios de comuni-
cación para acceder remotamente a los recursos que necesite para el desempeño de sus funciones
laborales se elimina la necesidad del desplazamiento habitual, con un considerable el ahorro de
tiempo, riesgos y gastos de transporte, etc. En contrapartida se requiere un uso intensivo de las tele-
comunicaciones y las tecnologías de la información.
El teletrabajo un concepto revolucionario desde el punto de vista económico y social que puede
modificar aspectos fundamentales de la vida tal y como ahora la conocemos.
Para los empresarios puede significar:
– Una disminución considerable del espacio necesario para instalar sus oficinas, y de otros
costes como los de instalación, mobiliario, etc.
– Reducir considerablemente el absentismo laboral.
– Aumento de la eficacia y la productividad, ya que el criterio a aplicar se basa en los resulta-
dos y no en las horas dedicadas.
– Acceso a los mercados externos.
Por ejemplo, aquellas empresas que necesiten representaciones en puntos distantes no nece-
sitarían disponer de infraestructura en cada delegación regional, sino sólo a nivel nacional, donde
acceden los empleados desde puestos remotos, por ejemplo, desde su propia casa. Esto evita la
necesidad de una organización de centros similares en distintas ciudades y provincias, además de los
costes de administración y mantenimiento que eso conlleva.

618 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


REDES DE ORDENADORES

Para los empleados puede suponer:


– Mayor calidad de vida.
– Mayor flexibilidad para organizar el tiempo libre.
– Menores costes de transportes, comidas, vestimenta relacionada con el trabajo...
– Mayor libertad para elegir el lugar donde vivir con lo que ello implica la posibilidad de cambiar
de trabajo sin tener que cambiar de vivienda.
– Ampliar el número de personas o empresas interesados por sus servicios.
La sociedad en general se verá beneficiada, de muy diversas formas:
– Menor contaminación en las ciudades.
– Menor número de accidentes de tráfico.
– Menor concentración de habitantes en una misma zona geográfica y su lógica repercusión
en el precio de la vivienda, de los servicios, de la alimentación.
Todo lo expuesto permite afirmar que la posibilidad real hoy en día de que una persona pueda
trabajar en una empresa desde cualquier otro lugar del mundo representa el cambio más grande
habido en nuestra sociedad desde la revolución industrial. Prueba de ello es que la Unión Europea
destinó una inversión de 3000 millones de euros en el año 2000 para fomentar el Teletrabajo, y se
estima que el número de trabajadores que hicieron uso de este a finales de siglo pasado alcanzó los
diez millones de personas.

14.4.2. Teleeducación
La unión de la tecnología multimedia con la de telecomunicaciones abre un enorme campo de
posibilidades: clases interactivas seguidas desde el hogar, un gran despliegue de imágenes y sonidos
actuando como recursos didácticos, realización de exámenes calificados inmediatamente, etc.
En el sistema de teleenseñanza, los cursos serán editados con técnicas de hipertexto, que in-
cluyen además imágenes, sonidos, animaciones, etc., imponiendo un tipo de lectura no lineal de
contenidos, en la que el lector construye su propio camino, saltando de un tema a otro de acuerdo
con sus propias necesidades e inquietudes. Esto redundará en una mayor eficacia del proceso de
aprendizaje.
Por todo ello los cursos a través de la Teleenseñanza permitirán aplicaciones multimedia que
harán más amena y atractiva la enseñanza.
Otras ventajas serán el acceso a la más amplia oferta divulgativa: facilitar el acceso y consulta de
bibliotecas, transferir conocimientos entre el personal docente, etc.

14.4.3. Juegos y entretenimientos


Empresas de ocio y entretenimiento ofrecen la más amplia variedad de productos y servicios. Per-
mite a cines, teatros y demás salas de espectáculo mostrar su cartelera, su horario de sesiones, etc.
Las agencias de viajes y otras empresas de servicios permiten realizar reservas desde casa (online).
Las posibilidades de los servicios online facilitan el acceso a todo tipo de programas relacionados con
la diversión y entretenimiento, incluyendo:
– Versiones interactivas de juegos tan populares como el ajedrez.
– Juegos de rol, con la posibilidad de jugar una partida entre varios usuarios conectados.
– Películas e información sobre ellas.
– Visitas a museos y exhibiciones.
– Teletertulias.
– Etc.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 619


REDES DE ORDENADORES

14.4.4. Telemedicina
Uno de los campos que se beneficiarán del uso de los servicios telemáticos es la Medicina, desde
diferentes aspectos. Por ejemplo, si un organismo público o privado centralizase todas las historias clínicas
de los pacientes, las consultas se verían notablemente agilizadas. De esta forma, en el caso de que una
persona acuda a una consulta en cualquier punto de la geografía, el médico podría acceder a través de
Internet a la historia clínica del mismo, que incluiría, claro está, las diferentes imágenes de rayos X, los
gráficos de los últimos electrocardiogramas, las analíticas, etc. Además hospitales y clínicas pueden inter-
cambiar diagnósticos con otros centros, transferir informes y pruebas y acceder a historiales clínicos.
Las nuevas posibilidades del diagnóstico remoto (telediagnóstico), doctor on-line, etc., permitirán
a la población un sistema más eficiente de controlar ciertos aspectos relativos a la salud y además
a menor coste para todos. Efectivamente, las personas que viven en lugares remotos donde no es
posible el acceso inmediato a un hospital, las revisiones periódicas, el diagnóstico y tratamiento de
ciertas enfermedades, etc., requerirían grandes y pesados desplazamientos. Mediante una conexión
a Internet cualquiera de ellas podría acceder a la consulta de los teleespecialistas que, a partir de
los síntomas podría diagnosticar y someter a tratamiento muchos de los casos menos graves, con la
posibilidad de que puedan intercambiar opiniones entre ellos antes de tomar la decisión final.
En un futuro bastará con una cámara de vídeo bidireccional y un conjunto de sensores especia-
les, convenientemente integrados en una interface adecuada para que los especialistas realicen los
exámenes médicos a distancia, en la propia casa del paciente. Los dispositivos electrónicos como
estetoscopios, tensiómetros, termómetros, etc., permitirán a éstos examinarles los pulmones, las
gargantas, los ojos, etc., vía imágenes en vídeo y representaciones gráficas de los resultados.
La implementación total de estas aplicaciones significará un cambio profundo en la profesión
médica que deberá aprovecharse de ellas para conseguir mejores resultados.

14.4.5. Teleperiódicos
Internet ofrece la posibilidad de realizar la lectura masiva del periódico electrónico o teleperiódi-
co. Dicho periódico estará formado por un conjunto de páginas HTML, con información presentada
atractivamente, incorporando imágenes, audio, crucigramas y pasatiempos interactivos, etc., que
estará en un ordenador, en la empresa editora.
Esta puede optar por hacer suscripciones o permitir el libre acceso a sus servicios, con el con-
siguiente aumento de ingresos por publicidad. También podrá elegir entre visualizar sólo el periódico
del día o todos los anteriores configurándose así en una telehemeroteca.

14.4.6. Telecompra
El incremento de las redes públicas y privadas ha llevado a las empresas a intentar utilizar estos
medios para realizar nuevos negocios. Cada día es más frecuente la compra electrónica de productos,
el pago a través de la red, realizar transacciones bancarias, suscripciones, reservas, incluso realizar
acuerdos entre empresas.
¿Cómo es esto posible? Una de las posibilidades prácticas del usuario general es la de acceder
a las páginas Web de grandes almacenes, de editoriales, de empresas de venta de ordenadores, y en
general, a cualquier proveedor comercial; y comprar todo aquello que necesite desde su propia casa.
Aparece así el concepto de telecompra, servicio que ya se ha implantado a gran escala y con éxito en
otros países europeos y norteamericanos.
Para que el concepto de telecompra derive hacia una implantación práctica, es imprescindible
garantizar la seguridad en las transacciones económicas que se establecen a través de Internet. Este
hecho puede generalizarse para todos los servicios electrónicos que impliquen un trasvase de infor-
mación confidencial. Efectivamente, la verdadera implantación de estos servicios pasa por la confian-
za de proveedores y usuarios en la seguridad y privacidad de los datos que se transmiten.
Los requisitos de una transacción segura son:
– Autenticidad: garantizar que las dos partes involucradas en una transacción sean verdade-
ramente quienes dicen ser. Este punto es esencialmente importante para los usuarios que
acceden a un servidor, que deben estar seguros de la legitimidad del mismo.

620 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


REDES DE ORDENADORES

– Integridad: el mensaje recibido por una de las partes debe ser idéntico al enviado por la
otra. Dicho en otras palabras, no debe haber alteraciones de la información enviada, en su
recorrido por la red, que sean accidentales o intencionadas.
– Confidencialidad: los mensajes enviados sólo podrán ser leídos por el destinatario. Esto
significa que ninguna persona en la red puede interferir e interpretar dichos mensajes.
– Imposibilidad de negar haber realizado una transacción. Ninguna de las partes puede
negar que ha enviado o recibido los mensajes correspondientes. De esta forma, si se cierra
un trato a través de la red y una de las partes no cumple con lo pactado, la otra podría efec-
tuar las acciones legales correspondientes. Los mensajes deben tener la misma validez que
si estuviesen escritos en papel y firmados.

14.4.7. Telebanca
Un servicio con creciente demanda en el contexto de las comunicaciones entre ordenadores será
la posibilidad de que cualquier usuario pueda acceder, desde su casa, y disponiendo de los medios
adecuados, a sus cuentas bancarias y realizar cualquier operación entre ellas, incluyendo transferen-
cias, pagos, emitir recibos, consultar movimientos, etc. No tendrá pues que permanecer en largas
colas ni preocuparse por la hora para realizar la mayoría de las transacciones.
Actualmente, existen herramientas muy populares en Estados Unidos y el Reino Unido que per-
miten llevar la contabilidad de la casa. La integración de éstas dentro del software del Banco y la
posibilidad de acceder a los datos de las cuentas en tiempo real, para que todas las operaciones
efectuadas (pago de recibos, acreditación de ingresos, etc.) se reflejen automáticamente en las
cuentas corrientes será un tema a considerar por los Bancos. Constituiría un servicio de valor añadi-
do, fundamental en el mundo de competencia electrónica que se avecina.
Los conceptos referentes a la seguridad en la comunicación de información confidencial son muy
importantes para una implantación de la telebanca como un servicio efectivo y fiable.

Sitio web de un banco donde se pueden realizar las operaciones bancarias más frecuentes sin moverse de casa.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 621


REDES DE ORDENADORES

14.4.8. Otros servicios


Las posibilidades de las autopistas de la información son prácticamente ilimitadas, además de
los servicios anteriores, podemos mencionar:
– Información general: las empresas y entidades más prestigiosas ofrecen información de
carácter general, estudios de mercado, informes comerciales, seminarios, información bur-
sátil, deportiva, etc.
– Administración en línea: Ministerios, Comunidades Autónomas y Ayuntamientos facilitan el
acceso a los documentos y procesos administrativos más importantes.
– Cultura: museos y fundaciones ofrecen informaciones sobre sus exposiciones, coloquios y
otras actividades.
– Acceso a redes telemáticas
– Investigación de mercado: identificación de clientes potenciales, realizar encuestas, ela-
borar estrategias de venta, evaluar resultados, elaborar estadísticas...
– Publicidad: permite introducir información comercial orientada a la venta: Catálogo de pro-
ductos y servicios, precios y condiciones de venta, puntos de venta y distribuidores más
cercanos, posibilidad de probar el producto (por ejemplo, audición de discos, visualización
de un vehículo, etc.).

14.5. TECNOLOGÍA DE INTERNET

14.5.1. Direcciones y dominios


Si se considera Internet como una multitud de ordenadores conectados en una gran red, necesi-
tamos un mecanismo para poder acceder específicamente a cualquiera de ellos. Los ordenadores se
identifican en Internet mediante una dirección, de forma análoga a como el cartero reconoce nuestra
casa cuando tiene que entregar una carta, con la diferencia de que la dirección del ordenador es
electrónica.
NOTA: La dirección que identifica un ordenador de forma única en Internet se
denomina dirección IP, en alusión al protocolo principal de Internet.
Desde el nivel más básico, la dirección de un ordenador en Internet es una cadena binaria de
muchos dígitos, por ejemplo:

10100010 01000101 01010000 10100010

Este sistema es difícil de manejar por el ser humano que, por simplicidad, lo transforma en cuatro
números decimales separados por puntos. Debido a ciertas razones técnicas, estos números tienen
la particularidad de no superar nunca la cantidad de 255, por ejemplo:

10.231.128.3

Aunque el formato anterior es más sencillo que el binario, aún sigue siendo engorroso trabajar
con conjuntos de números. Un paso adicional en la simplificación de la identificación en Internet viene
dado por la creación de dominios y subdominios.
El método de direccionamiento basado en dominios se denomina DNS (Domain Name Resolu-
tion o Resolución de nombres de dominios), y consiste en traducir las direcciones IP numéricas en
nombres más fáciles de recordar y manejar. Estos nombres siguen una estructura jerárquica separada
por puntos de la siguiente forma:

Subdominio. Dominio. Dominio genérico

Por ejemplo:
tec.empresa_fulanita.es

622 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


REDES DE ORDENADORES

Esta dirección podría corresponder al ordenador del departamento técnico (tec) de una empresa
denominada “Fulanita” en España (es).
La jerarquía de dominios y subdominios puede hacerse tan compleja como se quiera, pero los
dominios genéricos los controla la organización InterNIC, de la que hablamos anteriormente. Existen
8 dominios genéricos:
– 5 internacionales:
* .com para sociedades comerciales.
* .edu para instituciones educativas.
* .net para organizaciones en red.
* .org para ONGs (organizaciones sin ánimo de lucro).
* .int para complejos internacionales.
– 2 específicos de los Estados Unidos:
* .gov para instituciones gubernamentales.
* .mil para organizaciones militares.
– 1 que representa a cada país mediante dos letras, por ejemplo .es para España, .uk para
Inglaterra (United Kingdom), etc.
En cada subdominio pueden existir una serie de usuarios que se añaden a esta cadena mediante
un símbolo denominado arroba: @. La dirección de un usuario en Internet queda especificada de la
siguiente forma genérica:

usuario@subdominio.dominio.dominio genérico

Por ejemplo:

pepe_perez@ctd.junta-andalucia.es

14.5.2. Formatos

14.5.2.1. SGML
SGML fue creado para solucionar los problemas de compartir documentos en un entorno multi-
plataforma como es Internet. Se centra en los elementos del documento, de modo que el receptor de
la información está libre de las selecciones privadas del autor. Permiten redimensionar las ventanas,
obteniendo un empleo óptimo de la pantalla, e imprimir los documentos de modo que la impresión
conserva su formato original.

14.5.2.2. HTML
Partiendo de SGML se creó HTML como un formato simple de distribución sin derechos de pro-
piedad. Al igual que SGML, proporciona un método común de auditoría y conversión de formato. Los
documentos escritos en HTML tienen la extensión ’html‘ o ’htm‘. Estos documentos no son más que
archivos ASCII convencionales con códigos de formato que contienen información sobre su diseño, tal
como los estilos de texto, los títulos de los documentos, los párrafos, las listas y los hiperenlaces.
Actualmente HTML incluye imágenes, sonido, vídeo y pantallas interactivas a través de CGI (Common
Gateway Interface), ActiveX de Microsoft (antes denominado OLE control) y Java de Sun Microsystem.
Es posible diseñar documentos HTML mediante un editor de textos estándar, aunque existen una
serie de programas que permiten ahorrar tiempo y esfuerzo en el proceso de creación y de verifica-
ción. Existen los siguientes tipos básicos:
– Editores independientes: no necesitan de ningún soporte de software para funcionar co-
rrectamente, aunque algunos de ellos se han escrito en Visual Basic y requieren la biblioteca
VBRUN300.DLL. Entre los más conocidos se encuentran: HotMetal, HotDog, HTML Assis-
tant, HTML Led, Live Markup, HTML HyperEdit, HTML Writer y Web Publisher.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 623


REDES DE ORDENADORES

– Plantillas de procesadores de texto: la ventaja de utilizar plantillas de procesadores de


texto es que ya se suele estar familiarizado con su uso, aunque esta técnica ofrece grandes
limitaciones. Plantillas conocidas son Internet Assistant para Word de Microsoft y Web
Author de Quarterdeck.
* Basados en las normas: obligan a introducir etiquetas en lugares adecuados, que ayu-
dan a obtener documentos HTML correctos. El inconveniente es que el uso de etiquetas
poco convencionales suelen generar errores.
* Editores sin verificación: estos, por el contrario, permiten utilizar dichas etiquetas,
pero no el control y verificación de errores se ve muy mermado por esta característica.

14.5.2.3. HTML dinámico


HTML Dinámico (Dynamic HTML) se refiere al contenido web que cambia cada vez que es
visualizado. Por ejemplo, un mismo URL podría resultar en diferentes páginas web dependiendo de
parámetros como:
– La localización geográfica del solicitante.
– Hora del día.
– Páginas previas visitadas.
– Perfil del usuario.
Existen muchas tecnologías para producir HTML dinámico, entre ellas Scripts CGI, cookies, Java,
Javascript, ActiveX, etc.
HTML dinámico también se refiere a una nueva extensión del lenguaje HTML que permite a
una página web reaccionar a las entradas del usuario sin necesidad de enviar nada al servidor (por
ejemplo, para comprobar los campos introducidos en un formulario), técnica que reduce considera-
blemente el tráfico por la red.

14.5.2.4. XML
XML (Extensible Markup Language) es una especificación desarrollada por W3C. Al igual que
HTML, XML es una versión de SGML diseñada especialmente para documentos en la web.
XML permite a los diseñadores definir sus propias etiquetas personalizadas, habilitando la defini-
ción, transmisión, validación e interpretación de datos entre aplicaciones y organizaciones.

14.5.2.5. CSS
CSS son las siglas de Cascade StyleSheet. Se trata de una especificación sobre los estilos físi-
cos aplicables a un documento HTML, y trata de dar la separación definitiva de la lógica (estructura)
y el físico (presentación) del documento.
Las hojas de estilo intentan separar en un documento el estilo lógico del estilo físico, dejando
este último en bloques de definición de estilos separados de la estructura del documento.
– El estilo lógico se refiere a la lógica del documento: cabeceras, párrafos... no se preocupa
de la apariencia final, sino de la estructura del documento.
– El estilo físico no se preocupa de la estructura del documento, sino por la apariencia final:
párrafos con un cierto tipo de letra, tablas con un determinado color de fondo, etc.

14.5.2.6. PDF
Es primordial en Internet la creación de una normativa para un formato multiplataforma trans-
portable, que permita a los usuarios ver los archivos sin importar cuál sea el tipo de ordenador que
estén utilizando (PC, Macintosh, Sun...). Adobe Acrobat es un conjunto de herramientas diseñadas
para crear y ver documentos en PDF (Portable Document Format) o formato de documento trans-
portable.

624 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


REDES DE ORDENADORES

14.5.3. Programación
Una de las grandes ventajas de la web es la posibilidad de recabar información instantáneamente
sobre los usuarios. Los formularios permiten que los usuarios introduzcan información en una página
HTML y la remitan, proporcionando un método de suministrar esa información a un programa especí-
fico que devuelva los resultados a un usuario. Es un modo muy flexible de procesar los datos enviados
desde un navegador Web, y pasados a través del servidor, y además es fácilmente transportable a
través de múltiples sistemas operativos.
– CGI es un interface estándar para que los programas de acceso externo puedan comunicar-
se con los servidores. Permite implementar formularios en las páginas HTML.
– Java: una importante área de desarrollo en Internet consiste en convertir los documentos
web en elementos activos que interactúen con el usuario. El más notable exponente es Sun
Computer y su lenguaje intérprete, llamado Java. Cuando se lee una página Java el navega-
dor carga el código necesario, llamado applet, y lo ejecuta. El código debe estar escrito en
el lenguaje Java para su ejecución. De esta manera, la transacción completa consume muy
poco tiempo (para su carga), pero puede ejecutarse durante más tiempo por sí misma.
– PHP: El lenguaje PHP es un lenguaje de programación de estilo clásico: con variables, sen-
tencias condicionales, bucles, funciones, etc. No es un lenguaje de marcas como podría
ser HTML, XML o WML. Está mas cercano a JavaScript o a C (para aquellos que conocen
estos lenguajes). A diferencia de Java o JavaScript que se ejecutan en el navegador, PHP se
ejecuta en el servidor. Esto permite acceder a los recursos que tenga el servidor, por ejemplo
una base de datos. El programa PHP es ejecutado en el servidor y el resultado enviado al
navegador. El resultado es normalmente una página HTML pero igualmente podría ser una
pagina WML.
– ASP es una tecnología desarrollada por Microsoft para crear páginas web de contenido diná-
mico apoyándose en scripts ejecutados en el servidor. Básicamente una página ASP es una
mezcla entre una página HTML y un programa que da como resultado una página HTML que
es enviada al cliente (navegador).
– Javascript: un documento HTML es crear algo de carácter estático, inmutable con el paso
del tiempo. La página se carga, y ahí termina la historia. Tenemos ante nosotros la informa-
ción que buscábamos, pero no podemos INTERACTUAR con ella. Como una solución a este
problema, se diseñó JavaScript. Se trata de un lenguaje de tipo script compacto, basado en
objetos y guiado por eventos diseñado específicamente para el desarrollo de aplicaciones
cliente-servidor dentro del ámbito de Internet. Los programas JavaScript van incrustados en
los documentos HMTL, y se encargan de realizar acciones en el cliente, como pueden ser
pedir datos, confirmaciones, mostrar mensajes, crear animaciones, comprobar campos,
etc.
– WAP y WML: WAP (Wireless Application Protocol) es un protocolo basado en los estándares
de Internet que ha sido desarrollado para permitir a teléfonos celulares navegar por la red.
Con la tecnología WAP se pretende que desde cualquier teléfono celular WAP se pueda ac-
ceder a la información que hay en Internet así como realizar operaciones de comercio elec-
trónico. WML es un lenguaje de marcas similar al HTML. WML es compatible con XML 1.0.
Las páginas WML son llamadas barajas ya que están compuestas por cartas, un navegador
WAP, y solo puede mostrar una carta al mismo tiempo.
– Flash: tecnología de animación basada en vectores. Es independiente del navegador y ocupa
un ancho de banda muy reducido. La capacidad de los navegadores para visualizar secuen-
cias de Flash dependen de si tienen o no el correspondiente módulo de ejecución instalado
(plug-in).
– VRML (Virtual Reality Modeling Language) o lenguaje de modelado de realidad virtual: este
lenguaje de realidad virtual soporta objetos dinámicos y en 3D. Funciona en los navegadores
Web basados en HTML aunque define objetos que pueden obtener diferentes tipos de datos,
tales como imágenes JPEG, archivos de sonido, videoclips, etc. Es un formato de archivo
abierto, es decir, independiente de la plataforma utilizada, para manejar y representar grá-
ficos tridimensionales en Internet. VRML intenta llevar imágenes de tres dimensiones a un
sistema bidimensional como nuestras pantallas de ordenador.

AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO 625


REDES DE ORDENADORES

14.5.4. Protocolos

14.5.4.1. SSL y S-HTTP (Secure HTTP)


SSL (Secure Sockets Layer), traducido literalmente como “capa segura de sockets”, es un proto-
colo desarrollado por la empresa Netscape para la transmisión privada vía Internet de documentos.
SSL utiliza una clave privada para encriptar la información transmitida a través de la conexión SSL.
Los navegadores web más actuales y difundidos, Netscape e Internet Explorer, soportan ambos el
sistema SSL, así como muchos servidores Web. SSL se utiliza para transmitir información confidencial
de los usuarios, por ejemplo números de tarjetas de crédito.
Existe una convención por la cual las direcciones URL que requieren una co-
nexión SSL comienzan por las siglas HTTPS en lugar de las tradicionales HTTP
Otro protocolo utilizado para transmitir información segura por la web se denomina S-HTTP (Se-
cure HTTP). Mientras que SLL crea una conexión segura entre un cliente y un servidor a través de la
cual fluye la información confidencial, S-HTTP está diseñado pata transmitir mensajes individuales de
forma segura. No por esto deben apreciarse ambos protocolos como competidores, sino más bien
como complementarios.
NOTA: tanto SSL como S_HTTP han sido aprobados por la IETF (Internet Engi-
neering Task Force) como estándares del sector.

626 AUXILIARES TÉCNICOS DE INFORMÁTICA DE LA JUNTA DE ANDALUCÍA. TEMARIO


Otras publicaciones de interés
de Editorial MAD

‰ Ayudantes Técnicos de la Junta de Andalucía. Opción Informática.


Test

‰ Igualdad de Género para las Oposiciones de la Junta de Andalucía


Temario y test

‰ Microsoft Access. A Fondo.


‰ Hojas de Cálculo

‰ Base de Datos

‰ Tratamiento de Textos

‰ Internet, La Red con Mayúsculas

‰ WORD 97 para opositores

‰ WORD 2000 para oposiciones

‰ EXCEL 97 para opositores

‰ EXCEL 2000 para opositores

Para más información sobre esta u otras obras, le recomendamos


la consulta de nuestra página web,
www.mad.es

You might also like