You are on page 1of 25

UNIVERSIDAD

NACIONAL PEDRO
RUIZ GALLO

ESCUELA DE INGENIERÍA DE SISTEMAS

 ASIGNATURA:

Arquitectura de Computadoras

 DOCENTE:

Ing. Salazar Carbonel Oscar Enrique

 ALUMNO:

Ayala Díaz Alexis Abdón


Sánchez Custodio Edgar Joel

Lambayeque, Marzo del 2019


ARQUITECTURA DE COMPUTADORAS

1. Análisis a partir de la tercera generación de las computadoras.


Tener en cuenta la evolución de los procesadores, memoria,
tamaño de equipos, etc. (respecto al hardware).
Asimismo, considerar la globalización y el acceso a las TI y el
internet así como el desarrollo del software, tanto de escritorio
como móviles (apps).
Proponer la existencia de cuarta o quinta generación de las
computadoras, de acuerdo a su análisis.

La tercera generación de la Computadoras (1964 a 1971):

Tecnología de hardware:
Las computadoras de tercera
generación utilizaron los chips de
circuito integrado (CI) .En un chip CI,
varios transistores se colocan en un chip
de silicio. El silicio es un tipo de
semiconductor. El CI fue inventado por
Jack Kilby de Texas Instruments y
Robert Noyce de Fairchild
Semiconductor. El uso de chip CI
aumentó la velocidad y la eficiencia de
la computadora, múltiple. El teclado y el
monitor se utilizaron para interactuar con la computadora de tercera generación, en
lugar de la tarjeta perforada y las impresiones.

Tecnología de software:
El teclado y el monitor se interconectaron a través del sistema operativo. El sistema
operativo permitió que diferentes aplicaciones se ejecutaran al mismo tiempo con
un programa central que monitoreaba la memoria. Los lenguajes de alto nivel se
utilizaron ampliamente para la programación, en lugar del lenguaje de máquina y el
lenguaje de ensamblador

Microprocesadores:
Los microprocesadores de tercera generación se introdujeron en el año 1978, como
indican los 8086 de Intel y el Zilog Z8000. Estos eran procesadores de 16 bits con
un rendimiento como mini computadoras. Estos tipos de microprocesadores eran
diferentes de las generaciones anteriores de microprocesadores en que todos los
principales industriales de estaciones de trabajo comenzaron a desarrollar sus
propias arquitecturas de microprocesadores basadas en ISC.
Red:
La creación de estándares de servicios web, algunos de
los estándares emergentes en diversos estados de
progreso a través del World Wide Web Consortium
(W3C). Los estándares establecidos incluyen:
SOAP (protocolo XML), Lenguaje de descripción de
servicios web (WSDL), Detección e integración de
descripción universal (UDDI).

Memoria:
Al principio se utilizaron memorias de núcleo magnético. Posteriormente fueron
reemplazados por memorias semiconductoras (RAM y ROM).
En esta generación, el tamaño de la memoria principal alcanzó aproximadamente
100 mb.
Se introdujeron la memoria caché y las memorias virtuales (la memoria caché hace
que la memoria principal aparezca más rápido de lo que realmente es. La memoria
virtual la hace mas grande)

Lenguajes de Programación:

 COBOL (Common Business Oriented Language) fue uno de los primeros


lenguajes de programación de alto nivel. Fue desarrollado en 1959 por un grupo
de profesionales de la informática llamado Conferencia sobre lenguajes de
sistemas de datos (CODASYL).
• El lenguaje que automatizan los negocios.
• Permite que los nombres sean realmente connotativos: permite nombres
largos (hasta 30 caracteres) y caracteres de conector de palabras (guiones)
• Ofrece objetos, entornos de programación visual, bibliotecas de clase.
• Integración con la World Wide Web.

 FORTRAN PL: Uno de los lenguajes de programación más antiguos, el


FORTRAN fue desarrollado por un equipo de programadores en IBM dirigido por
John Backus, y se publicó por primera vez en 1957. El nombre FORTRAN es un
acrónimo de FORmula TRANslation, porque fue diseñado para permitir la fácil
traducción de las matemáticas. Fórmulas en código.
• Fácil de aprender
• Máquina independiente: permite el fácil transporte de un programa de una
máquina a otra.
• Formas más naturales de expresar funciones matemáticas: FORTRAN
permite que incluso funciones matemáticas muy complejas sean
Expresado de manera similar a la notación algebraica regular.

Ventajas:
 Velocidad: Eran mucho más potentes que la computadora de segunda
generación. Son capaces de realizar 1 millón de instrucciones por segundo, el
tiempo de proceso o tiempo de CPU fue en nanosegundos
 Tamaño: eran mucho más pequeños que la computadora de segunda
generación. Son portátiles.
 Consumo de energía: consumieron mucha menos energía que las computadoras
de segunda generación.
 Falla: Eran mucho más confiables y menos propensos a las fallas de hardware
que la computadora de segunda generación.
 Mantenimiento: El costo de mantenimiento fue mucho menor.

Limitaciones:

 Calor: aunque la disipación de calor fue mucho menor que la de las computadoras
de segunda generación, el área en la que se instalaron tenía que contar con aire
acondicionado.
 Producción: La producción comercial fue más fácil y astuta, pero se requirió una
tecnología altamente sofisticada (complicada) y una configuración costosa para
la fabricación de chips CI.

Hechos Importantes:

 1955 - IBM introdujo la computadora de negocios 702; Watson en la portada de


la revista Time 28 de marzo.

 1956 - La computadora para pequeñas empresas Bendix G-15A se vendió por


solo $ 45,000, diseñada por Harry Huskey de NBS

 1959 - General Electric Corporation entregó su sistema informático de


Contabilidad de Máquina de Grabación Electrónica (ERMA) al Bank of America
en California; basado en un diseño de SRI, el sistema ERMA empleó el
Reconocimiento de caracteres de tinta magnética (MICR) como medio para
capturar datos de los cheques e introdujo la automatización en la banca que
continuó con los cajeros automáticos en 1974

 1959: Jack Kilby de Texas Instruments patentó el primer circuito integrado en


febrero de 1959; Kilby había hecho su primer IC de germanio en octubre de
1958; Robert Noyce, de Fairchild, utilizó un proceso plano para realizar
conexiones de componentes dentro de un IC de silicio a principios de 1959; El
primer producto comercial que usó IC fue el audífono en diciembre de 1963;
General Instrument hizo un chip LSI (más de 100 componentes) para los
órganos Hammond 1968

 1964: IBM produjo SABRE, el primer sistema de seguimiento de reservaciones


de aerolíneas para American Airlines; IBM anunció la computadora de uso
múltiple System / 360, que utiliza una longitud de palabra de caracteres de 8
bits (un "byte") que fue pionera en el 7030 de abril de 1961 que surgió del
contrato de AF de octubre de 1958 después de Sputnik para desarrollar
computadoras con transistores para BMEWS

 1968 - DEC introdujo la primera "mini computadora", la PDP-8, llamada así


por la minifalda; DEC fue fundada en 1957 por Kenneth H. Olsen, quien vino
para el proyecto SAGE en el MIT y comenzó a vender el PDP-1 en 1960.
 1969 - El desarrollo comenzó en ARPAnet, financiado por el DOD

Hubo varios tipos de computadoras de tercera generación, que incluyen:

1. Sistema IBM: fue anunciado por International


Business Machines Corporations en el año 1964.
Contenía los circuitos integrados híbridos que
funcionaban en una palabra de 32 bits con un
lenguaje ensamblador 360. También fue utilizado en
el procesamiento de aterrizajes lunares en la NASA.
Fue muy útil y valioso porque su mainframe podía
ejecutar programas. Tuvo un gran impacto en el
mundo de las computadoras, especialmente en términos de carga de trabajo y
potencia.

Tabla: Características de la familia System /360:


Características Modelo 30 Modelo 40 Modelo 50 Modelo 65 Modelo 75
Tamaño 64K 256K 256K 512K 512K
máximo de
memoria
(bytes)
Velocidad de 0.5 256K 2.0 8.0 16.0
datos de la
memoria
Tiempo de 1.0 0.625 0.5 0.25 0.2
ciclo del
procesador
Velocidad 1 3.5 10 21 50
relativa
Numero 3 3 4 6 6
máximo de
canales de
datos
Velocidad de 250 400 800 1250 1250
datos máxima
en un canal
2. UNIVAC- Se introdujo en 1964 cuando los circuitos
integrados reemplazaron la memoria delgada para el
almacenamiento de registros. También tenían núcleos
más rápidos y más pequeños que se utilizaron en
UNIVAC 1107. En 1969, produjeron una máquina
idéntica que era más lenta pero más barata para la
mayoría de los clientes y las personas que la
necesitaban. No tenía suficiente memoria para ser utilizada como UNIVAC 1108.

3. PDP (Personal Data Processor): fue una de las primeras mini computadoras en
llegar al mercado. Se vendió por 20,000 $ por cinco años, pero el precio se redujo
a 5,000 $ y tenía una memoria de 4095 palabras. La computadora era pequeña en
tamaño, asequible y tenía una buena velocidad.

4. CDC 6600: Fue creado en el año 1965 por el estadounidense Seymour Cray y se
le destinó un uso principal para la investigación de la física de alta energía nuclear.

5. IBM- 370-168

6. TDC-316

7. Honeywell-6000 series
La Cuarta generación de la Computadoras (1971 al 2010):

Tecnología de hardware:
Utilizan la tecnología de integración a gran
escala (LSI) y la integración de escala muy
grande (VLSI). Miles de transistores están
integrados en un pequeño chip de silicio
con tecnología LSI. VLSI permite que
cientos de miles de componentes se
integren en un pequeño chip. Esta época
está marcada por el desarrollo del
microprocesador.

Los nuevos desarrollos permitieron el desarrollo de equipos paralelos, algunos


avances tecnológicos fueron:
 Amplio uso de sistemas de redes de computadoras y estaciones de trabajo
individuales.
 Con la estructura elemental de las computadoras y la caída de los precios de las
comunicaciones se lograron realizar negocios virtuales cuyo servidor se
encontraba en un domicilio pero su presencia era mundial.
 Modelos y su hardware
 Debido a la reducción de tamaños y costos durante la quinta generación se
pudieron observar diferentes modelos.
 Clone: Es una computadora de escritorio normal constituida por las partes
principales y sus periféricos pero está construida por diferentes partes de
diferentes fabricantes de manera que satisfagan las necesidades del usuario. Sus
ventajas es el costo bajo pero su desventaja es que no poseen las garantías que
ofrece un solo fabricante.
 Desktop: es una computadora común también conocida como PC de escritorio
es una estación con todos los periféricos en diferentes unidades, el CPU es una
unidad, y los dispositivos de entrada y salida son en su mayoría externos, como
por ejemplo: el mouse, el monitor, la pantalla, el teclado etc. Debido a su diseño
son fáciles de transportar pero están hechas para permanecer fijas en una
estación esto es compensada al tener una mayor capacidad de procesamiento y
prestaciones.
 Tipo Torre: computadoras que están fijadas en un chasis vertical la tarjeta madre
esta atornillada a uno de los laterales, su principal ventaja es que se ahorra
mucho espacio su problema es que debe estar fija a una superficie estable de lo
contrario se dificulta su equilibrio.
 Portátil: Es una unidad que incorpora todos los elementos de una computadora
en un solo dispositivo el cual posee dispositivos de entrada, salida y se puede
conectar a periféricos. Debido a las limitaciones de espacio sus capacidades eran
menores a la de una desktop algo que en la actualidad han logrado resolver
gracias a los avances en electrónica.
Tecnología de software:
Varios sistemas operativos nuevos como MS-DOS y MS-Windows desarrollados
durante este tiempo. Esta generación de computadoras admite la interfaz gráfica de
usuario (GUI). La GUI es una interfaz fácil de usar que permite al usuario interactuar
con la computadora a través de menús e íconos. Los lenguajes de programación de
alto nivel se utilizan para la escritura de programas.

Algunos avances fueron:

 Software de Base: El software de base está formado por los programas que
sirven de enlace entre los programas escritos por un programador, con el fin de
realizar un determinado trabajo, y los elementos hardware de la computadora.
 Software de Aplicación: Recibe el nombre de software de aplicación todo el
conjunto de programas escritos para resolver problemas específicos. Estos
problemas no derivan de disfunciones internos de la computadora, sino que es
el usuario quien los plantea y pretende su resolución mediante el uso de la
computadora.
 Los traductores: La computadora solo puede ejecutar instrucciones escritas en
un lenguaje formado por su secuencias de ceros y unos, al que normalmente
se denomina lenguaje máquina.
 Compiladores: Los compiladores traducen las sentencias o instrucciones del
lenguaje de programación y las convierten en un conjunto de instrucciones en
lenguaje maquina directamente ejecutables por la computadora.
 El supervisor: Todas las actividades de un sistema operativo son de control, por
lo que todas sus funciones están relacionadas con la inspiración de todos los
procesos que se efectúan en una computadora.
 El sistema operativo: Un sistema operativo consta de una serie de programas
que controlan todas las actividades que la computadora realiza.
 Intérpretes: Cualquier lenguaje de programación se puede traducir mediante un
intérprete construido expresamente para este lenguaje; de ahí que no existe un
intérprete único para todos los lenguajes

Microprocesadores:
Como muchas industrias se convirtieron de microprocesadores comerciales a
diseños internos, los microprocesadores de cuarta generación se incorporaron con
un diseño sobresaliente con un millón de transistores. Los microprocesadores de
vanguardia como el 88100 de Motorola y el 80960CA de Intel podrían emitir y retirar
más de una instrucción por ciclo de reloj.

Lenguajes de Programación:

 C: También conocido como “Lenguaje de programación de sistemas”


desarrollado en el año 1972 por Dennis Ritchie para UNIX un sistema operativo
multiplataforma. El lenguaje C es del tipo lenguaje estructurado como son Pascal,
Fortran, Basic.
 El SQL (1974): Es el lenguaje estándar ANSI/ISO de definición, manipulación y
controlde bases de datos relacionales. Es un lenguaje declarativo: sólo hay que
indicar qué se quiere hacer. En cambio, en los lenguajes procedimentales es
necesario especificar cómo hay que hacer cualquier acción sobre la base de
datos.

 C++: Es un lenguaje de programación diseñado en 1979 por Bjarne Stroustrup.


La intención de su creación fue extender al lenguaje de programación C
mecanismos que permiten la manipulación de objetos. En ese sentido, desde el
punto de vista de los lenguajes orientados a objetos, el C++ es un lenguaje
híbrido.

 Java: es un lenguaje de programación orientado a objetos que fue creado por la


compañía Sun Microsystems en 1995. El origen del nombre Java no está claro,
aunque se atribuye a un tipo de café que estaba disponible a una cafetería
cercana al lugar de trabajo del equipo que lo desarrolló. El nombre original de
Java era Oak, pero que tuvo que ser cambiado por que el nombre ya estaba
registrado por otra compañía.

Ventajas:
 Velocidad: Eran mucho más potentes que la computadora de tercera
generación, el tiempo de proceso o tiempo de CPU fue en picosegundos.
 Tamaño: eran mucho más pequeños en tamaño y más baratos en comparación
con las generaciones anteriores. Algunos incluso caben en la palma de la mano.
 Consumo de energía: consumieron mucha menos energía que la computadora
de tercera generación.
 Falla: Eran mucho más confiables y menos propensos a las fallas de hardware
que la computadora de tercera generación.
 Mantenimiento: El costo de mantenimiento fue insignificante (menor).

Limitaciones:
 Producciones: La producción comercial era más sencilla y económica, pero la
tecnología altamente sofisticada (complicada) y una configuración costosa se
requería para la fabricación de LSI.

Hechos Importantes:

 1971: la compañía INTEL crea el primer chip de 4 bits, el cual contenía una
gran cantidad de transistores

 1974: comenzó una lucirse La verdadera industria de la informática, Cuando


Intel Corporation presento el CPU imprimación (Unidad Central de Procesos)
Compuesto Por un microchip de circuito Integrado denominado 8080. Este
made Cautivo el Interés en Hogares y pequeños Negocios A lo largo de 1975
.

 1975: William Henry Gates, Paul Allen y crearon Microsoft. Este software
FUE el Proveedor de la versión del lenguaje BASIC Para La Computadora
Altair personal, de la versión de MITS.

 1975: Gary Kindall y John Torode fundan la Investigación Digital, Que ingresa
exitosamente al Mercado con su Sistema Operativo CPM (Programa de
Control de microcomputadoras). Este FUE El Primer Sistema Operativo
Estándar.

 1976: Steven Wozniak y Steven Jobs fundaron Apple Computer el 1 de abril


de 1976. E El Mismo Año intentaron Insertar en el Mercado La Apple I, Pero
No aceptada busque FUE.

 1977: Apple lanza al Mercado La Apple II y Logra imponerse en el Mercado


de la informática.

 1977: Durante la cuarta Generación de computadoras, Más Precisamente


un lo largo de Este Año, se Desarrolla el apogeo de las computadoras
Personales.

 1977: La TRS-80 de Tandy / Radio Shack FUE Una de las computadoras


Más populares de la Época.

 1978: Intel Fabrico el microprocesador Intel 8086, el cual sea provocó Una
DEMANDA Masiva y Motivo a la Compañía a IBM un crear su División de
Computadoras Personales. El Éxitos de ventas Alcanzado por Intel, lo
posicionó Dentro del rango de las 500 Empresas Más Grandes y exitosas del
Mundo.

 1980: Apple Disco II es la primera disquetera en El Mercado.

 1980: Commodore Inc. Presenta la VIC-20, la ONU modelo de computadora


Barata muy personal, Dirigida a los Principiantes Y hobbistas. Este modelo
utilizaba el microprocesador 6502 de RAM memoria con uña de 5k.

 1981: La Commodore 64 Reemplazo a la VIC-20. Este Novedoso modelo


utilizaba microprocesador ONU 6510 Que le otorgaba Una Capacidad de
Procesamiento de 64k
 1985: Se logró lanzar las primeras versiones de un sistema operativo, en
este caso fue Microsoft Windows (MS) el cual compite a su vez con el
lanzamiento de Apple, aunque estos primeros sistemas carecían de
efectividad a la hora de su funcionamiento y no eran más que una
propuesta
 Linux (1991): Aparece el sistema operativo Linux desarrollado por Linux
Torvalds, quien en su momento menciono que “Estoy construyendo un
sistema operativo gratuito, no es más que un hobby, no será una cosa grande
y profesional como GNU para coles AT”.
 1992: En búsqueda de la simplificación de los formatos se avanza hasta los
micropresadores Intel Pentium, que lograban aportar una velocidad de 60 y
66 MHz. Además, éstos podían ser capaces de realizar dos instrucciones, lo
que incrementó a 64 bits y el aumento en la frecuencia a casi el doble de lo
que se había conseguido hasta los momentos.
 2005: Creación de YouTube.
 2006: lanzamiento del sistema operativo de Microsoft Windows Vista: Entra
en servicio el supercomputador Magerit perteneciente al CeSViMa.
 2007: La empresa Dell Lanza al mercado la primera computadora portátil
(laptop) con la distribución Linux Ubuntu preinstalada.
 2008: Apple lanza al mercado la MacBook Air la cual, parecer, es la laptop
más delgada del mundo en ese momento.
 2008: Apple lanza en toda Europa y América, el IPhone 3G
 2008: Google, contrarresta a Apple lanzando el G1 con su nuevo sistema
Android para móviles.
 2008: Lanzamiento del navegador Google Chrome.
 2008: Lanzamiento de KDE 4.0.
 2008: El supercomputador IBM Roadrunner es el primero en superar el
PetaFLOP alcanzando el número 1 en la lista de los más veloces, TOP500.
 2009: Debian GNU/Linux 5.0
 2009: KDE 4.2 RC
 2009: Apple, lanza al mercado la nueva versión el Mac OS X Snow Leopard
10.6
 2009: El 22 de octubre se lanza el sucesor de Windows Vista, el Windows 7.
 2010: Es lanzado Google Chrome OS, un sistema operativo creado por la
empresa Google y basado en Linux.
 2010: IBM crea un procesador de grafeno con una frecuencia efectiva de 100
GHz.
 2010: USB versión 3.0, que representaría un avance en la velocidad de
transmisión de datos entre el dispositivo conectado y la computadora
Hubo varios tipos de computadoras de tercera generación, que incluyen:

1. Intel: Fue creada en 1968 por Gordon E. Moore y Robert Noyce. La que empezó
creando el corazón de calculadoras se ha convertido en estos 40 años en la
empresa más importante en lo que a microprocesadores se refiere. Tanto es así
que se llegó a conocer al modelo de ordenador por el nombre de su
microprocesador Intel. Pentium, Pentium II etc…

4004 8008 8080 8086 8088


Introducción 1971 1972 1974 1978 1979
Velocidad de 108 kHz 108 khz 2 MHz 5 MHz, 8 5 MHz, 8
reloj MHz, 10 MHz
MHz
Bus 4 bits 8 bits 8 bits 16 bits 8 bits
Numero de 2,300 3,500 6,000 29,000 29,000
transistores
Tamaño(µm) 10 6 3 6
Memoria 640 Bytes 16 KB 64 KB 1 MB 1 MB
direccionable

80286 386TM DX 386TM SX


486TM DX 486TM SX
CPU
Introducción 1982 1985 1988 1989 1991
Velocidad de 6 MHz – 16 MHz – 16 MHz – 25 MHz, 8 16 MHz, 33
reloj 12.5 MHz 33 MHz 33 MHz MHz, 50 MHz
MHz
Bus 16 bits 32 bits 16 bits 32 bits 32 bits
Numero de 134,000 275,000 275,000 1.2 Millón 1.185
transistores Millon
Tamaño(µm) 1.5 1 1 0.8 – 1 1
Memoria 16 MB 4 GB 16 MB 4 GB 4 GB
direccionable
Memoria 1 GB 64 TB 64TB 64 TB 64 TB
Virtual
Cache - - - 8 kB 8 kB

Pentium Pentium Pentium II Pentium III Pentium IV


Pro
Introducción 1993 1995 1991 1999 2000
Velocidad de 60 MHz – 150 MHz – 200 MHz – 450 MHz – 1.3-1.8
reloj 166 MHz 200 MHz 300 MHz 660 MHz GHz
Bus 32 bits 64 bits 64 bits 64 bits 64 bits
Numero de 3.1 millon 5.5 7.5 9.5 42 Millones
transistores Millones Millones Millones
Tamaño(µm) 0.8 0.6 0.35 250 180
Memoria 4 GB 64 GB 64 GB 64 GB 64 GB
direccionable
Memoria 64 TB 64 TB 64TB 64 TB 64 TB
Virtual
Cache 8 kB 512 kB L1 y 512 kB L2 512 kB L2 256 kB L2
1 MB L2

Core 2 Duo
Introducción 2006
Velocidad de 1.06 – 1.2
reloj GHz
Bus 64 bits
Numero de 167
transistores millones
Tamaño(µm) 65
Memoria 64 GB
direccionable
Memoria 64 TB
Virtual
Cache 2 MB L2

2. Apple I y Apple II series: Steve Wozniak desarrolló por primera vez la


computadora Apple original, Apple I, en 1976. Fue el primer producto de Apple; una
pequeña computadora personal. Su amigo Steve Jobs lo ayudó a vender la
computadora, y más tarde lo ayudó a fabricar la Apple II. Wozniak y Jobs fueron los
verdaderos cofundadores de Apple. Desarrollaron la Apple II, que fue una de las
primeras microcomputadoras caseras de gran producción y de gran éxito. Fue el
primero de su serie Apple II que finalizó en 1993. Se vendieron unos cinco millones
en total. Funcionaron ROM e Integer BASIC, desarrollado por Wozniak. También
desarrolló Disco II, una unidad de disquete para almacenamiento, en 1978.

3. Macintosh: Apple también presentó el Macintosh en 1984 basado en el


microprocesador Motorola 68000. Inicialmente, no fue un éxito comercial, pero
finalmente lo fue con la introducción a la autoedición. Apple también produjo la serie
Apple III en 1980, pero no tuvo éxito debido a un problema de sobrecalentamiento.

4. Commodore 64 (1982): Es una computadora doméstica de 8 bits desarrollada por


Commodore International en agosto de 1982 a un precio inicial de 595 dólares.
Sucede a la Commodore VIC-20 y a la Commodore MAX Machine, presentando 64
kilobytes (65.536 bytes) de RAM, con gráficos y sonido muy por encima de otros
equipos contemporáneos.
La Quinta generación de la Computadoras (2010 hasta hoy):

Tecnología de hardware:
el objetivo de la quinta generación de
computación es desarrollar computadoras
capaces de aprender y auto-organizarse. Las
computadoras de quinta generación
utilizanchips Super Large Scale Integrated
(SLSI) que pueden almacenar millones de
componentes en un solo chip. Estas
computadoras tienen grandes requerimientos
de memoria.

Tecnología de software:
Esta generación de computadoras utiliza un procesamiento paralelo que permite
que varias instrucciones se ejecuten en paralelo, en lugar de la ejecución en serie.
El procesamiento paralelo resulta en una velocidad de procesamiento más rápida.
El microprocesador de doble núcleo Intel utiliza procesamiento paralelo. Las
computadoras de quinta generación están basadas en Inteligencia Artificial (IA).
Intentan simular la forma humana de pensar y razonar. Todos los lenguajes de nivel
superior como C y C ++, Java, .Net, etc., se utilizan en esta generación. La
Inteligencia Artificial incluye áreas como Sistema Experto (ES), Procesamiento de
Lenguaje Natural (PNL), reconocimiento de voz, reconocimiento de voz, robótica,
etc.

Microprocesadores:
Los microprocesadores de quinta generación emplearon procesamiento
superescalar desacoplado, y su diseño pronto superó los 10 millones de
transistores. En la quinta generación, las PC son un negocio de bajo margen y alto
volumen conquistado por un solo microprocesador.

Ventajas:
 Velocidad: Eran mucho más potentes y más rápidos que la computadora de
cuarta generación.
 Tamaño: las PC portátiles son mucho más pequeñas y prácticas que las PC de
la cuarta generación, lo que permite al usuario utilizar las instalaciones
informáticas incluso mientras viaja.
 Consumo de energía: consumieron mucha menos energía que su antecesor
 Fallo: eran mucho más confiables y menos propensos a fallas de hardware que
su predecesor
 Mantenimiento: El costo de mantenimiento es despreciable (menor).
 Producción: La producción comercial de estos sistemas es más fácil y más
barata
Hechos Importantes:

 2010: Es lanzado Google Chrome OS, un sistema operativo creado por la


empresa Google y basado en Linux.
 2010: IBM crea un procesador de grafeno con una frecuencia efectiva de 100
GHz
 2010: USB versión 3.0, que representaría un avance en la velocidad de
transmisión de datos entre el dispositivo conectado y la computadora.
 2010: Qualcomm lanza el primer procesador móvil doble núcleo a 1,5 Ghz.
 2011: Apple lanza al mercado la nueva versión el Mac OS X Lion 10.7
 2011: Apple lanza al mercado el iPhone 4S con el asistente de voz Siri
 2011: Nintendo lanza al mercado la versión de su consola portátil Nintendo 3DS
Primera consola portátil 3D del mundo.
 2011: Sony Computer Entertaiment, lanza al mercado la PlayStation Vita
 2011: Apple lanza al mercado el iPad 3 y el iOS 6
 2011: Samsung lanza al mercado la Samsung Galaxy S2
 2012: Microsoft lanza windows 8.
 2012: Nintendo lanza al mercado la versión de su segunda consola la Wii U
Con nuevos motores gráficos y tabletas.
 2012: Apple Inc., lanza al mercado la nueva versión el Mac OS X Mountain
Lion 10.8
 2012: Apple Inc., lanza al mercado la nueva MacBook Pro Retina Display, con
la mayor resolución en pantalla del mundo.
 2012: Apple Inc., lanza al mercado el iPhone 5 con una pantalla de 4
Pulgadas.
 2012: Samsung, lanza al mercado la Samsung Galaxy S3.
 2013: Microsoft lanza al mercado la Surface Tablet.
 2013: Microsoft lanza al mercado la versión Windows 8.1.
 2013: Apple Inc., lanza al mercado la nueva versión Mac OS X Mavericks 10.9
 2013: Sony Computer Entertaiment, lanza al mercado la PlayStation 4 con un
procesador AMD x86-64 Jaguar Octa-Core (8 núcleos).
 2013 Microsoft lanza al mercado la versión de su tercera consola la Xbox One.
 2013: Apple Inc., lanza al mercado la nueva versión del iOS 7.
 2013: Apple Inc., lanza al mercado la nueva versión del iPad Air.
 2014: Google lanza al mercado las Google Glass.
 Windows Phone 8.1, anunciado el 2 de abril de 2014. Fue lanzada el 14 de abril
para desarrolladores y a lo largo de mayo y junio para el público en general.
 2014: Apple Inc., lanza al mercado las nuevas versiones del iPhone, el iPhone
6 y el iPhone 6 plus, con unas pantallas mucho mayores a sus predecesores.
 2014: Apple Inc., presenta su versión de "Smartwatch" cuyo nombre es Apple
Watch.
 El 21 de enero de 2015, se presentó su sucesor, Windows 10 Mobile, con
nuevas funcionalidades y mejor rendimiento.
 2015: Microsoft lanza al mercado la version Windows 10.
 2017: Huawei supera a Apple en ventas globales de smartphones

Aportes:

 Inteligencia Artificial: Ya que en la primera hasta en la cuarta generación de las


computadoras los equipos no podían pensar por sí mismos y estos dependían
solo de las instrucciones dadas por los usuarios se desarrolló algo innovador
que es la Inteligencia Artificial (IA), es el campo de estudio que trata de explicar
los procesos del pensamiento humano adheridos a la lógica de la computadora.

 Juegos: programación de computadoras para jugar a juegos como el ajedrez


y las damas chinas.

 Sistemas Expertos: programación de computadoras para tomar decisiones


en situaciones de la vida real.
 Redes Neuronales: Los sistemas que simulan la inteligencia, tratando de
reproducir los tipos de conexiones físicas que se producen en el cerebro de
los animales

 Robótica: Se utiliza en la quinta generación a manera de resolver una necesidad


física humana, la robótica es el arte, ciencia de creación y el empleo de robots
ya que es un sistema de computación hibrido independiente que realiza
actividades físicas y de cálculo. Es la programación de computadoras para ver,
escuchar y reaccionar ante estímulos sensoriales.

 Sistemas Expertos: Es parte de la aplicación de la inteligencia artificial que se


utiliza en base de conocimientos de la experiencia humana para ayudar a la
resolución de problemas más frecuentas que el ser humano encuentra.

 Redes de comunicación: Como parte del proyecto FGCS se desarrolló los


canales de comunicación que interconectan terminales y computadoras, para
que sea administrada en la transmisión.
Datacenter: Características y tipos.

Se denomina centro de procesamiento de datos (CPD) a aquella ubicación donde


se concentran los recursos necesarios para el procesamiento de la información de
una organización. También se conoce como centro de cómputo, centro de cálculo
o centro de datos por su equivalente en inglés data center.

Es un elemento fundamental en el mundo del web hosting.

Un Datacenter es una construcción de un tamaño mayor en el cual se depositan


equipos electrónicos necesarios para poder mantener una red de computadores, es
decir, contra con la energía apropiada, con la ventilación ideal y un óptimo sistema
de seguridad. Este sistema funciona bajo la modalidad de housing, esto quiere decir,
prestando alojamiento web a empresas de mayor tamaño, resguardando y
recopilando su información digital.

Del mismo modo, invertir en infraestructura de TI requiere una cuidadosa


consideración, planificación e investigación para garantizar que tome la decisión
correcta. Es imperativo seleccionar un centro de datos que ofrezca un conjunto
integral de soluciones que crezca con su empresa, ofrezca un servicio al cliente sin
igual y aumente las ofertas de colocación tradicionales con una combinación híbrida
de nube, red y soluciones de alojamiento administradas en redes avanzadas.

Antes de realizar su selección, es necesario tener en cuenta las siguientes cinco


características que conforman un centro de datos exitoso:

Características:
La mayoría de estos centros de datos tienen ciertas características comunes que
se describen a continuación:

 Red
Los centros de datos están conectados a la Internet a través de conexiones
Gigabit Ethernet de diferentes proveedores de red troncal, los cuales se
conectan al centro de datos a través de fibra óptica por puntos de entrada
separados.

 Seguridad
Para la protección contra intrusión o fallas en las líneas, el centro de datos
tiene personal trabajando en turnos que cubren las 24 horas del día. Toda
persona que se mueve a través de las instalaciones, siempre está
acompañada de personal de seguridad. Hay un monitoreo con cámaras de
circuito cerrado 24x7 en todas las áreas y entradas. Las instalaciones del
centro de datos son bastante seguras con las cámaras, el control de acceso
y el personal de seguridad.
 Estabilidad
La energía entrante total es muchísimo más alta de lo que se requiere para
el centro de procesamiento de datos funcione. Hay un ATS (interruptor de
transferencia automático) que prende de forma automática un generador en
caso de una falla de energía. Los centros de datos también están equipados
con sistemas UPS redundantes para asegurar energía limpia sin
distorsiones.

 Enfriamiento
Tenemos sistemas redundantes de aire acondicionado, cada uno
funcionando a una fracción de su capacidad, que mantienen frescos los
cuartos con servidores. Las unidades de aire acondicionado se alternan para
que cada una se mantenga en condiciones óptimas.

 Sistema Avanzado y Moderno de Detección de Humo y de Protección contra


Incendios
Los centros de datos están equipados con sistemas especializados de
detección de fuego y de protección destinados específicamente para la
protección de servidores, ya que el uso de sistemas comunes a base de agua
podrían causar daños iguales a los que causa el fuego.

Tipos:

Dependiendo del destino, existen cuatro tipos diferentes de centros de datos, cada
uno diseñado para un modelo de negocio específico y tiene sus propios problemas
y problemas operativos:

Centros de datos corporativos


Alojamiento de centros de datos web, proporcionando infraestructura informática
como servicio (IaaS).
Centros de datos que proporcionan soluciones TK (de llave en mano o TurnKey)
Centros de datos que utilizan la tecnología a la web 2.0.

Normas ANSI EIA-TIA 942: Jerarquía de Datacenter.


Concebido como una guía para los diseñadores e instaladores de centros de datos
(Data Centers), el estándar TIA942 (2005) proporciona una serie de
recomendaciones y directrices (guidelines) para la instalación de sus
infraestructuras.

Aestándar TIA942 probado en 2005 por ANSI-TIA (American National Standards


Institute – Telecomunications Industry Association), clasifica a este tipo de centros
en varios grupos, llamados TIER (anexo G), indicando así su nivel de fiabilidad en
función del nivel de disponibilidad.

De acuerdo con el estándar TIA-942, la infraestructura de soporte de un Data Center


estará compuesta por cuatro subsistemas:

 Telecomunicaciones: Cableado de armarios y horizontal, accesos


redundantes, cuarto de entrada, área de distribución, backbone, elementos
activos y alimentación redundantes, patch panels y latiguillos,
documentación.

 Arquitectura: Selección de ubicación, tipo de construcción, protección


ignífuga y requerimientos NFPA 75(Sistemas de protección contra el fuego
para información), barreras de vapor, techos y pisos, áreas de oficina, salas
de UPS y baterías, sala de generador, control de acceso, CCTV, NOC
(Network Operations Center – Centro operativo).

 Sistema eléctrico: Número de accesos, puntos de fallo, cargas críticas,


redundancia de UPS y topología de UPS, puesta a tierra, EPO (Emergency
Power Off- sistemas de corte de emergencia) baterías, monitorización,
generadores, sistemas de transferencia.

 Sistema mecánico: Climatización, presión positiva, tuberías y drenajes,


CRACs y condensadores, control de HVAC (High Ventilating Air
Conditionning), detección de incendios y sprinklers, extinción por agente
limpio (NFPA 2001), detección por aspiración (ASD), detección de líquidos.
Niveles de complejidad.

TIER % Disponibilidad % Parada Tiempo anual de parada

TIER I 99,67% 0,33% 28,82 horas

TIER II 99,74% 0,25% 22,68 horas

TIER III 99, 982 % 0,02% 1,57 horas

TIER IV 99,99% 0,01% 52,56 minutos

Los Datacenter poseen una clasificación que se llama ANSI/TIA 942, la cual fue
elaborada en abril de 2005 por la American National Standars Institute y que tiene
como objetivo certificar la disponibilidad de los componentes que tienen estas
edificaciones. Por ejemplo, el tamaño, los niveles de redundancia, los tiempos de
respuesta y otras son las variables a considerar. Todo lo anterior se mide en cuatro
niveles, que son los denominados TIER y mientras mayores sean éstos, más
confiabilidad será la que aporten.
– TIER 1: Esta clase de Datacenter está fabricada para pequeñas y medianas
empresas. Aquí el servicio puede sufrir interrupciones, ya que no cuenta con
sistema de refrigeración ni de distribución eléctrica. El tiempo de implementación
promedio es de tres meses y para realizar labores de mantenimiento, será necesario
para la actividad. Por último, la disponibilidad del servicio es de un 99,67%.Centro
de Datos
– TIER 2: Este Datacenter corresponde a uno redundante, esto quiere decir, que es
menos susceptible a interrupciones, planificadas o no, con conexión a línea única
de refrigeración y distribución eléctrica. Su implementación tiende a demorar de 3 a
6 meses y cuenta con suelos elevados, generadores auxiliares o UPS. Si se
efectúan labores de mantención aún debe interrumpirse el servicio y la
disponibilidad llega al 99.74%.
– TIER 3: Este tipo de Datacenter, por lo general, prestan servicios 24/7 y se
encuentran conectados a múltiples líneas de distribución eléctrica y de refrigeración,
aunque con sólo una activa. Eso sí, para su mantenimiento no es necesario parar
el funcionamiento del sistema, ya que la capacidad es ideal para brindar el servicio
a través de otras líneas. El tiempo de implementación es mucho mayor y va de 15
a 20 meses y posee disponibilidad del 99,82%.
– TIER 4: Este tipo de Datacenter, está orientado a empresas con presencia a nivel
internacional, como bancos y multinacionales. Es tolerante a fallas, ya que permite
múltiples líneas de distribución de electricidad y refrigeración. Se pueden hacer
mantenimientos sin afectar el servicio y puede responder ante eventos no
planificados. Su implementación puede ir hasta los 20 meses y su disponibilidad del
99,99%.
Cómo se diseña un Datacenter.
El diseño de un Data Center requiere un acercamiento HOLÍSTICO. Esta filosofía
es sumamente importante, considerando la complejidad de un Centro de Cómputo
donde todos los componentes se entrelazan.

1. Sistema de aire acondicionado de precisión

El aire acondicionado se utiliza para mantener la habitación fresca y queda bajo el


control de la humedad. La temperatura ambiente se mantiene a una temperatura de
aproximadamente 20-22 grados Celsius (aproximadamente 68-72 grados
Fahrenheit). La función principal del sistema de acondicionamiento es un centro de
datos para que los componentes del servidor funcionen de acuerdo con las
especificaciones del fabricante para los parámetros de temperatura y humedad.
Esto es importante porque todos los componentes electrónicos generan calor que
funciona y que puede hacer que el dispositivo no funcione si no está refrigerado.

Los sistemas de aire acondicionado también mantienen el parámetro de humedad


entre 35% y 65%. La humedad demasiado alta, puede conducir a la condensación,
y una temperatura demasiado baja provocará electrostática que puede dañar los
componentes electrónicos. La redundancia en el sistema de aire acondicionado es
necesaria para anticipar el proceso de mantenimiento y mantenimiento, así como
los daños al dispositivo de CA.

2. Energía de respaldo
Energía de respaldo a través de uno o más suministros de energía ininterrumpida
(UPS) y generadores diesel

 UPS: (Uninterruptible Power Supply - respaldo de energía in interrumpible),


Es un dispositivo que se conecta al enchufe de pared, integra una circuitería
especial que permite alimentar un juego de baterías recargables internas
mientras suministra energía eléctrica a la computadora. En caso de que se
dé un corte de energía en el suministro de la red doméstica, las baterías
automáticamente continúan alimentando a la computadora por un cierto
periodo de tiempo, evitando pérdida de información.

 PDU: dispositivo con tomacorrientes múltiples diseñado para distribuir


energía eléctrica a computadoras o equipo de red dentro de un
rack(estructura que permite sostener o albergar un dispositivo tecnológico)

3. Sistema de pisos (piso elevado)

Un centro de datos generalmente usa un sistema de pisos elevados a una altura de


hasta 60 cm (2 pies), paneles modulares extraíbles con laminación de alta presión
(HPL) completa con largueros y pedestales. Stringer hace que la instalación de
paneles de piso sea más robusta y estable. El panel del piso elevado es fácil de
designar o quitar usando el piso elevador del elevador

Piso hecho de placas modulares y removibles que se encuentra sobre el nivel del
firme terminado, siendo su principal función crear un espacio para pasar y ocultar
instalaciones eléctricas, voz, datos, etc.

4. Sistema de supresión de incendios.

Funciona como un sistema en previsión de perturbaciones originadas por el calor,


el humo y el fuego. Estos sistemas de extinción de incendios que utilizan gas FM
200 y el dispositivo son seguros para los humanos y también eficientes, y no
requieren un gran espacio y una alta presión de aire en el dispositivo de
almacenamiento.
5. Sistema de seguridad

Sistemas de seguridad que incluyen CCTV y sistema de control de acceso para


mantener la seguridad del centro de datos. El sistema de circuito cerrado de
televisión (CCTV) se instaló en el monitor, incluido el espacio del servidor para
registrar la actividad en el interior. Los componentes de CCTV incluyen:
 Video Monitoreo, es una herramienta para monitorear y controlar las
actividades de todas las cámaras instaladas en el centro de datos y registrar
la actividad registrada por la cámara.

 Cámara interior, una actividad de terminal de grabadora en el centro de


datos. La cámara está conectada a un sistema de monitorización.

 Equipo de monitor de TV . Para complementar este sistema se requiere un


monitor de TV que sirva para mostrar las actividades o eventos. Los
monitores de televisión que se comercializan se colocan en la sala de control.

 El control de acceso, el control de acceso se instala en la entrada / puerta


para limitar el acceso del personal al centro de datos. Hay varios tipos de
control de acceso, entre otros, lector de dedos, lector de proximidad, lector
de retina (ojo) y otros.

6. centro de datos

Según el estándar TIA 942, un centro de datos debe tener las siguientes áreas
funcionales clave:
- Una o más cuarto de entradas
- Área de distribución principal (MDA, por sus siglas en inglés: main distribution area)
- Una o mas áreas de distribución horizontal (HDA, por sus siglas en inglés:
horizontal distribution areas)
- Área de distribución de zona (ZDA, por sus siglas en inglés: zone distribution
area)
- Area de distribución de equipos
- El cableado horizontal y el backbone

1. Cuarto de Entrada:El cuarto de entrada alberga el equipo de los operadores de


telefonía y el punto de demarcación. Puede estar dentro del cuarto de cómputo,
pero la norma recomienda que esté en un cuarto aparte por razones de seguridad.
Si está ubicado en el cuarto de cómputo, deberá estar consolidado dentro del área
de distribución principal.

2. Área de distribución principal: El área de distribución principal alberga el punto de


conexión cruzada central para el sistema de cableado estructurado del centro de
datos. Esta área debe estar ubicada en una zona central para evitar superar las
distancias del cableado recomendadas y puede contener una conexión cruzada
horizontal para un área de distribución de un equipo adyacente. La norma específica
racks separados para los cables de fibra, UTP y coaxial.

3. Área de distribución horizontal: El área de distribución horizontal es la ubicación


de las interconexiones horizontales, el punto de distribución para el cableado hacia
las áreas de distribución de los equipos. Puede haber una o más áreas de
distribución horizontal, según el tamaño del centro de datos y las necesidades de
cableado. Una directriz para un área de distribución horizontal especifica un máximo
de 2000 cables UTP de 4 pares o terminaciones coaxiales.
Como en el caso del área de distribución principal, la norma específica racks
separados para cables de fibra, UTP y coaxiales.

4. Área de distribución de zonas: Es el área de cableado estructurado para los


equipos que van en el suelo y no pueden aceptar paneles de parcheo.Como
ejemplo, se puede citar a las computadoras centrales y los servidores.

5. Área de distribución de los equipos: Es la ubicación de los gabinetes y racks de


equipos. La norma específica que los gabinetes y racks se deben colocar en una
configuración "hot aisle/cold aisle” (“pasillo caliente/pasillo frío”) para que disipen de
manera eficaz el calor de los equipos electrónicos

You might also like