Professional Documents
Culture Documents
NACIONAL PEDRO
RUIZ GALLO
ASIGNATURA:
Arquitectura de Computadoras
DOCENTE:
ALUMNO:
Tecnología de hardware:
Las computadoras de tercera
generación utilizaron los chips de
circuito integrado (CI) .En un chip CI,
varios transistores se colocan en un chip
de silicio. El silicio es un tipo de
semiconductor. El CI fue inventado por
Jack Kilby de Texas Instruments y
Robert Noyce de Fairchild
Semiconductor. El uso de chip CI
aumentó la velocidad y la eficiencia de
la computadora, múltiple. El teclado y el
monitor se utilizaron para interactuar con la computadora de tercera generación, en
lugar de la tarjeta perforada y las impresiones.
Tecnología de software:
El teclado y el monitor se interconectaron a través del sistema operativo. El sistema
operativo permitió que diferentes aplicaciones se ejecutaran al mismo tiempo con
un programa central que monitoreaba la memoria. Los lenguajes de alto nivel se
utilizaron ampliamente para la programación, en lugar del lenguaje de máquina y el
lenguaje de ensamblador
Microprocesadores:
Los microprocesadores de tercera generación se introdujeron en el año 1978, como
indican los 8086 de Intel y el Zilog Z8000. Estos eran procesadores de 16 bits con
un rendimiento como mini computadoras. Estos tipos de microprocesadores eran
diferentes de las generaciones anteriores de microprocesadores en que todos los
principales industriales de estaciones de trabajo comenzaron a desarrollar sus
propias arquitecturas de microprocesadores basadas en ISC.
Red:
La creación de estándares de servicios web, algunos de
los estándares emergentes en diversos estados de
progreso a través del World Wide Web Consortium
(W3C). Los estándares establecidos incluyen:
SOAP (protocolo XML), Lenguaje de descripción de
servicios web (WSDL), Detección e integración de
descripción universal (UDDI).
Memoria:
Al principio se utilizaron memorias de núcleo magnético. Posteriormente fueron
reemplazados por memorias semiconductoras (RAM y ROM).
En esta generación, el tamaño de la memoria principal alcanzó aproximadamente
100 mb.
Se introdujeron la memoria caché y las memorias virtuales (la memoria caché hace
que la memoria principal aparezca más rápido de lo que realmente es. La memoria
virtual la hace mas grande)
Lenguajes de Programación:
Ventajas:
Velocidad: Eran mucho más potentes que la computadora de segunda
generación. Son capaces de realizar 1 millón de instrucciones por segundo, el
tiempo de proceso o tiempo de CPU fue en nanosegundos
Tamaño: eran mucho más pequeños que la computadora de segunda
generación. Son portátiles.
Consumo de energía: consumieron mucha menos energía que las computadoras
de segunda generación.
Falla: Eran mucho más confiables y menos propensos a las fallas de hardware
que la computadora de segunda generación.
Mantenimiento: El costo de mantenimiento fue mucho menor.
Limitaciones:
Calor: aunque la disipación de calor fue mucho menor que la de las computadoras
de segunda generación, el área en la que se instalaron tenía que contar con aire
acondicionado.
Producción: La producción comercial fue más fácil y astuta, pero se requirió una
tecnología altamente sofisticada (complicada) y una configuración costosa para
la fabricación de chips CI.
Hechos Importantes:
3. PDP (Personal Data Processor): fue una de las primeras mini computadoras en
llegar al mercado. Se vendió por 20,000 $ por cinco años, pero el precio se redujo
a 5,000 $ y tenía una memoria de 4095 palabras. La computadora era pequeña en
tamaño, asequible y tenía una buena velocidad.
4. CDC 6600: Fue creado en el año 1965 por el estadounidense Seymour Cray y se
le destinó un uso principal para la investigación de la física de alta energía nuclear.
5. IBM- 370-168
6. TDC-316
7. Honeywell-6000 series
La Cuarta generación de la Computadoras (1971 al 2010):
Tecnología de hardware:
Utilizan la tecnología de integración a gran
escala (LSI) y la integración de escala muy
grande (VLSI). Miles de transistores están
integrados en un pequeño chip de silicio
con tecnología LSI. VLSI permite que
cientos de miles de componentes se
integren en un pequeño chip. Esta época
está marcada por el desarrollo del
microprocesador.
Software de Base: El software de base está formado por los programas que
sirven de enlace entre los programas escritos por un programador, con el fin de
realizar un determinado trabajo, y los elementos hardware de la computadora.
Software de Aplicación: Recibe el nombre de software de aplicación todo el
conjunto de programas escritos para resolver problemas específicos. Estos
problemas no derivan de disfunciones internos de la computadora, sino que es
el usuario quien los plantea y pretende su resolución mediante el uso de la
computadora.
Los traductores: La computadora solo puede ejecutar instrucciones escritas en
un lenguaje formado por su secuencias de ceros y unos, al que normalmente
se denomina lenguaje máquina.
Compiladores: Los compiladores traducen las sentencias o instrucciones del
lenguaje de programación y las convierten en un conjunto de instrucciones en
lenguaje maquina directamente ejecutables por la computadora.
El supervisor: Todas las actividades de un sistema operativo son de control, por
lo que todas sus funciones están relacionadas con la inspiración de todos los
procesos que se efectúan en una computadora.
El sistema operativo: Un sistema operativo consta de una serie de programas
que controlan todas las actividades que la computadora realiza.
Intérpretes: Cualquier lenguaje de programación se puede traducir mediante un
intérprete construido expresamente para este lenguaje; de ahí que no existe un
intérprete único para todos los lenguajes
Microprocesadores:
Como muchas industrias se convirtieron de microprocesadores comerciales a
diseños internos, los microprocesadores de cuarta generación se incorporaron con
un diseño sobresaliente con un millón de transistores. Los microprocesadores de
vanguardia como el 88100 de Motorola y el 80960CA de Intel podrían emitir y retirar
más de una instrucción por ciclo de reloj.
Lenguajes de Programación:
Ventajas:
Velocidad: Eran mucho más potentes que la computadora de tercera
generación, el tiempo de proceso o tiempo de CPU fue en picosegundos.
Tamaño: eran mucho más pequeños en tamaño y más baratos en comparación
con las generaciones anteriores. Algunos incluso caben en la palma de la mano.
Consumo de energía: consumieron mucha menos energía que la computadora
de tercera generación.
Falla: Eran mucho más confiables y menos propensos a las fallas de hardware
que la computadora de tercera generación.
Mantenimiento: El costo de mantenimiento fue insignificante (menor).
Limitaciones:
Producciones: La producción comercial era más sencilla y económica, pero la
tecnología altamente sofisticada (complicada) y una configuración costosa se
requería para la fabricación de LSI.
Hechos Importantes:
1971: la compañía INTEL crea el primer chip de 4 bits, el cual contenía una
gran cantidad de transistores
1975: William Henry Gates, Paul Allen y crearon Microsoft. Este software
FUE el Proveedor de la versión del lenguaje BASIC Para La Computadora
Altair personal, de la versión de MITS.
1975: Gary Kindall y John Torode fundan la Investigación Digital, Que ingresa
exitosamente al Mercado con su Sistema Operativo CPM (Programa de
Control de microcomputadoras). Este FUE El Primer Sistema Operativo
Estándar.
1978: Intel Fabrico el microprocesador Intel 8086, el cual sea provocó Una
DEMANDA Masiva y Motivo a la Compañía a IBM un crear su División de
Computadoras Personales. El Éxitos de ventas Alcanzado por Intel, lo
posicionó Dentro del rango de las 500 Empresas Más Grandes y exitosas del
Mundo.
1. Intel: Fue creada en 1968 por Gordon E. Moore y Robert Noyce. La que empezó
creando el corazón de calculadoras se ha convertido en estos 40 años en la
empresa más importante en lo que a microprocesadores se refiere. Tanto es así
que se llegó a conocer al modelo de ordenador por el nombre de su
microprocesador Intel. Pentium, Pentium II etc…
Core 2 Duo
Introducción 2006
Velocidad de 1.06 – 1.2
reloj GHz
Bus 64 bits
Numero de 167
transistores millones
Tamaño(µm) 65
Memoria 64 GB
direccionable
Memoria 64 TB
Virtual
Cache 2 MB L2
Tecnología de hardware:
el objetivo de la quinta generación de
computación es desarrollar computadoras
capaces de aprender y auto-organizarse. Las
computadoras de quinta generación
utilizanchips Super Large Scale Integrated
(SLSI) que pueden almacenar millones de
componentes en un solo chip. Estas
computadoras tienen grandes requerimientos
de memoria.
Tecnología de software:
Esta generación de computadoras utiliza un procesamiento paralelo que permite
que varias instrucciones se ejecuten en paralelo, en lugar de la ejecución en serie.
El procesamiento paralelo resulta en una velocidad de procesamiento más rápida.
El microprocesador de doble núcleo Intel utiliza procesamiento paralelo. Las
computadoras de quinta generación están basadas en Inteligencia Artificial (IA).
Intentan simular la forma humana de pensar y razonar. Todos los lenguajes de nivel
superior como C y C ++, Java, .Net, etc., se utilizan en esta generación. La
Inteligencia Artificial incluye áreas como Sistema Experto (ES), Procesamiento de
Lenguaje Natural (PNL), reconocimiento de voz, reconocimiento de voz, robótica,
etc.
Microprocesadores:
Los microprocesadores de quinta generación emplearon procesamiento
superescalar desacoplado, y su diseño pronto superó los 10 millones de
transistores. En la quinta generación, las PC son un negocio de bajo margen y alto
volumen conquistado por un solo microprocesador.
Ventajas:
Velocidad: Eran mucho más potentes y más rápidos que la computadora de
cuarta generación.
Tamaño: las PC portátiles son mucho más pequeñas y prácticas que las PC de
la cuarta generación, lo que permite al usuario utilizar las instalaciones
informáticas incluso mientras viaja.
Consumo de energía: consumieron mucha menos energía que su antecesor
Fallo: eran mucho más confiables y menos propensos a fallas de hardware que
su predecesor
Mantenimiento: El costo de mantenimiento es despreciable (menor).
Producción: La producción comercial de estos sistemas es más fácil y más
barata
Hechos Importantes:
Aportes:
Características:
La mayoría de estos centros de datos tienen ciertas características comunes que
se describen a continuación:
Red
Los centros de datos están conectados a la Internet a través de conexiones
Gigabit Ethernet de diferentes proveedores de red troncal, los cuales se
conectan al centro de datos a través de fibra óptica por puntos de entrada
separados.
Seguridad
Para la protección contra intrusión o fallas en las líneas, el centro de datos
tiene personal trabajando en turnos que cubren las 24 horas del día. Toda
persona que se mueve a través de las instalaciones, siempre está
acompañada de personal de seguridad. Hay un monitoreo con cámaras de
circuito cerrado 24x7 en todas las áreas y entradas. Las instalaciones del
centro de datos son bastante seguras con las cámaras, el control de acceso
y el personal de seguridad.
Estabilidad
La energía entrante total es muchísimo más alta de lo que se requiere para
el centro de procesamiento de datos funcione. Hay un ATS (interruptor de
transferencia automático) que prende de forma automática un generador en
caso de una falla de energía. Los centros de datos también están equipados
con sistemas UPS redundantes para asegurar energía limpia sin
distorsiones.
Enfriamiento
Tenemos sistemas redundantes de aire acondicionado, cada uno
funcionando a una fracción de su capacidad, que mantienen frescos los
cuartos con servidores. Las unidades de aire acondicionado se alternan para
que cada una se mantenga en condiciones óptimas.
Tipos:
Dependiendo del destino, existen cuatro tipos diferentes de centros de datos, cada
uno diseñado para un modelo de negocio específico y tiene sus propios problemas
y problemas operativos:
Los Datacenter poseen una clasificación que se llama ANSI/TIA 942, la cual fue
elaborada en abril de 2005 por la American National Standars Institute y que tiene
como objetivo certificar la disponibilidad de los componentes que tienen estas
edificaciones. Por ejemplo, el tamaño, los niveles de redundancia, los tiempos de
respuesta y otras son las variables a considerar. Todo lo anterior se mide en cuatro
niveles, que son los denominados TIER y mientras mayores sean éstos, más
confiabilidad será la que aporten.
– TIER 1: Esta clase de Datacenter está fabricada para pequeñas y medianas
empresas. Aquí el servicio puede sufrir interrupciones, ya que no cuenta con
sistema de refrigeración ni de distribución eléctrica. El tiempo de implementación
promedio es de tres meses y para realizar labores de mantenimiento, será necesario
para la actividad. Por último, la disponibilidad del servicio es de un 99,67%.Centro
de Datos
– TIER 2: Este Datacenter corresponde a uno redundante, esto quiere decir, que es
menos susceptible a interrupciones, planificadas o no, con conexión a línea única
de refrigeración y distribución eléctrica. Su implementación tiende a demorar de 3 a
6 meses y cuenta con suelos elevados, generadores auxiliares o UPS. Si se
efectúan labores de mantención aún debe interrumpirse el servicio y la
disponibilidad llega al 99.74%.
– TIER 3: Este tipo de Datacenter, por lo general, prestan servicios 24/7 y se
encuentran conectados a múltiples líneas de distribución eléctrica y de refrigeración,
aunque con sólo una activa. Eso sí, para su mantenimiento no es necesario parar
el funcionamiento del sistema, ya que la capacidad es ideal para brindar el servicio
a través de otras líneas. El tiempo de implementación es mucho mayor y va de 15
a 20 meses y posee disponibilidad del 99,82%.
– TIER 4: Este tipo de Datacenter, está orientado a empresas con presencia a nivel
internacional, como bancos y multinacionales. Es tolerante a fallas, ya que permite
múltiples líneas de distribución de electricidad y refrigeración. Se pueden hacer
mantenimientos sin afectar el servicio y puede responder ante eventos no
planificados. Su implementación puede ir hasta los 20 meses y su disponibilidad del
99,99%.
Cómo se diseña un Datacenter.
El diseño de un Data Center requiere un acercamiento HOLÍSTICO. Esta filosofía
es sumamente importante, considerando la complejidad de un Centro de Cómputo
donde todos los componentes se entrelazan.
2. Energía de respaldo
Energía de respaldo a través de uno o más suministros de energía ininterrumpida
(UPS) y generadores diesel
Piso hecho de placas modulares y removibles que se encuentra sobre el nivel del
firme terminado, siendo su principal función crear un espacio para pasar y ocultar
instalaciones eléctricas, voz, datos, etc.
6. centro de datos
Según el estándar TIA 942, un centro de datos debe tener las siguientes áreas
funcionales clave:
- Una o más cuarto de entradas
- Área de distribución principal (MDA, por sus siglas en inglés: main distribution area)
- Una o mas áreas de distribución horizontal (HDA, por sus siglas en inglés:
horizontal distribution areas)
- Área de distribución de zona (ZDA, por sus siglas en inglés: zone distribution
area)
- Area de distribución de equipos
- El cableado horizontal y el backbone