You are on page 1of 12

HISTORIA DE LA

INFORMÁTICA

KEVIN SAUCEDO | INFORMATICA | 28/05/207


“AÑO DEL BUEN SERVICIO A CIUDADANO”

UNIVERSIDAD NACIONAL DE TRUJILLO SEDE VALLE JEQUETEPEQUE

[INGENIERIA DE SISTEMAS
“Informe sobre la historia de la informática”

CURSO: Informática

DOSENTE: Mg. Vidal Melgarejo, Zoraida Yanet

CICLO: I

INTEGRAMTES:
Saucedo Huamán Kevin
Cotrina Escobar Ángel Richard
Tan Vásquez Kevin Napoleón

1
Índice
HISTORIA DE LA INFORMATIA

Introducción…………………………………………………………………………………………………………………………3

1. Los comienzos ……………………………………………………………………………………………………………………..3


2. Sistemas de numeración……………………………………………………………………………………………………….3
3. Edad media…………………………………………………………………………………………………………………………...3
4. La máquina analítica de Babbage …………………………………………………………………………………………4
5. Primer programador……………………………………………………………………………………………………………..4
6. Primera computadora en América………………………………………………………………………………………..4
7. La lógica de Boole………………………………………………………………………………………………………………….4
8. La máquina tabuladora de Herman Hollerith……………………………………………………………………….5
9. Los dispositivos electrónicos………………………………………………………………………………………………...5
10. La aparición de la electrónica………………………………………………………………………………………………..6
11. Las bases de John von Neumann……………………………………………………………………………………………6
12. Generación tecnológica de ordenadores………………………………………………………………………………..7
13. Los primeros lenguajes de programación……………………………………………………………………………...7
14. Pascal y C……………………………………………………………………………………………………………………………….8
15. Sistemas operativos………………………………………………………………………………………………………………..8
16. La micro información…………………………………………………………………………………………………………….9
17. El uso de los ordenadores en el mundo…………………………………………………………………………………9
18. Internet………………………………………………………………………………………………………………………………….10
19. Conclusión…………………………………………………………………………………………………………………………….10

Bibliografía………………………………………………………………………………………………………………………………………….10

2
HISTORIA DE LAINFORMATICA

Introducción
La informática no es una ciencia o disciplina que emplea métodos científicos para explicar fenómenos
de la naturaleza o de la sociedad, sino más bien es el sentido más amplio de conocimientos semánticos
con una base teórica.

Los orígenes de la informática pueden situarse al menos en cuatro momentos históricos. El primero
es el más obvio: la Antigüedad, cuando civilizaciones nacientes empezaron a ayudarse de objetos para
calcular y contar tales como las piedrecillas, los tableros de cálculo y los ábacos, todos los cuales han
llegado hasta el siglo xx.

1. Los comienzos
El ser humano es un animal racional lo que lo conduce a ser un animal tecnológico, esta capacidad
nos permitió transformar el medio que nos rodea, en lugar de adaptarse como han hecho todo los
animales. Esta capacidad para razonar les permitió a los humanos crear herramientas para su
supervivencia, el leguaje les permitió transmitir esos conocimientos de una generación a otra.

3
2. Sistema de Numeración
El cálculo no participaba en la vida del hombre primitivo, probablemente su capacidad se reducía a
contar con los de dos.

El ábaco de polvo constituye la más antigua herramienta de cálculo conocida y se remonta a la llamada
cuna de la civilización hace por lo menos 5000 años. El uso del ábaco continuó hasta la Edad Media
en Europa, donde las casas nobles poseían sus propias tablas de cálculo con sus correspondientes
cuentas.

3. Edad media
Gerbert de Aurllac hiso el primer intento en mecanizar el Abaco, tal instrumento no fue mejor que las
cuentas a mano. Posterior mente muchos trataron de crear una máquina que les permitiera hacer
operaciones aritmética, pero muchos de ellos no tuvieron éxito.

En 1642 el filósofo y matemático francés Blaise Pascal inventó una máquina de sumar que es la más
antigua. Los dígitos se introducían en la calculadora haciendo girar un conjunto de ruedas, una por
cada columna. Cuando las ruedas superaban el 9, un diente del engranaje avanzaba una unidad en la
rueda contigua. Esta máquina inspiró a unos cuantos inventores a construir aparatos parecidos, pero
ninguno se comercializó con éxito. Ello se debió, por un lado, a que eran frágiles y delicados y, por
otro lado, a que en la época de Pascal no se consideraba que estas máquinas fueran necesarias.

4. La máquina analítica de Babbage


Charles Babbage, un británico a quien muchos consideran el inventor del primer ordenador
automático y programable, la famosa máquina analítica. Esta idea se le ocurrió tras diseñar y montar
parcialmente una máquina diferencial, un proyecto más modesto pero que representaba un gran
avance para la tecnología de cálculo de su época, era el proyecto de una máquina con todos los
componentes básicos funcionales de un ordenador moderno: una unidad aritmética que llamó Mill,
un dispositivo de memoria que llamó Store, un método de programar la máquina por medio de tarjetas
y una forma de imprimir los resultados o perforar las respuestas en otra serie de tarjetas. Se fabricaría
con metal y funcionaría con un motor de vapor. Babbage pasó muchos años intentando llevar su idea
a buen puerto, pero cuando murió en 1871 sólo se habían construido algunas partes.

Consecuentemente la máquina analítica de Babbage puede considerarse el antecedente directo de las


computadoras actuales.

5. Primer programador

La hija de Lord Byron, Ada Augusta Byron, condesa de Lovelace, quedó fascinada por la máquina
analítica y colaboró en su diseño, aportando nuevas ideas y corrigiendo los errores del trabajo de
Babbage. También construyó varios procedimientos para utilizar la máquina de Babbage en la

4
resolución de varios problemas. Como consecuencia de sus aportaciones, Ada Lovelace se considera
la primera programadora de la historia.

6. Primera computadora en América

George Scheutz tuvo conocimiento del trabajo de Babbage y construye una pequeña máquina
diferencial que fue comprada en 1855 para el Observatorio Dudley de Albany en Nueva York, para
imprimir tablas astronómicas. Este fue el primer ordenador que hubo en América. Se construyó otra
máquina Scheutz para el gobierno inglés y se utilizó para computar tablas actuariales dirigidas a las
compañías de seguros.

7. La lógica de Boole

En 1854 el matemático inglés George Boole (1815-1864) sienta las bases de lo que conocemos hoy como
Teoría de la Información, con la publicación de su obra maestra, Una Investigación de las Leyes del
Pensamiento sobre las cuales se fundamentan las Teorías Matemáticas de la Lógica y las
Probabilidades. En su obra, Boole expresa la lógica como una forma extremadamente simple de
álgebra, en la cual se lleva a cabo el razonamiento mediante la manipulación de fórmulas más sencillas
que aquéllas utilizadas en el álgebra tradicional. Su teoría de la lógica, que reconoce tres operaciones
básicas: Y, O y NO, no tuvo ningún uso práctico hasta bastante después, cuando llegaría a formar parte
del desarrollo de la conmutación de circuitos telefónicos así como del diseño de ordenadores
electrónicos.

Simultáneamente, en esta época aparecen una serie de dispositivos de cálculo analógico como pueden
ser la máquina de cálculo de raíces de ecuaciones de Boys, la balanza algebraica del barcelonés Castells
y Vidal, el calculador de raíces del santanderino Torres Quevedo o el sintetizador armónico de Lord
Kelvin.

8. La máquina tabuladora de Herman Hollerith


En 1889 Herman atendió a una petición del superintendente del censo de Estados Unidos, a quien
cada vez le resultaba más difícil presentar sus informes en el momento debido. Por tanto, el segundo
hito histórico en la historia de la informática sería 1890, año en el que Herman Hollerith concibió la
tarjeta perforada junto con un sistema de máquinas que procesaban, evaluaban y clasificaban la
información codificada en ellas para la elaboración del censo de Estados Unidos. La tarjeta perforada,
junto con el método de codificación de datos por medio de patrones de agujeros en esta tarjeta, y de
clasificación y recuento de los totales y los subtotales que la acompañaban se ajustaba a la perfección
a las necesidades de la Oficina del Censo.

Lo que ocurrió después se debió sobre todo a la iniciativa de Hollerith quien, tras haber inventado
este sistema, no se conformó con tener un único cliente que lo utilizase una vez cada diez años, por
lo que inició una campaña para convencer a otros de su utilidad. Fundó una empresa, que en 1911 se
fusionó con otras dos para constituir la “Computing Tabulating Recording”, y en 1924, cuando Thomas

5
Watson tomó las riendas, pasó a llamarse “International Business Machines”. Watson, como vendedor
que era, comprendió que estos aparatos tenían que satisfacer las necesidades de los clientes si querían
prosperar.

9. Los dispositivos electromecánicos


Los dispositivos electromecánicos, los aparatos más eficientes en el ámbito del cálculo científico y
militar en la primera mitad del siglo XX empleaban la hoy en desuso tecnología analógica.

Ya en 1937, Claude Elwood Shannon, estudiante post-graduado en el Instituto Tecnológico de


Massachusetts (MIT), demostró que se podría aplicar el álgebra booleana a problemas de circuitos en
conmutación. En 1939, un joven ingeniero alemán llamado Konrad Zuse desarrolló el primer
ordenador digital programable de propósito general.

La tecnología del calculador universal Mark I desarrollado en la Universidad de Harvard en 1944 era
totalmente electromecánica, basada en 3000 relés electromagnéticos, ruedas dentadas y embragues
electromecánicos. Los relés podían abrirse o cerrarse en una centésima de segundo, tiempo difícil de
reducir al involucrar dispositivos mecánicos. El Mark I podía realizar todas las operaciones aritméticas
básicas y tenía secciones especiales para calcular funciones matemáticas tales como logaritmos y
senos. Aunque se le denominó calculador, podía tomar un número limitado de decisiones por lo que
se podía considerar, en realidad, un ordenador. En 1947 se construyó una máquina de relés más rápida
llamada Mark II.

10. La aparición de la electrónica


Parece que la auténtica revolución informática guarda relación con la electrónica, la era de la
informática comenzó en febrero de 1946, cuando el ejército de Estados Unidos hizo público el
Calculador e integrador numérico electrónico (Electronic Numerical Integrator and Computer,
ENIAC) en un acto celebrado en la Moore School of Electrical Engineering de Filadelfia. El ENIAC,
que contaba con 18.000 tubos de vacío, se presentó como un instrumento capaz de calcular la
trayectoria de un proyectil lanzado desde un cañón antes de que el proyectil realizara el recorrido.
Eligieron muy bien el ejemplo, pues este tipo de cálculos era el motivo por el cual el ejército había
invertido más de medio millón de dólares de entonces (lo que equivaldría a varios millones de dólares
en la actualidad) en una técnica que, se reconocía, era arriesgada y estaba por demostrar.

Un estudio histórico reciente ha desvelado que previamente existía otra máquina que realizaba
operaciones de cálculo con tubos de vacío. Se trata del Colossus británico. A diferencia del ENIAC,
estas máquinas no realizaban operaciones aritméticas convencionales, pero sí llevaban a cabo
operaciones de lógica a gran velocidad, y al menos algunas de ellas llevaban varios años en
funcionamiento antes de la presentación pública del invento estadounidense. Tanto el ENIAC como
el Colossus estuvieron precedidos de un dispositivo experimental que diseñó en la Universidad de
Iowa un catedrático de Física llamado John V. Atanasoff, con la colaboración de Clifford Berry. Esta
máquina también realizaba operaciones de cálculo por medio de tubos de vacío, pero, aunque sus
componentes principales se presentaron en 1942, nunca llegó a estar en funcionamiento (Burks y Burks
1988).

6
John Vincent Atanasoff de la Universidad de Iowa junto con su compañero Clifford Berry fueron los
principales pre cursores de la electrónica en la informática.

11. Las bases de John von Neumann


Cuando el ENIAC tomaba forma, a principios de la década de 1940, sus diseñadores estaban ya pensado
en cómo sería la máquina que lo sucedería. En retrospectiva, se trataba de un equipo perfecto para la
labor que tenía que realizar: personas con conocimientos de ingeniería eléctrica, de matemáticas y de
lógica. De sus deliberaciones surgió la noción de diseñar un ordenador que contara con una unidad
de memoria dedicada, que almacenase datos, pero que no necesariamente realizase operaciones
aritméticas o de otro tipo. Las instrucciones, al igual que los datos, se almacenarían en este dispositivo,
y cada uno de ellos se podría recuperar o almacenar a gran velocidad. Este requisito surgió de la
necesidad práctica de ganar velocidad, como antes señaló Mauchly, así como del deseo de la ingeniería
de disponer de una unidad de memoria simple sin la complicación adicional de tener que dividirla y
asignar un espacio diferente para cada tipo de información.

La incorporación del matemático John Von Neumann (1903-1957) al equipo de diseño hizo que la idea
del programa almacenado en la memoria en formato binario junto con los datos, que hoy caracteriza
al ordenador y que se conoce como arquitectura Von Neumann, se le atribuyera sólo a él, cuando es
casi seguro que fue un diseño de Eckert y Mauchly al que Neumann dio forma escrita. Neumann
trabajó en muchos campos de un amplio espectro de la física y de la matemática. Entre otras áreas, en
grupos topológicos y topología diferencial, centrándose en los anillos de operadores, obteniendo como
resultado las geometrías continuas que permiten describir espacios cuya dimensión se expresa por un
número real.

En 1949 la Eckert Mauchly Corporation desarrolló el primer ordenador binario automático que se
bautizó como BINAC (Binary Automatic Computer) cuyas principales novedades fueron el uso de
diodos semiconductores, el empleo de cintas magnéticas y la realización de determinadas
transmisiones de señales internas en paralelo.

12. Generaciones tecnológicas de ordenadores

El uso de válvulas electrónicas de vacío, como en el caso del ENIAC, sustituidas posteriormente por
líneas de retardo de mercurio, constituyó una primera generación de ordenadores. Además de este
tipo de memorias, también se utilizaban para conservar la información las tarjetas y las cintas
perforadas.

Hacia 1955, se sitúa el nacimiento de la segunda generación, caracterizada por el uso de transistores
inventados en 1958 por los físicos Walter Brattain, William Shockley y John Bardeen de los
Laboratorios Bell.

7
La tercera generación se suele caracterizar por el uso de circuitos integrados: resistencias,
condensadores, diodos y tríodos, integrados en pastillas. A mediados de los 60, estos componentes
empezarán a ser conocidos como chips.

La cuarta generación corresponde a unos niveles de mayor densidad de integración. Surge el


microprocesador: chip que incluye todos los elementos de la Unidad Central de Proceso o CPU.

Los programas escritos en lenguajes máquina sólo son transportables a otra máquina que posea
exactamente el mismo modelo de procesador y una configuración física totalmente equivalente o
compatible. Aunque se recurra a la compactación del binario a hexadecimal, la programación en
lenguaje máquina es tediosa exigiendo una gran minuciosidad y paciencia. Por todo lo anterior quedó
claro desde la primera generación de ordenadores, la necesidad de recurrir a lenguajes simbólicos de
programación.

13. Los primeros lenguajes


Los primeros trabajos comienzan en la década de los años 50, con un compilador de lenguaje llamado
A2, segunda versión de un fracasado A1, desarrollado por Grace N. Hooper (1907-1992) para UNIVAC.
Un lenguaje orientado a la selección y provisión de expresiones del máximo poder lógico, entre
aquellos lenguajes en los que utilizando las técnicas de optimización habituales consiguen
compilaciones que proveen un eficiente código de máquina.

El primer lenguaje de programación con estas características apareció en 1957 con el nombre de
FORTRAN. Poco después, en 1959, apareció el lenguaje COBOL (Common Business Oriented
Language) por iniciativa del Departamento de Defensa norteamericano. En 1960, IBM desarrolla el
RPG (Report Program Generator) y otro equipo de matemáticos europeos y americanos el ALGOL
(Algorithmic Language).

En 1962 se comienza a desarrollar el PL/1 (Programming Language Version 1) como el primer intento
de creación de un lenguaje universal. En 1965, el profesor Ken Iverson de la Universidad de Harvard
diseña el APL (A Programming Language) con propósitos exclusivamente matemáticos, orientado
especialmente a cálculo de matrices y enseñanza del álgebra lineal y que incorpora funciones
recursivas y funciones de formación e inversión de matrices.

El proyecto del lenguaje ADA, bautizado así en honor a Lady Ada Augusta Byron de Lovelace, nace en
1974 en una comisión interna del Pentágono como un nuevo intento de lenguaje único universal.
Orientado a la multitarea, permite la programación estructurada y soporta los tipos abstractos de
datos, siendo ampliamente transportable. Su principal inconveniente es que es difícil de aprender al
incorporar tantas potencialidades.

14. PASCAL Y C
El nombre de PASCAL para el lenguaje concebido en 1970 por el profesor Niklaus Wirth de la
Universidad de Viena, es un homenaje al matemático y filósofo francés Blaise Pascal.

El lenguaje C, diseñado a principios de los 70 por los Laboratorios Bell, estaba pensado inicialmente
para codificar el sistema operativo UNIX y poder transportarlo de un ordenador a otro, teniendo que

8
programar en la nueva máquina únicamente el núcleo más interno en lenguaje ensamblador. Es un
lenguaje estructurado con características parecidas al Pascal, pero a diferencia de éste, une los aspectos
más deseables de un ensamblador con las ventajas de universalidad, legibilidad y transportabilidad de
un lenguaje de alto nivel. Es un buen lenguaje tanto para la programación de sistemas como para la
programación de aplicaciones. La gran aceptación del lenguaje C y de UNIX como un entorno
completo, convierten al C en uno de los lenguajes con mayor proyección.

15. Sistemas operativos


El diseño de un sistema operativo es una tarea difícil y compleja ya que supone un conocimiento
íntimo del hardware de la máquina. Los sistemas operativos varían mucho dependiendo del tipo de
ordenador en el que operan, el rango de complejidad de las funciones que se le piden, el grado de
adaptación a los problemas de usuario y el conjunto de lenguajes de programación que soportan.
Lógicamente, la tendencia es tener sistemas operativos que no dependan del tipo de ordenador ni del
procesador utilizado.

Los primeros sistemas operativos fueron desarrollados en 1955 para reducir el tiempo de espera de la
unidad central de proceso entre dos trabajos consecutivos. En la primera generación al sistema
operativo se le exigía únicamente ayudas en las operaciones de entrada y salida de datos y en las
traducciones de lenguajes ensambladores. Con la segunda generación se desarrollan los soportes de
tipo magnético y la gestión optimizada de datos. En la tercera generación se incrementan las
velocidades de los periféricos y se introducen los canales para manejarlos a nivel físico, en forma
independiente de la unidad central. Nace el concepto de multiprogramación, tiempo real y tiempo
compartido, el teleproceso, las redes de computadores y la inteligencia distribuida. La cuarta
generación está marcada por la potencialidad del sistema personal como terminal inteligente de
acceso a una red de computadores o a un macrocomputador o host. Es el momento del gran impulso
de las redes locales y de las bases de datos relacionales distribuida. Nacen los lenguajes de cuarta
generación y se apunta hacia la quinta generación de ordenadores, la inteligencia artificial y los
sistemas expertos.

Aparece el disquete (floppy disk) como sistema de almacenamiento masivo externo.

16. La microinformática
En 1971 surge el primer microprocesador de una forma un tanto inesperada. El Intel 4004 nace como
consecuencia del proyecto desarrollado para obtener una calculadora universal planteada por la
empresa japonesa Busicom. Finalmente, ésta declinó adquirir el nuevo chip, el primero que integraba
todos los elementos de un procesador.

La empresa francesa REE (Realisations et Etude Electroniques) presenta en 1972 el Micral, el primer
ordenador construido en torno a un microprocesador, el Intel 8008, con tecnología de ocho bits.
Debido al desconocimiento de éste en los Estados Unidos, el primer microordenador se suele atribuir
erróneamente al Altair, producido por la compañía MITS.

17. El uso de ordenadores en el mundo

9
Bueno sé que algunos de los lectores dirían que lo fundamental no es que una cosa exista, sino que sea
apta para el público y que todos puedan tener acceso a esa tecnología. Ya que después de todo no han
sido muchos los que han tenido la oportunidad de sacar provecho de la capacidad de proceso el
ENIAC, y los demás ordenadores que se desarrollaron en esta generación.

Siendo este el caso entonces dirían que el verdadero origen de la revolución informática se dio en
1997, año en que dos jóvenes, Steve Jobs y Steve Wozniak, dieron origen a lo que se le conoce con
Silicón Valley. Ya que fueron ellos los que dieron a conocer al mundo el primer ordenador llamado
Apple l, (al igual que su predecesor inmediato el Altair y su sucesor el IBM PC). El Apple fue el que
saco a la informática del mundo industrializado y la experticia (ya que en esos tiempos para manejar
un ordenador se necesitaba cierto grado de conocimiento en hardware y software) para llevarlo al resto
del mundo.

La compañía de ordenadores Apple despega definitivamente produciendo la siguiente generación de


ordenadores Apple ll. Poco después es presentado TRS-80 de Radio Shack y el PET 2001 de
Commodore. Rank Xerox demostró poca visión de futuro cuando decidió no emplear la nueva interfaz
WIMP (windows, icons, mouse y pop-up menus), desarrollada en los setenta en su centro de Palo Alto.
Años después, esta interfaz pasó a ser el alma del nuevo ordenador LISA de Apple en 1982, que ya
incluía un ratón, aunque su éxito definitivo no llegó hasta dos años más tarde con el Macintosh.

Por otro lado, la dominadora del mercado informático mundial, IBM, se atrevió a entrar en 1981 en el
mundo de la microinformática con su IBM PC. La configuración estándar original incluía el procesador
8088 de Intel, 16KB de memoria principal, un teclado y un puerto para conectar un cassette. Como
monitor se utilizaba un aparato de televisión. La improvisación le obligó a adoptar una arquitectura
abierta y esto favoreció el actual dominio del PC en el mercado, al que tanto debe hoy la empresa
proveedora de su primer sistema operativo: Microsoft con el D.O.S. o Disk Operating System. Sin
embargo, Microsoft no alcanzó las funcionalidades del Macintosh hasta 1991 con Windows 3.1.

La proliferación de PCs posibilitó el nacimiento y difusión de los nuevos virus informáticos que,
inspirados en el concepto de los autómatas reproducibles que había teorizado Von Neumann en los
años cuarenta, hoy se han convertido en un problema para los usuarios de la microinformática. Se
suele considerar que el Brain de 1985 de origen pakistaní es el primero de los virus informáticos, que
hoy se cuentan por millares. En el entorno de UNIX e Internet se hizo famoso el gusano que Robert
Morris Jr. soltó y que colapsó la red el 2 de noviembre de 1988.

18. Internet
Según los jóvenes de hoy, la revolución informática es aún más reciente, pues consideran que se
produjo cuando, gracias a Internet, un ordenador en un lugar determinado intercambió información
con ordenadores que estaban en otros lugares. La más famosa de estas redes la creó la Agencia de
proyectos de investigación avanzada (Advance Research Projects Agency, ARPA) del Departamento
de Defensa de Estados Unidos, que a principios de 1969 ya tenía una red en marcha (ARPANET). Sin
embargo, también hubo otras redes que conectaron ordenadores personales y miniordenadores.
Cuando éstas se combinaron, en la década de 1980, nació Internet tal y como hoy la conocemos
(Abbate 1999).

En los años ochenta, Internet se usaba en ámbitos académicos y militares para correo electrónico,
transmisión de archivos (FTP) o grupos de discusión (news), pero la verdadera aplicación que

10
revolucionaría su uso no llegó hasta 1990 con el servicio World Wide Web, diseñado por Tim Berners-
Lee y Roger Cailliau del CERN de Ginebra, para ayudar a mantener una red de hipertexto informativa

“Los ingenieros de Silicon Valley hablan de que los avances en informática se desarrollan en Internet,
unos seis años más rápido de lo que lo hacen en cualquier otro lugar. Incluso tras eliminar parte de
esta hipérbole publicitaria, esta observación parece ser cierta.”

19. CONCLUSIÓN.
En conclusión la informática empezó de manera lenta y metódica, para luego ser disparada con la
llegada de las conexiones a la Red, los buscadores de internet, los dispositivos portátiles, entre otros.

Sinceramente es difícil definir su trayectoria histórica, ya que existen muchos puntos donde pudo
haber dado origen.

Como he podido comprobar después de realizar este trabajo, el camino para lograr este nivel de
tecnología que conocemos hoy en día no asido nada fácil. En el desarrollo de la informática se ha
logrado tantos éxitos como fracasos, pero todo esto ha contribuido a la evolución tecnológica. Como
se abran podido dar cuenta, las computadoras, cada año son más poderosas.

Lo que impulsa a los ingenieros a desarrollar chips cada vez más pequeños, se encuentra definido por
la ley de moore. Gordon Moore cofundador de Intel dijo que cada año se duplica la densidad de los
microprocesadores. Si bien esto es cierto, ay otros teóricos que dicen que algún día la ley de moore
tendrá fin, ya que abra un punto donde la física atómica ya no permita desarrollar chips más densos.
Si bien esta teoría es en algo cierto, aún falta mucho para llegar a ese nivel de densidad.

Entonces podemos decir que aún faltan muchas cosas por inventar, y que esta generación será muy
interesante.

Bibliografía
Beekman, G., Computación & Informática Hoy, Addison Wesley, 1995

Corchado, J.M. Proyecto Docente, Universidad de Salamanca, 1998

Giarratano, J.C. Los Ordenadores. Fundamentos y Sistemas, Díaz de Santos, 1984

De Miguel, P. Fundamentos de los Computadores, Ed. Paraninfo, Madrid, 1992

http://www.computer.org/education/cc1991/

11

You might also like