4ta Generacion de PCs v.6

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 36

 INDICE

PAG.

 INTRODUCCION……………………………………………………………..... 2
 RESUMEN………………………………………………………………………. 2
 PLANTEAMIENTO DEL PROBLEMA………………………………………. 2
a) PROBLEMÁTICA……………………………………………... 2
b) DELIMITACION……………………………………………….. 2
c) JUSTIFICACION……………………………………………… 2
d) OBJETIVOS…………………………………………………… 2
 FUNDAMENTACION TEORICA…………………………………………….. 2
 ANEXOS…………………………………………………………………………4
 BIBLIOGRAFIA…………………………………………………………………5

1
 INTRODUCCION

En la cuarta generación aparecen los microprocesadores siendo un avance


importante en microelectrónica, son circuitos integrados de alta densidad y con
una velocidad impresionante.

Las microcomputadoras con base en estos circuitos son extremadamente


pequeñas y baratas, por lo que su uso se extiende al mercado industrial. Así
nacen las computadoras personales que han adquirido proporciones enormes
y que han influido en la sociedad en general.

Hoy día todos los habitantes del mundo somos dependientes directos o
indirectos del uso de las computadoras, como en oficinas bancarias, grandes y
medianos comercios, centros de enseñanza, oficinas de ventas y
reservaciones para viajes, clínicas médicas u hospitales, fábricas y almacenes
industriales, organismos de gobierno y oficinas administrativas, laboratorios, y
centros de investigación. Estas máquinas maravillosas inventadas por el
hombre, tal como ahora las concebimos, son el resultado de una secuencia de
eventos que el transcurso de esta investigación conoceremos.

 RESUMEN

Dos mejoras en la tecnología de las computadoras marcan el inicio de la


cuarta generación: el reemplazo de las memorias con núcleos magnéticos, por
las de chips de silicio y la colocación de muchos más componentes en un
Chip: producto de la micro miniaturización de los circuitos electrónicos. El
tamaño reducido del microprocesador y de chips hizo posible la creación de
las computadoras personales (PC)

 PLANTEAMIENTO DEL PROBLEMA


a) PROBLEMÁTICA

2
En la tercera generación de computadoras, se dio el uso de circuitos
integrados, no obstantes, estos no abarcaban del todo las exigencias
demandadas a comienzos de la década de los 70s.
b) DELIMITACION
La evolución y avance tecnológico se da a nivel internacional, ya que el
mismo interviene en la globalización.
c) JUSTIFICACION
Con el fin de entender el desarrollo de los avances tecnológicos, que
dominan cada vez de mayor manera la vida cotidiana humana, es por
qué se ve la necesidad de aprender de la historia de los mismos.
d) OBJETIVOS
Comprender de mejor manera la historia, como tema introductorio a la
materia de Sistemas de Computación, para de tal manera entender de
mejor manera los avances y análisis del mismo.
 FUNDAMENTACION TEORICA

La denominada Cuarta Generación (1971 a 1983) es el producto de la micro


miniaturización de los circuitos electrónicos. El tamaño reducido del
microprocesador de chips hizo posible la creación de las computadoras
personales (PC). Hoy en día las tecnologías LSI (Integración a gran escala) y
VLSI (Integración a muy gran escala) permiten que cientos de miles de
componentes electrónicos se almacenen en un chip. Usando VLSI, un
fabricante puede hacer que una computadora pequeña rivalice con una
computadora de la primera generación que ocupaba un cuarto completo.
Hicieron su gran debut las microcomputadoras.

Hizo que sea una computadora ideal para uso “personal”, de ahí que el
término “PC” se estandarizara y los clones que sacaron posteriormente otras
empresas fueron llamados “PC y compatibles”, usando procesadores del
mismo tipo que las IBM , pero a un costo menor y pudiendo ejecutar el mismo
tipo de programas. Existen otros tipos de microcomputadoras , como la
Macintosh, que no son compatibles con la IBM, pero que en muchos de los

3
casos se les llaman también “PC”, por ser de uso personal. El primer
microprocesador fue el Intel 4004, producido en 1971. Se desarrolló
originalmente para una calculadora, y resultaba revolucionario para su época.
Contenía 2.300 transistores en un microprocesador de 4 bits que sólo podía
realizar 60.000 operaciones por segundo.

La cuarta generación de las computadoras se da desde 1971 a 1981, lo más


importante en esta generacion es el invento del microprocesador el cual unía
los circuitos integrados en un solo bloque. La creación del microprocesador
hizo posible el desarrollo de las computadoras personales o PC, lo cual
marcaría una revolucion en el mundo de la computación, esto cambiaría la
forma de trabajar e incluso de vivir de muchas personas hasta la actualidad.

En el año de 1971 la compañía INTEL crea el primer chip de 4 bits, el cual


contenía una gran cantidad de transistores.

Esta generación de computadores aparecen las primeras microcomputadoras


las cuales fueron fabricadas por la compañía APPLE e IBM.

Tambien se incorpora en esta generacion el desarrollo de sortware orientados


tanto para adultos como para niños, es aqui donde se da inicio a MS-DOS
(Microsoft Disk Operating System) o disco operativo de sistema, asimismo se
da una revolución en el desarrollo del hardware.

1971.   El microprocesador Intel 4004                                                         

  

En 1969, la empresa japonesa Busicom solicitó a Intel que le fabricase un chip


para un modelo nuevo de calculadora de escritorio, con cinta impresora, que
deseaba producir masivamente.

Un equipo liderado por Marcial Edward "Ted Hoff", quien fue uno de sus


primeros empleados desde 1986, desarrolló y terminó de fabricar en Marzo de

4
1971 un microprocesador de propósito general, al cual denominaron el chip
4000.

 Este chip de 4 bits, contenía 23,000 transistores que procesaban 108 kHz o
0.06 MIPS. Contaba con 46 instrucciones y 4k de espacio de almacenamiento.

 Ted Hoff se propuso diseñar un microprocesador de capacidades o


prestaciones más completas que las solicitadas por la empresa japonesa,
realizando el mismo esfuerzo pero con la posibilidad de usos futuros. Luego
de sus predecesores, Intel fabricó los modelos 4001, 4002, 4003 y 4004.

Respecto al modelo 4004, se le agregaron 14 instrucciones y una capacidad


de almacenamiento de  8k.

Intel vendió el microchip a la empresa japonesa, pero después le recompró los


derechos de propiedad intelectual por US $ 60,000, pues se dio cuenta que si
bien el chip 4004 había sido fabricado para operar como cerebro de una
calculadora, su versatibilidad como microprocesador de uso general le
permitía ser tan poderoso como el ENIAC.

1971   La Kenbak I, primera PC

 En el año de 1985 el Museo de Computación de Boston realizó un concurso


con el objeto de registrar la historia de la computación. El museo estuvo
publicitando este evento en todos los Estados Unidos, solicitando al público su
contribución personal y como resultado de 316 muestras remitidas y ante la
enorme sorpresa de todos, un modelo descontinuado y olvidado resultó haber
sido la primera Computadora Personal, que inclusive precedió a la Altair.

La Kenbak 1 fue fabricada en 1971 por John Blankenbaker de la Kenbak


Corporation de Los Ángeles, vale decir, 4 años antes que la Altair fuese
lanzada al mercado. Esta PC se orientó al mercado educacional y contaba con
apenas 256 bytes (no kilobytes) de memoria Ram y su programación se
realizaba por medio de palanquitas (switches).

5
Solamente se comercializaron 40 equipos al costo de 750 dólares.

  1973   Los discos Winchister

 Los discos duros Winchester son introducidos por IBM en los modelos 3340.
Estos dispositivos de almacenamiento se convierten en el estándar de la
industria. Provisto de un pequeño cabezal de lectura/escritura con un sistema
de aire que le permite movilizarse muy cerca de la superficie del disco de una
película de 18 millonésimas de pulgada de ancho.

 El disco duro 3340 duplica la densidad de los discos IBM cercano a los 1.7
millones de bits por pulgada cuadrada.

 1974   8080, el primer CPU de Intel

 La verdadera industria de la computación, en todos los aspectos, empezó


en 1974 cuando Intel Corporation presentó su CPU (Unidad Central de
Procesos) compuesto por un microchipde circuito integrado denominado 8080.

Contenía 4,500 transistores y podía manejar 64k de memoria


aleatoria o RAM a través de un bus de datos de 8 bits. El 8080 fue el cerebro
de la primera computadora personal Mits Altair, la cual promovió un gran
interés en hogares y pequeños negocios a partir de 1975.

  1975 La Altair 8800 producida por Micro Instrumentation Telemetry


Systems

 La primera computadora personal comercial fue la Altair 8800 fabricada por la


empresa MITS en 1975 y  diseñada por Ed Roberts y Bill Yates.

El primer modelo de estas computadoras no contaba con monitor ni teclado,


tan sólo con luces LED y pequeñas palancas o switches para facilitar la
programación. La información se almacenaba en cassettes de las radio
grabadoras y se visualizaba en los aparatos de televisión.

Su costo era de $395.00,  con una memoria de 256 bytes.

6
 1975   CM/P,  el primer sistema operativo estándar

Gary Kildall y John Torode fundan en 1975 la Digital Research que ingresa


exitosamente al mercado con su sistema operativo CPM (Control Program for
Microcomputers), escrito por Gary Kildall para las computadoras basadas en el
microchip 8080 y  Z80 y que fuera muy popular en los finales de la década de
los 70s, pero con la aparición del MS-DOS virtualmente desapareció del
mercado.

Gary Kildall fue el creador del CP/M, primer sistema operativo estándar de la


industria. Su vida está llena de anécdotas y colorido que forman parte del
folclore, que unidos a sus inventos, lo hacen ocupar un sitio de privilegio en la
era de la computación.

Siendo estudiante de secundaria, en su ciudad natal Seattle, estado de


Washington, deseó convertirse en profesor de matemáticas y apenas
concluido sus estudios llegó a enseñar en el Kildall College of Nautical
Knowledge, de propiedad de su familia y que fuera fundado por su abuelo en
1924.

Posteriormente ingresa a la Universidad de Chicago y muy pronto se casa con


su novia de la secundaria Dorothy McEwen, transformándolo en un estudiante
aplicado, dejando atrás los años de rendimiento mediocre en sus notas de
estudios, los carros de carrera y las travesuras de la adolescencia.

Estando en la facultad de matemáticas se interesó por las computadoras y al


terminar su bachillerato decidió obtener una maestría en Ciencias de la
Computación. Sin embargo,  ocurre un incidente,  es enrolado en la reserva de
la Marina de Guerra de su país y se le dio a escoger entre ir a pelear en la
guerra de Vietnam o dictar clases en la Naval Postgraduate School in
Monterey, estado de California.

La respuesta a la propuesta es obvia y decide viajar a California. Fue en


Monterey que Gary creó el CP/M, cuyas siglas inicialmente se dieron para

7
el Control Program Monitor, para posteriormente cambiarlo a Computer
Program Monitor. Por el contrario de cualquier sistema operativo desarrollado
antes o después, el CP/M no fue el resultado de investigación y desarrollo de
un equipo de ingenieros sino la inventiva y el trabajo de un sólo hombre.
Aunque su sistema operativo resultó ser un buen producto, por muchas
razones técnicas el CP/M fue lanzado al mercado apenas un año antes de la
aparición de las primeras micro computadoras comerciales.

Gary Kildall fallece en el año de 1994, debido a un trágico accidente


automovilístico.

1975 Fundación de Microsoft

 Fundadores de la empresa Microsoft (Bill Gates y Paul Allen)

 En 1975 William Henry Gates y Paul Allen forman Microsoft, en la ciudad


de Albuquerque, Nuevo México, debido a que la sede de la MITS estaba en
esa ciudad. Microsoft fue el proveedor de la versión del lenguaje BASIC para
la computadora personal MITS Altair.

Un par de años antes estos dos amigos de la Universidad de Harvard habían


fundado TRAF-O-DATA una pequeña empresa que se encargó de desarrollar
un software para la administración del tráfico en la ciudad de Seattle. William
Gates estudió Economía pero abandonó sus estudios para incursionar en el
desarrollo de software y los negocios.

Podemos elegir a 1977 como el año del despegue de la computación personal


con la aparición en el mercado de varios modelos de este tipo de máquinas.
Estuvieron a la venta equipos tales como: Commodore (la cual utilizaba un
televisor como monitor), un modelo de Radio Shack, Atari y por supuesto la de
mayor éxito la Apple II de Woznizk y Jobs. Junto con estas máquinas aparece
uno de los primeros sistemas operativos, el CP/M diseñado por la Digital
Research.

 1976   Los dos Steven y la Apple Computer

8
Steven Wozniak y Steven Jobs fueron amigos desde la escuela secundaria y
ambos se habían interesado mucho en electrónica y eran considerados por
sus compañeros como personas controvertidas. Después de su graduación se
mantuvieron en contacto y ambos consiguieron empleos en corporaciones de
Silicon Valley. (Wozniak trabajó en Hewlett-Packard y Jobs en Atari).

 Wozniak se había dedicado un buen tiempo al diseño de computadoras y


finalmente en 1976, construyó la que se convertiría en la Apple I. Steven Jobs
con una visión futurista presionó a Wozniak para tratar de vender los equipos
recién inventados y el 1o de Abril de 1976 nace  Apple Computer.

A pesar de la gran novedad que causó su presentación, este modelo no


encuentra el éxito esperado.

En el año de 1977, desarrollan el modelo  Apple II; resultado todo un éxito, y


con ello, la compañía comienza a imponerse en  el mercado norteamericano.

Al año siguiente lanzaron la Apple Disk II, la primera disquetera, y para el año
de 1980 la compañía fundada por Jobs y Wozniak ya contaba con varios miles
de empleados. Emerge una forma de distribución masiva de software, a
precios más asequibles

1977 La TRS-80 de Tandy/Radio Shack  

El primer modelo de esta computadora fue vendido el 3 de Agosto de 1977 por


la suma de US $ 599.95 con 4k de memoria, pero muy pronto subió a 16k con
el modelo de Nivel II y al cual se le agregó un teclado y posibilidad de
expansión de memoria a 32k. El microprocesador empleado fue el Z-80 de
1.77 Mhz, con sistema operativo BASIC grabado en un chip de 12k de
memoria ROM. Se le podía agregar periféricos tales como un televisor de 12",
casetera o un diskdrive de 89 o 102k, impresora con conexión RS-232 y hasta
un sintetizador de voz.

Esta computadora fue una de las más populares de la época.

9
1978 el microprocesador Intel 8086

En 1978 se produce un evento importante, la fabricación del microprocesador


Intel 8086 el cual provocó una demanda masiva y motivó a la IBM a crear su
flamante División de Computadoras Personales.

El éxito de ventas alcanzado, hizo que Intel comenzara a figurar en el ranking


de las 500 empresas más grandes del mundo, tal como lo publicara la revista
FORTUNE 500 de Malcom Forbes, "la empresa No. 1 de las Exitosas de los
Negocios de los 70´s.

Un microprocesador de la misma familia, el 8088, sería utilizado por IBM en su


primera PC comercial.

En el mes de Julio de ese mismo año la revista Radio Electronics publica un


interesante artículo, con diagramas y planos enseñando a construir la
computadora Mark 8, basada en el microprocesador 8088 y a la que
simplemente denominan "Su minicomputadora personal". Muchas personas en
los Estados Unidos fabricaron computadoras personales en sus propios
hogares, lo cual incentivó aún más su uso.

Steven Jobs visita los Laboratorios SPARC de la Xerox y obtiene ideas para
desarrollar la Macintosh. MicroPro, una de las primeras grandes casas de
software de la época lanza su procesador de textos WORDSTAR. El sistema
operativo de la época es el CPM-86.

La hoja de cálculos VisiCalc se convierte en software promotor de ventas de


las computadoras personales provocando una verdadera revolución y récord
de ventas. VisiCalc resuelve en forma muy sencilla los problemas matemáticos
de los usuarios. De allí su nombre 'Visual Calculator'. Muchísimas
computadoras Apple se vendieron con el único propósito de correr el VisiCalc.
Es así como da comienzo la revolución en el desarrollo del software.

10
Todos estos grandes éxitos despertaron en la IBM la ambición de ingresar al
mercado de las computadoras personales y participar en las suculentas
ganancias que obtenían empresas como Apple, Tandy/Radio Shack,
Commodore y hasta Spectrum de Inglaterra.

En 1984, la compañía Apple lanzó una máquina que introduciría nuevamente


una revolución: el Macintosh. Éste era el sucesor de un modelo llamado "Lisa"
-pero que no tuvo aceptación debido a su costo y escasa capacidad- en que
se introducía por primera vez el concepto de interfaz gráfica, la analogía del
"escritorio" y un nuevo periférico: el "mouse" o ratón, como herramienta para
controlar al computador.

Existen además supercomputadoras que en vez de funcionar a base de un


sólo microprocesador utilizan miles de éstos, con lo que puede desarrollarse
un gran número de operaciones simultáneas, llegando a los doscientos
millones por segundo.

El primer modelo fue desarrollado por Cray y comercializado hacia 1984.


Realizaba 80 millones de operaciones por segundo.

En 1986, Floating Point Systems, compañía competidora de la Cray Research,


lanzó su "T-40.000", con 16,384 microprocesadores coordinados por
"transputadores", el cual es capaz de procesar a una velocidad de 262
millones de operaciones en punto flotante por segundo (Mflops). Hoy, algunos
supercomputadoras utilizan hasta 65,000 microprocesadores.

 En 1991, un equipo de investigadores de IBM desarrolló el aparato más


pequeño jamás creado por el hombre: un interruptor que mide el tamaño de un
átomo. Es capaz de controlar el flujo de corriente eléctrica desplazando un
átomo de xenón entre dos diminutos electrodos. Esta proeza es de suma
importancia para el desarrollo futuro de computadores enanos ya que los
componentes con dos posibles estados constituyen la base de los
procesadores.

11
Este mismo año, Digital Equipment (DEC) lanzó al mercado una familia de
computadores basados en arquitecturas de paralelismo masivo: las máquinas
van en un rango desde los 1,024 hasta los 16,384 microprocesadores que
trabajan en forma paralela. En su configuración máxima (por un costo de unos
1,500,000 dólares) son capaces de realizar 26 mil millones de instrucciones
básicas por segundo (26,000 MIPS).

La firma NCR exhibió en Chile su nuevo microcomputador sin teclado, lanzado


en diciembre de 1991 en los Estados Unidos. Se trata del "Notepad NCR
3125" que consiste en una caja del tamaño de una hoja carta y de 3 cm de
espesor y un lápiz inalámbrico especial. Pesa menos de 2 kg, por lo cual
puede ser usado fácilmente como si fuese un bloc de apuntes. Tiene una
pantalla sensible a los pulsos electrónicos enviados por el lápiz. Así, el usuario
accede al computador mediante símbolos, gráficos y escritura manual.
Funciona con software de procesamiento de textos, bases de datos, gráfico,
de fax y comunicación con otro computador por teléfono.

En 1993 mediante la utilización de un láser de luz azul, científicos de IBM han


logrado grabar y leer datos en un disco óptico a una densidad de 2,5 Gigabits
(2,500 millones de bits) por pulgada cuadrada y a una velocidad de 2 millones
de bits por segundo, lo cual constituye un nuevo récord. Con esta densidad se
podría almacenar 6,500 Mb en discos de 5,25" de doble cara. Esta tecnología
podría comercializarse dentro de algunos años.En noviembre de 1994,
Nintendo anunció el primer juego de "realidad virtual" (gráfica tridimensional
por la cual el usuario puede desplazarse de modo ficticio), el "Virtual Boy", con
un costo de 199 dólares. (El primer proyecto de este tipo le había costado
200,000 dólares a la NASA). Meses después, Sony lanzó por 200 dólares su
"Playstation", una "estación" de juego con una capacidad 1,000 MIPS
(millones de instrucciones por segundo), mientras el procesador Intel -de
muchos computadores- a esa fecha, sólo permitía 100 MIPS

CHIP DE SILICIO.

12
En 1973, Scelbi Computer Consulting creó lo que se dijo fue el primer
microcomputador, el Scelbi 8-H. IBM introduce la primera impresora láser.

MICROCOMPUTADOR: EL ALTAIR

8800 Micro Instrumentación Telemetry Systems (MITS) introdujo el Altair 8800


($350), considerado el primer microcomputador real, el cual tenía un

13
microprocesador de 8-bit Intel 8080, 256 bytes de memoria, y un panel frontal
de switches, no tenia teclado ni dispositivo de almacenamiento. Paul Allen y
Bill Gates desarrollaron una versión de BASIC como lenguaje de
programación del computador.

En 1976 docenas de compañías realizaron las primeras conferencias de


microcomputación, de donde nació el primer tablero gráfico a color para
microcomputadores. Intel produce el 8085, un 8080 modificado con algunas
características extra de entrada/salida. Poco más tarde, Motorola fue utilizada
como controlador en equipos industriales. Michael Shrayer escribe Electric
Pencil, el primer procesador de palabras para microcomputadores. Shugart
anuncia su manejador de disquetes "minifloppy" por $390.

En 1976 se forma Apple Computer con Steve Jobs y Steve Wozniak,


mostrando el computador Apple I, que consistía principalmente de un tablero
de circuitos.

APPLE COMPUTER

En 1977 La primera computadora personal ensamblada había llegado a ser


parte de la vida personal de sus usuarios, y pronto aparecería en las
bibliotecas públicas, escuelas, y lugares de negocio. Micropolis introduce el
Metafloppy, un manejador de disquetes " con la capacidad de disquetes". En
1978 VISICALC, la primera hoja de trabajo, fue el primer programa que todo
negocio. Sus creadores fueron Dan Bricklin y Bob Frankston, quienes lo
escribieron en una Apple. Houston Instruments anuncia el plotter (graficador)

14
HiPlot. Computer Headware anuncia el manejador de base de datos
WHATSIT. Intel produce el 8086, una CPU de 16 bits en un chip. Este
procesador es compatible con el 8080, que tenía la misma arquitectura y
corría los mismos programas. DEC introduce la VAX 11/780, computadora de
32 bits que se hizo popular para aplicaciones técnicas y científicas.

En 1979 Hayes Microcomputer anuncia el Micromodem 100. Este módem


automático transmitía a una velocidad de 110 a 300 bps. Los juegos de video,
tales como Pac Man y Space Invaders, se hacen populares. Intel introduce el
8088, que se convertirá en el corazón del IBM PC. En 1980 Radio Shack
anuncia el Computador a Color TRS-80. Se desarrolló el primer
microprocesador de 32-bit en un sólo chip, en Laboratorios Bell. El chip,
llamado Bellmac-32. COMPUTADORA DE INSTRUCCIÓN REDUCIDA (RISC)
El primer prototipo de Computadora de Instrucción Reducida (RISC) fue
desarrollado por un grupo de investigación en IBM. El minicomputador 801
usaba un juego simple de instrucciones en lenguaje de máquina, que podía
procesar un programa muy rápido.

En 1981 IBM introdujo su primer computador personal. La primera IBM PC


basado en un floppy, el cual usaba el microprocesador 8088 de Intel. Las
unidades originales tenían pantallas de sólo texto, los gráficos verdaderos
eran una alternativa que llegó más tarde. La memoria era limitada, típicamente
de sólo 128K o 256K de RAM. La máquina usaba un sistema operativo
conocido como DOS, un sistema de línea de comandos similar al más antiguo
sistema.

RORO y su microprocesadores también se utilizan en otros sistemas


informáticos avanzados, como impresoras, automóviles o aviones. En 1995 se
produjeron unos 4.000 millones de microprocesadores en todo el mundo. El
microprocesador es un tipo de circuito sumamente integrado. Los circuitos
integrados, también conocidos como microchips o chips, son circuitos
electrónicos complejos formados por componentes extremadamente pequeños

15
formados en una única pieza plana de poco espesor de un material conocido
como semiconductor.

Los microprocesadores modernos incorporan hasta 10 millones de transistores


(que actúan como amplificadores electrónicos, osciladores o, más a menudo,
como conmutadores), además de otros componentes como resistencias,
diodos, condensadores y conexiones, todo ello en una superficie comparable a
la de un sello postal.

Tecnología básica:

Procesador (CPU, por Central Processing Unit o Unidad Central de


Procesamiento), es por decirlo de alguna manera, el cerebro del ordenador.
Permite el procesamiento de información numérica, es decir, información
ingresada en formato binario, así como la ejecución de instrucciones
almacenadas en la memoria. 

El primer microprocesador (Intel 4004) se inventó en 1971. Era un dispositivo


de cálculo de 4 bits, con una velocidad de 108 kHz. Desde entonces, la
potencia de los microprocesadores ha aumentado de manera exponencial.
¿Qué son exactamente esas pequeñas piezas de silicona que hacen funcionar
un ordenador? 

Microprocesadores

Un microprocesador, también conocido como procesador, micro, chip o


microchip, es un circuito lógico que responde y procesa las operaciones
lógicas y aritméticas que hacen funcionar las computadoras, es su cerebro.

16
El primer microprocesador de 8 bits fue el Intel 8008, desarrollado en 1972
para su empleo en terminales informáticos.1 El Intel 8008 contenía 3.300
transistores. El primer microprocesador realmente diseñado para uso general,
desarrollado en 1974, fue el Intel 8080 de 8 bits, que contenía 4.500
transistores y podía ejecutar 200.000 instrucciones por segundo. Los
microprocesadores modernos tienen una capacidad y velocidad mucho
mayores.

Entre ellos figuran el Intel Pentium Pro, con 5,5 millones de transistores; el


UltraSparc-II, de Sun Microsystems, que contiene 5,4 millones de transistores;
el PowerPC 620, desarrollado conjuntamente por Apple, IBM y Motorola, con 7
millones de transistores, y el Alpha 21164A, de Digital Equipment Corporation,
con 9,3 millones de transistores. El Microprocesador, es un circuito electrónico
que actúa como unidad central de proceso de un ordenador, proporcionando
el control de las operaciones de cálculo.

Un microprocesador consta de varias secciones diferentes. Es más complejos


contienen a menudo otras secciones; por ejemplo, secciones de memoria
especializada denominadas memoria caché, modernos funcionan con una
anchura de bus de 64 bits: esto significa que pueden transmitirse
simultáneamente 64 bits de datos. Un cristal oscilante situado en el ordenador
proporciona una señal de sincronización, o señal de reloj, para coordinar todas
las actividades del microprocesador.

Funcionamiento

17
El procesador (denominado CPU, por Central Processing Unit) es un circuito
electrónico que funciona a la velocidad de un reloj interno, gracias a un cristal
de cuarzo que, sometido a una corriente eléctrica, envía pulsos, denominados
"picos". La velocidad de reloj (también denominada ciclo), corresponde al
número de pulsos por segundo, expresados en Hertz (Hz). De este modo, un
ordenador de 200 MHz posee un reloj que envía 200.000.000 pulsos por
segundo. Por lo general, la frecuencia de reloj es un múltiplo de la frecuencia
del sistema (FSB, Front-Side Buso Bus de la Parte Frontal), es decir, un
múltiplo de la frecuencia de la placa madre. 

Con cada pico de reloj, el procesador ejecuta una acción que corresponde a
su vez a una instrucción o bien a una parte de ella. La medida CPI (Cycles Per
Instruction o Ciclos por Instrucción) representa el número promedio de ciclos
de reloj necesarios para que el microprocesador ejecute una instrucción. En
consecuencia, la potencia del microprocesador puede caracterizarse por el
número de instrucciones por segundo que es capaz de procesar.
Los MIPS (millions of instructions per second o millones de instrucciones por
segundo) son las unidades que se utilizan, y corresponden a la frecuencia del
procesador dividida por el número de CPI. 

Instrucciones

Una instrucción es una operación elemental que el procesador puede


cumplir.. Las instrucciones se almacenan en la memoria principal, esperando
ser tratadas por el procesador. Las instrucciones poseen dos campos:

 El código de operación, que representa la acción que el procesador


debe ejecutar
 El código operando, que define los parámetros de la acción. El código
operando depende a su vez de la operación. Puede tratarse tanto de
información como de una dirección de memoria.

18
Código de Campo de Operación
Operación

El número de bits en una instrucción varía de acuerdo al tipo de información


(entre 1 y 4 bytes de 8 bits). 

Las instrucciones pueden agruparse en distintas categorías. A continuación


presentamos algunas de las más importantes:

 Acceso a Memoria: acceso a la memoria o transferencia de


información entre registros.
 Operaciones Aritméticas: operaciones tales como suma, resta,
división o multiplicación.
 Operaciones Lógicas: operaciones tales como Y, O, NO, NO
EXCLUSIVO, etc.
 Control: controles de secuencia, conexiones condicionales, etc.

Partes del microprocesador:

19
Registros

Cuando el procesador ejecuta instrucciones, la información almacena en


forma temporal en pequeñas ubicaciones de memoria local de 8, 16, 32 o 64
bits, denominadas registros. Dependiendo del tipo de procesador, el número
total de registros puede variar de 10 a varios cientos. 

Los registros más importantes son:

 el registro acumulador (ACC), que almacena los resultados de las


operaciones aritméticas y lógicas.
 el registro de estado (PSW, Processor Estado: Word o Palabra de
Estado del Procesador), que contiene los indicadores de estado del
sistema (lleva dígitos, desbordamientos, etc.).
 el registro de instrucción (RI), que contiene la instrucción que está
siendo procesada actualmente.
 el contador ordinal (OC o PC por Program Counter, Contador de
Programa), que contiene la dirección de la siguiente instrucción a
procesar.
 el registro del búfer, que almacena información en forma temporal
desde la memoria.

Memoria caché:

La memoria caché (también memoria buffer) es una memoria rápida que


permite reducir los tiempos de espera de las distintas informaciones
almacenada en la RAM (Random Access Memory o Memoria de Acceso
Aleatorio). En efecto, la memoria principal del ordenador es más lenta que la
del procesador. Existen, sin embargo, tipos de memoria que son mucho más
rápidos, pero que tienen un costo más elevado. La solución consiste
entonces, en incluir este tipo de memoria local próxima al procesador y en
almacenar en forma temporal la información principal que se procesará en él.

20
Los últimos modelos de ordenadores poseen muchos niveles distintos de
memoria caché:

 La Memoria caché nivel 1 (denominada L1 Cache, por Level 1


Cache) se encuentra integrada directamente al procesador. Se
subdivide en dos partes:
 La primera parte es la caché de instrucción, que contiene
instrucciones de la RAM que fueron decodificadas durante su paso por
las canalizaciones.
 La segunda parte es la caché de información, que contiene
información de la RAM, así como información utilizada recientemente
durante el funcionamiento del procesador.

El tiempo de espera para acceder a las memorias caché nivel 1 es muy


breve; es similar al de los registros internos del procesador.

 La memoria caché nivel 2 (denominada L2 Cache, por Level 2


Cache) se encuentra ubicada en la carcasa junto con el procesador
(en el chip). La caché nivel 2 es un intermediario entre el procesador
con su caché interna y la RAM. Se puede acceder más rápidamente
que a la RAM, pero no tanto como a la caché nivel 1.
 La memoria caché nivel 3 (denominada L3 Cache, por Level 3
Cache) se encuentra ubicada en la placa madre.

Todos estos niveles de caché reducen el tiempo de latencia de diversos tipos


de memoria al procesar o transferir información. Mientras el procesador está
en funcionamiento, el controlador de la caché nivel 1 puede interconectarse
con el controlador de la caché nivel 2, con el fin de transferir información sin
entorpecer el funcionamiento del procesador. También, la caché nivel 2
puede interconectarse con la RAM (caché nivel 3) para permitir la
transferencia sin entorpecer el funcionamiento normal del procesador. 

21
Señales de Control:

Las señales de control son señales electrónicas que orquestan las diversas


unidades del procesador que participan en la ejecución de una instrucción.
Dichas señales se envían utilizando un elemento denominado secuenciador.
Por ejemplo, la señal Leer/Escribir permite que la memoria se entere de que
el procesador desea leer o escribir información. 

Unidades Funcionales:

El procesador se compone de un grupo de unidades interrelacionadas (o


unidades de control). Aunque la arquitectura del microprocesador varía
considerablemente de un diseño a otro, los elementos principales del
microprocesador son los siguientes:

Una unidad de control que vincula la información entrante para luego


decodificarla y enviarla a la unidad de ejecución:La unidad de control se
compone de los siguientes elementos:

 Secuenciador (o unidad lógica y de supervisión ), que sincroniza la


ejecución de la instrucción con la velocidad de reloj. También envía
señales de control.
 Contador ordinal, que contiene la dirección de la instrucción que se
está ejecutando actualmente.
 Registro de instrucción, que contiene la instrucción siguiente.
 Una unidad de ejecución (o unidad de procesamiento), que cumple
las tareas que le asigna la unidad de instrucción. La unidad de
ejecución se compone de los siguientes elementos:
 La unidad aritmética lógica (se escribe ALU); sirve para la ejecución
de cálculos aritméticos básicos y funciones lógicas (Y, O, O
EXCLUSIVO, etc.).
 La unidad de punto flotante (se escribe FPU), que ejecuta cálculos
complejos parciales que la unidad aritmética lógica no puede realizar;

22
 El registro de estado.
 E registro acumulador.
 Una unidad de administración del bus (o unidad de entrada-salida)
que administra el flujo de información entrante y saliente, y que se
encuentra interconectado con el sistema RAM.

Características principales:

 Microprocesador: desarrollo por Intel Corporation a solicitud de una


empresa japonesa (1971)
 Se minimizan los circuitos, aumenta la capacidad de almacenamiento
 Reduce el tiempo de respuesta
 Gran expansión del uso de las computadoras
 Memorias electrónicas más rápidas
 Sistemas de tratamiento de base de datos
 Generalización de las aplicaciones
 Multiproceso
 Microcomputador
Otras tecnologías:
Otro de los factores tecnológicos que permiten este abaratamiento de los
computadores es la introducción de las memorias de semiconductores. Las
memorias de ferritas se caracterizaban principalmente por ser voluminosas,
caras y de lectura destructiva. Por eso, un gran avance fue la aplicación de la
tecnología de CIs a la construcción de memorias. En el año 1970 Fairchild
produjo la primera memoria de semiconductores de una capacidad
apreciable. Este primer chip era del mismo tamaño que un único núcleo de
ferrita y podía contener 256 bits de memoria. Además presentaba un tiempo
de aproximación mucho menor que el de la memoria de ferritas. Sin
embargo, su coste por bit era mayor que el del núcleo de ferrita. En el año
1974, el coste por bit de la memoria de semiconductores cayó por debajo del
coste de la memoria de ferritas. Ese año se construyó un chip de DRAM de 4

23
Kbits. Desde entonces, la capacidad de almacenamiento de las memorias no
ha dejado de incrementarse año tras año. Este crecimiento ha ido
acompañado por una disminución de su coste y un incremento en la
velocidad de aproximación.
La arquitectura de los primeros microprocesadores [Fagg96a] fue una
adaptación de las ideas usadas con anterioridad en los minicomputadores y
los mainframes. Las compañías incorporaban estas ideas en los
microprocesadores tan pronto como la rápida evolución de las capacidades
dadas por la tecnología y el coste lo permitían. Por eso esta generación se
caracteriza principalmente por las mejoras en la tecnología de circuitos
integrados, que los microprocesadores aprovechan más que otros
computadores debido a su mayor integración, y no tanto por las mejoras
arquitectónicas. Ya en 1974 el 6800 contenía alrededor de 5000 transistores
en tecnología NMOS de 6 micras. Operaba a 2 MHz y podía direccionar 64
Kbytes de memoria. También aparecieron el MC6502 y el Intel 8080 entre
otros. La disminución del coste de los CIs conduce a un gran abaratamiento
de los computadores, lo cual permite la fabricación de los primeros
computadores personales. En 1975 apareció el primer sistema de
computador popular basado en microprocesador: el MITS Altair 8800. Estaba
basado en el Intel 8080, un microprocesador de 8 bits que trabaja a 2 MHz
introducido en 1974. El Apple II se introdujo en 1977, basado en el MC6502,
junto con un terminal CRT, un teclado y una disquetera. Fue el primer
computador personal con gráficos en color. En 1978 Intel introdujo el
microprocesador de 16 bits 8086, con 29000 transistores, tecnología HMOS
de 3 micras, un rango de direcciones de 1 Mbyte y una velocidad de 8MHz.
Este diseño fue utilizado por IBM para el computador personal (IBM PC) que
se presentó en 1981, para el que elige el PC-DOS de Microsoft como
sistema operativo. El Apple II En 1979, pensando que la memoria seguiría
reduciendo su coste y que los futuros programas se escribirían en lenguajes
de alto nivel, Motorola incrementó el ancho de banda con un bus de datos de
16 bits y un bus de direcciones de 32 bits para el MC68000. Este

24
microprocesador podía dar un rendimiento pico de 2 MIPS. Debido a
limitaciones de empaquetamiento (tenía 64 pines) los 32 bits se redujeron a
24 en los primeros productos. También se añadieron registros de propósito
general de 32 bits, hasta un total de 16. El número total de transistores era
de alrededor de 68000, podía trabajar a 5V y a una velocidad de 8 MHz.
Apple Computer seleccionó el 68000 para la línea de computadores
personales Macintosh.
En 1976 aparece el Cray-1 de Cray Research, el primer supercomputador
vectorial.
En 1978 DEC presenta el VAX 11/780, un computador de 32 bits que se
hace popular para aplicaciones científicas y técnicas. Los diseñadores del
VAX buscan simplificar la compilación de lenguajes de alto nivel –en 1972
habían aparecido C, SmallTalk y Prolog, que se sumaron a los ya existentes
Fortran, Cobol y Lisp- y para ello crean una arquitectura ortogonal de
instrucciones complejas. Además optimizan el tamaño del código para que
ocupe menos memoria. En el sentido opuesto al de los diseñadores del VAX,
J. Cocke trabaja en el proyecto 801 de IBM para desarrollar un
minicomputador que será origen de las futuras arquitecturas RISC de la
siguiente generación.
Avances arquitectónicos: primera etapa
La primera etapa de esta generación dura hasta mediados de los 80, cuando
el número de transistores en un CI se aproxima a 250.000. En este periodo
no hay grandes novedades en la arquitectura de los computadores
personales. Para mejorar el rendimiento la secuencia de instrucciones se
segmenta a 5 ó más etapas. Un ejemplo de esta generación es el MC68020,
introducido en 1984, el primer microprocesador de 32 bits tanto en los buses
de datos y direcciones 30 como en registros y ALU. Tenía 200.000
transistores, incorporaba por primera vez una cache interna de 256 bytes y
una segmentación de hasta 5 etapas [Tred96]. Funcionaba a una frecuencia
de 16 MHz. Por su parte Intel incrementó el ancho de bits de su serie x86 a
32 bits con el Intel 80386 [CrGe87] [Cat90] [Brey95] (1985). Tenía 275.000

25
transistores y reloj de 33 MHz. Incluía la lógica de gestión de memoria en el
chip. No utilizó segmentación. En esa época los fabricantes de
minicomputadores como Hewlett-Packard (HP), Digital Equipment Corp.
(DEC), Tektronix y Apollo comienzan a usar microprocesadores para sus
CPUs, creando el mercado de las estaciones de trabajo [Tred96], que pronto
consiguieron ser mucho más potentes que los mainframes de las
generaciones anteriores. A principios de los años 80, John Hennessy, de la
Universidad de Stanford, y David Patterson, de la Universidad de Berkeley,
definen la base de los procesadores actuales. Estudios dinámicos sobre
ejecución de las cargas de trabajo habituales revelaron que las instrucciones
y los modos de direccionamiento complejos se usaban muy poco. Además,
las instrucciones eran muy largas y eso aumentaba el tiempo necesario para
leerlas de memoria, cada vez más crítico. De estos estudios surgió la idea de
diseñar computadores de repertorio de instrucciones reducido o RISC
(Reduced Instruction Set Computer), nombre acuñado por D. Patterson. Los
repertorios simples facilitaron la labor de construir microprocesadores
segmentados ya en 1980-81 [Kogg81][bhcl91]. Los primeros prototipos RISC
eran segmentados y el primero en llegar al mercado fue el MIPS R2000 en
1986, seguido del Sparc [Cata91] de Sun, 29000 de AMD, etc... [Feel94]
[Gimi87] [Henn96] [Henn99][ibm94] [Pase82] [Kate85]. 31 En el campo de los
supercomputadores se presenta en 1986 el Cray XP de cuatro procesadores,
que alcanza 713 MFLOPs.
La segunda etapa comienza cuando se pueden integrar un millón de
transistores en un CI, a finales de los 80. Los mayores fabricantes de
microprocesadores para computadores personales, Intel y Motorola, tenían
absoluta necesidad de compatibilidad, por lo que no modificaban
significativamente sus arquitecturas. Así para obtener mayor rendimiento con
una arquitectura fija se aumentaba la frecuencia de reloj y se usaban los
transistores disponibles para añadir memoria cache interna, coprocesadores
matemáticos, segmentaciones más profundas y algoritmos de predicción de
saltos [Dani96]. En 1989 se lanzan al mercado el i486 y el MC68040 con 1.2

26
millones de transistores cada uno y rendimiento similar [Yu96]. El MC68040
estaba segmentado en 6 etapas, con memoria cache de instrucciones y
datos de 4 Kbytes cada una y coprocesador matemático. El i486 funcionaba
a 25 MHz con tecnología de 1 micra y a 50 MHz con la de 0.8 micras, incluía
un coprocesador matemático, una cache de 8 Kbytes y soporte para
memoria virtual, además de segmentación. El éxito de Intel en el mercado de
computadores personales atrae a competidores (AMD, Cyrix, etc.) a crear
soluciones compatibles con la familia x86. En los microprocesadores para
estaciones de trabajo aparecen evoluciones de la segmentación como la
ejecución supersegmentada y la ejecución 32 superscalar. En los
procesadores supersegmentados se disminuye el tiempo de ciclo a costa de
aumentar el número de etapas del pipeline. Los procesadores
superescalares son capaces de lanzar más de una instrucción por ciclo con
el objeto de explotar el paralelismo a nivel de instrucción (Instruction Level
Parallelism, ILP). No obstante, los primeros procesadores capaces de
ejecutar múltiples instrucciones por ciclo fueron dos computadores de los
años 60, el CDC 6600 [Thor64], del que hemos hablado al describir los
avances arquitectónicos de la segunda generación, y el IBM 360/91
[AnST67], donde ya se incluye etiquetado de instrucciones y renombramiento
de registros. Ejemplos de esta generación son Sun SuperSPARC, el HP-PA
7100, MIPS R4000, Intel 80960CA y Motorola 88110. Otros hitos importantes
de esta generación son la estación de trabajo Sun 3/260 que en 1986
incorpora por primera vez dos niveles de cache, uno interno y otro externo.
En 1991 el Cray Y-MP C90, que tiene 16 procesadores, consigue alcanzar
16 GFLOPs. Destacar por último, por su impacto en las metodologías de
diseño actuales, que a finales de los 80 se funda la organización SPEC
(System Performance and Evaluation Company) con el objetivo inicial de
proporcionar un método de comparación más realistas para el mercado de
servidores y estaciones de trabajo que los hasta la fecha populares MIPS,
MFLOPS o los kernels sintéticos tipo Whetstone. La primera propuesta de
SPEC hoy se conoce con el nombre de SPEC89 y estaba orientada casi

27
exclusivamente al rendimiento de procesador. A esta versión inicial han
seguido tres nuevas entregas, SPEC92, SPEC95 y SPEC CPU2000, así
como nuevos benchmarks destinados a medir otros elementos del
computador como el sistema gráfico (SPECviewperf y SPECapc) o el
sistema de ficheros (SPECSFC). Desde su aparición ha sido un referente
importante utilizado tanto por la industria como dentro del mundo académico
donde es uno de los bancos de pruebas más utilizados para explorar nuevas
ideas o analizar diferentes alternativas de diseño. 33 Avances
arquitectónicos: tercera etapa A finales de los 90 hemos asistido a la
vertiginosa expansión de Internet y del Word Wide Web (WWW), al éxito
comercial de los PDAs (personal digital assistants) y a la proliferación de
otros productos electrónicos de gran consumo como las consolas de video
juegos, las cámaras digitales o los reproductores de MP3. Estos cambios,
han dado lugar a tres segmentos claramente diferenciados dentro del
mercado de los computadores, cada uno de ellos con diferentes aplicaciones
objetivo, diferentes requisitos y diferentes tecnologías: computadores
personales, servidores y procesadores empotrados. Vemos un poco más en
detalle cada uno de ellos
Tendencias y problemas actuales Una vez presentados los avances en
tecnología y arquitectura a lo largo de la evolución de los computadores y
algunas de las últimas propuestas para computadores de alto rendimiento,
completamos el análisis del área de conocimiento presentando los retos que
deben afrontarse actualmente y las tendencias en el desarrollo de los
distintos factores que pueden influir en el futuro de arquitectura y tecnología.
Al introducir el concepto de arquitectura de computadores establecimos su
dependencia de la tecnología, por un lado, y de las aplicaciones, por el otro.
Por eso examinaremos el estado de estos dos factores. En la tecnología
distinguiremos entre la tecnología básica usada por los procesadores y
memorias, la de semiconductores, y la que usan los sistemas de
almacenamiento secundario. Avances y limitaciones en la tecnología de
semiconductores La tecnología de semiconductores ha realizado constantes

28
progresos desde la invención de los circuitos integrados. En 1965 G.E.
Moore predijo que el número de transistores en un circuito integrado se
duplicaría anualmente. En 1975, cuando la tecnología de semiconductores
alcanzada la adolescencia, Moore revisó su predicción a la baja duplicando
el número de transistores cada 57 18 meses y la tendencia se ha mantenido
así durante 20 años, siendo denominada ley de Moore [Gepp98a] (Figura
28). Todo el mundo discute si se seguirá cumpliendo o no, y durante cuánto
tiempo. En 1994 la Asociación de Industrias de Semiconductores (SIA)
realizó una predicción sobre la evolución de los distintos aspectos de la
tecnología. La predicción tuvo que ser revisada al alza en muchos factores
en 1997 y además la introducción de nuevas tecnologías se ha acelerado de
3 años a 2 [Gepp98b]. En la tabla 1.6 aparecen las principales predicciones
de la SIA para procesadores de gama alta [FlHR99]. Sin embargo, existe una
triple amenaza para la ley de Moore: costes de fabricación, complejidad del
diseño y test de circuitos tan complejos en tiempo razonable y límites
tecnológicos, tanto de retardo de interconexiones como de consumo y
disipación de potencia [FlHR99]. A continuación revisaremos los principales
aspectos de cada uno de estos problemas. Figura 28: Ley de Moore Costes
de fabricación 58 La segunda ley de Moore dice que el coste de construir una
fábrica de semiconductores se duplica cada 3 o 4 años. Es una opinión
generalizada que serán los costes de fabricación y no los retos tecnológicos
los que limiten la mejora de los CIs [ChDo98]. Algunos predicen que a partir
del 2005 ya no será rentable disminuir el tamaño de los transistores y que
dejará de cumplirse la primera ley de Moore. Hasta ahora ésta se ha
mantenido porque las mejoras exponenciales de tecnología y productividad
han creado un aumento del mercado de circuitos integrados, aumento que a
su vez ha producido grandes ganancias. Estas han permitido invertir mucho
dinero en investigación y en fábricas de elevadísimo coste, como por ejemplo
2.000 millones de dólares el de una fábrica para chips de Pentium Pro
[Yu96]. El coste creciente sólo se puede mantener si el volumen de ventas es
enorme, así que es necesario abrirse a nuevos mercados. Esto puede

29
imponer nuevos requisitos al diseño, ya que para el consumidor medio son
importantes la fiabilidad y la facilidad de uso. Según Hennessy [Henn99]
estamos en el umbral de una nueva era en la que todo el mundo usará
servicios de información y aparatos basados en computadores. Cuando el
usuario medio empiece a utilizar estos sistemas esperará que funcionen y
sean fáciles de usar. Otra alternativa es que se simplifiquen los procesos y
los equipos de fabricación de forma que el coste de las fábricas no siga
creciendo. Límites en la tecnología de semiconductores Los avances en
tecnología de semiconductores aumentan tanto la velocidad como el número
de transistores que pueden incluirse en un chip. Cada generación disminuye
un 30% cada dimensión -lateral y vertical- de los transistores y su retardo
[Bork99] [FlHR99]. Esto debería provocar una mejora del ciclo de reloj de un
43%. Sin embargo ha mejorado un 50% debido a que se disminuye el
número de puertas por ciclo 59 de reloj, aumentando la profundidad de
segmentación [Matz97]. Por ejemplo, el UltraSPARC-III de Sun está
segmentado en 14 etapas, de aproximadamente 8 retardos de puertas
lógicas cada una [HoLa99]. La densidad de transistores debería duplicarse
cada generación y los chips de memoria lo han cumplido. En cambio, los
chips de lógica no alcanzan la densidad máxima por la complejidad de las
microarquitecturas, que como veremos más adelante necesita herramientas
CAD mejores. Actualmente se están utilizando tecnologías de 0.25 micras y
de 0.18 micras. Parece que la tendencia es a llegar a las 0.1 micras en el
2006, acercando los sistemas de litografía ópticos actuales a los límites
impuestos por la física. Para tamaños por debajo de 0.1 son necesarias
nuevas herramientas litográficas, que pueden estar basadas en rayos X,
haces de electrones o de iones, de las cuales hay prototipos en desarrollo
[Gepp98b]. El factor que más limita la mejora del rendimiento hoy en día son
las conexiones. También se necesitan avances en el área de consumo de
potencia y aquí el diseño asíncrono u opciones como la del procesador
Crusoe pueden ser una vía de solución.. Las conexiones son uno de los
grandes límites para conseguir mejorar el rendimiento porque disminuir su

30
tamaño aumenta la resistencia y/o la capacidad. El número de capas de
metal para interconexiones se ha incrementado de 2 a 6 y seguirá
incrementándose a medida que se necesiten más interconexiones entre los
dispositivos. Según [StCo91], frecuencias de reloj superiores a 1 GHz (ciclo
de reloj de 1 ns) pueden ser un límite absoluto para las interconexiones
metálicas entre tarjetas de chips o módulos multichip. En general, a
velocidades de 400 MHz y superiores, las conexiones deben ser punto a
punto. Será necesario encontrar nuevos materiales con menos resistencia y
menos capacidad para poder sobrepasar los límites dados por las
interconexiones. Las 60 conexiones de aluminio tienen alta resistencia y son
vulnerables a electromigración, problemas que aumentan al disminuir la
anchura de las líneas. El cobre era una alternativa mejor pero había
dificultades para su fabricación. En 1997 IBM y Motorola anunciaron
procesos de fabricación con 6 niveles de interconexiones de cobre, que
mejora rendimiento, consumo, densidad y coste, pero sobre todo fiabilidad
[Gepp98b]. Además se combinan conexiones de cobre con aislantes de baja
constante dieléctrica para reducir la capacidad de los cables y las
interferencias. Un año después del desarrollo de la tecnología de
interconexiones de cobre IBM ya la está usando para el PowerPC 750 a 500
MHz [Beck93], un PowerPC empotrado (consumen menos y son más
rápidas, así que son muy convenientes para empotrados). En Mayo IBM
anunció su nuevo servidor S/390 G6 con interconexiones de cobre [IBM99a].
El chip, que incluye la cache de nivel 2, tiene, gracias a la nueva tecnología,
el doble de transistores que el del S/390 G5 y ocupa un 10% menos de área
(121 millones de transistores, que ofrecen 16 Mbytes de memoria, en un chip
de 16.5 mm). También lo incorporará a las familias de servidores RS/6000 y
AS/400 [Gepp99]. A pesar de las mejoras en las conexiones, el retardo de
las mismas y el aumento de la frecuencia de reloj implican que las
arquitecturas grandes necesitan ser modulares y que la ubicación sea
adecuada para evitar la presencia de cables largos. Ya vimos ejemplos de
ello, en el UltraSPARC-III (la señal de parada global del pipe tendría mucho

31
retardo, así que se elimina) y, sobre todo, en el Alpha 21264: todas las
conexiones externas al chip son canales punto a punto de alta velocidad y el
banco de registros se divide en dos para que su tamaño sea menor y se
pueda acceder en un ciclo. En este sentido, en la predicción de SIA es muy
llamativa la diferencia entre el crecimiento de la frecuencia local del reloj y la
global. El consumo también es un factor que limita el aumento del
rendimiento tanto para microprocesadores empotrados, como para los
microprocesadores 61 de alto rendimiento, más rápidos, que necesitan más
potencia y necesitan disiparla. Esto fuerza a alcanzar compromisos entre
tamaño del dado (que el tamaño del dado no crezca mucho), la alimentación
(disminuir el voltaje de alimentación) y la frecuencia, tal como se aprecia en
la tabla 1.6. Disminuir la alimentación aumenta la susceptibilidad a errores
blandos (debido a que la energía necesaria para cambiar el estado de un
biestable es cada vez menor) y precisa de técnicas de refrigeración potentes
[Bork99]. También se investiga en el uso de nuevos materiales para
aumentar rendimiento y disminuir consumo [Gepp99] como por ejemplo en
siliciogermanio. Por otra parte surge el problema del empaquetamiento
[Slat96]. A medida que los diseñadores colocan más funciones en un chip,
éstos necesitan más patillas de entrada/salida. Las tecnologías actuales que
proporcionan circuitos a precios aceptables, no permiten empaquetar con
más de 200 patillas. Las que permiten mayor número elevan
considerablemente el coste de los CI. Por esta razón, se necesitan nuevas
tecnologías de empaquetamiento que permitan empaquetar grandes
cantidades de patillas a costes bajos. Complejidad de diseño y test La
complejidad del diseño y el tamaño del equipo de diseño se han convertido
en una de las barreras más importantes al avance de la tecnología [Yu96].
Un ejemplo que muestra el crecimiento de ambos factores es el diseño de
dos microprocesadores MIPS. En 1985 fue terminado el MIPS R2000 tras 15
meses de diseño. Tenía 0.1 millones de transistores. El equipo de diseño lo
formaban 20 personas y la verificación constituía un 15 % del coste total. El
MIPS R10000 terminado en 1996 tenía 6.8 millones de transistores. El

32
equipo de diseño lo formaban más de 100 personas, que tardaron 3 años. La
verificación costó más del 35% del total [Henn99]. De este ejemplo se
deduce que el tiempo de diseño se ha duplicado y el tamaño del equipo se
ha quintuplicado. 62 La validación y test de los microprocesadores actuales
cada vez ocupan más parte del esfuerzo de diseño. Actualmente consumen
del 40 al 50% del coste de diseño de un chip de Intel y el 6% de los
transistores en el Pentium Pro. Por un lado los equipos de test son más
caros debido al mayor número de pines y frecuencia de reloj. Y por otro, el
tiempo de test aumenta constantemente debido a la complejidad de los chips
y a los requisitos de calidad [Yu96]. Además, para diseños con tecnologías
de tamaños característicos tan pequeños como los actuales es muy
importante analizar el comportamiento temporal y el consumo, ya que la
ubicación y conexionado pueden afectarles mucho. Esto presenta nuevos
retos en el campo del test. Otras mejoras necesarias tienen que ver con la
integración entre los distintos niveles del proceso de diseño. Al planear un
nuevo microprocesador de alto rendimiento los diseñadores tienen que tomar
muchas decisiones, que incluyen organización superescalar, lanzamiento de
instrucciones en desorden, ejecución especulativa, predicción de saltos y
jerarquía de caches. La interacción entre las distintas características de la
microarquitectura frecuentemente es contra-intuitiva y se formulan preguntas
sobre las ventajas potenciales de rendimiento [MoWM99]. Los compromisos
de diseño complejos requieren modelado del rendimiento preciso y a tiempo
[LiSh97]. Este modelado debe realizarse en varios niveles de abstracción
para que sea preciso y rápido [BoCA99]. Al empezar el proceso de diseño se
usaban habitualmente modelos de rendimiento: en este nivel de abstracción
se quiere definir la mejor microarquitectura que implementa una arquitectura
dada, y “mejor” quiere decir la que produce mayor rendimiento en términos
de CPI. Estamos siendo testigos de la creciente necesidad de tener en
cuenta más y más ligaduras de bajo nivel en el modelado y análisis de alto
nivel (en fases tempranas de diseño). Esto es debido al aumento de
integración de los circuitos: los diseños actuales usan muchos millones de

33
transistores que operan a frecuencias cercanas al GHz. A esa velocidad los
retardos de interconexiones 63 y cables determinan significativamente el
ciclo de reloj, así que la partición y ubicación de los bloques lógicos es un
tema que debe tratarse con cuidado en los niveles más altos de diseño para
evitar sorpresas posteriores (como vimos en el apartado anterior son
necesarias decisiones de diseño de alto nivel para evitar retardos de
conexiones demasiado largos). Por lo tanto se necesita más integración
entre las metodologías de modelado y validación en distintos niveles. Para
arquitecturas VLIW se debería incluir el compilador dentro del modelo, pero
de momento no se ha hecho debido a que es muy complejo. Por otro lado,
los diseñadores de aplicaciones empotradas no están tan interesados en el
aumento constante de rendimiento sino en integrar más funciones en el chip.
Al evolucionar hacia el “sistema en un chip” los microprocesadores
empotrados se especializan, ya que diferentes aplicaciones necesitan
diferente memoria, controladores de periféricos e interfaces. Esto aumenta la
demanda de microprocesadores que puedan ser un bloque de un ASIC.
Varias compañías ofrecen cores de microprocesadores y deben proporcionar
también otros bloques complejos y herramientas para diseñar, depurar,
verificar y testear los chips. Para que estos componentes complejos
(Intelectual Property) puedan ser utilizados en otros diseños es necesario
que sean diseñados pensando en su reuso, tanto si son hard-IP
(componentes ya ubicados, conectados y verificados) como si son soft-IP
(descripción RT sintetizable). Además para que sea posible el diseño de
“sistemas en un chip” son precisas mejoras en las herramientas para el co-
diseño hardware y software, verificación formal y optimizaciones a nivel RT y
la integración más estrecha de diseños físicos y lógicos [Mart99]. Hace 10
años el cuello de botella de la tecnología eran las técnicas de fabricación
pero hoy es el problema de diseñar chips grandes y muy densos con
componentes muy pequeños. 64 Limitaciones de los sistemas de
almacenamiento Los computadores hoy en día tienen que almacenar todas
las formas de información: archivos, documentos, imágenes, sonidos, vídeos,

34
datos científicos y otros tantos nuevos formatos de datos. Se han realizado
grandes avances técnicos para capturar, almacenar, analizar y visualizar
datos [Gray96]. La sociedad cada vez necesita más y más información, sobre
todo con el surgimiento de las aplicaciones multimedia y el acceso a datos a
través de navegadores, como veremos más adelante. En los últimos años se
ha conseguido mejorar la capacidad y el coste de los sistemas de
almacenamiento enormemente, pero la velocidad no se ha incrementado en
la misma proporción. Por ejemplo, la velocidad de acceso a los discos (en la
Figura 1.6, en la pág. 28, puede observarse la disminución del coste), se ha
incrementado en menos de un factor 2, la de las cintas en 3, mientras que la
de la CPU lo ha hecho en varios órdenes de magnitud. Esto es una limitación
grave en el incremento del rendimiento global de los computadores. De
acuerdo con la ley de Amdahl, el incremento global en el rendimiento de un
sistema depende del incremento del rendimiento de cada una de sus partes y
del tiempo que se utilizan éstas. Por tanto, si sólo se mejora el rendimiento
de la CPU, no se produce un incremento proporcional en el rendimiento
global. Y puede deducirse que ignorar la velocidad de almacenamiento de
datos, conduce a mayor pérdida de rendimiento a medida que la CPU se
hace más rápida. Por esta razón, uno de los objetivos tecnológicos actuales
es conseguir sistemas de almacenamiento masivo con menores tiempos de
acceso. Una posible solución son los SSD (Solid State Disks) implementados
con DRAMs y una batería para que sean no volátiles. Pero el problema es el
coste, que es al menos 50 veces el coste de los discos magnéticos. Esto
seguramente conducirá a sistemas con memorias DRAM masivas en el
futuro.

 ANEXOS

35
Microprocesador Intel 8008.

 BIBLIOGRAFIA
http://www.dacya.ucm.es/hidalgo/estructura/historia

http://es.ccm.net/contents/397-procesador
http://eduardking.mx.tripod.com/cuartagen.htm
http://biblio3.url.edu.gt/Libros/provinciales/computadoras

36

También podría gustarte