Capitulo 2
Capitulo 2
Capitulo 2
INDICE
2.1 LA MOTHERBOARD 6
2.2. MICROPROCESADOR 16
2.8 JUMPER 72
2.9 MEMORIA 73
2.11.1.-Las particiones 86
• Particiones primarias y particiones lógicas 87
• Particionar el disco duro 88
2.11.2.-Formatear cada partición 89
• Activar la partición de arranque 89
2.11.3.-Desfragmentación del Disco 90
2.12.-ESTRUCTURA DE ARCHIVOS 91
2.13.1.-Clasificación y aplicaciones 92
2.13.2.-Tecnologí as usadas en los medios de Almacenamiento: óptica y magnética 93
2.13.3.-Descripción, caracterí sticas, funcionamiento y demás en las principales unidades de
almacenamiento de datos 94
• Cinta magnetica 94
• Unidad de disco flexible 95
• Discos Rí gidos o Duros 97
• Cd-ROM 97
• ZIP 98
• Memorias Flash Portátiles (Dispositivo USB) 99
• Jazz 100
• Unidad de disco magnetico optica 100
2.13.4.-Interfaz con el Procesador 102
• Controladores 102
2.13.5.-Clasificación y caracterí sticas de los diferentes medios de Almacenamiento de Datos
104
BIBLIOGRAFIA 106
CAPITULO 2
ARQUITECTURA BASICA DEL
COMPUTADOR
2.1. LA MOTHERBOARD
(Main Board, Placa Base o Placa Principal del PC)
a) Los buses
Son el conjunto de lí neas o caminos por los cuales los datos fluyen internamente de una parte a otra
de la computadora (CPU, disco duro, memoria). Puede decirse que en las computadoras modernas
hay muchos buses, por ejemplo entre los puertos IDE y los drives, entre una placa Aceleradora de
video y la memoria Ram, entre el modem y el Chipset, etc. Pero Los buses básicos son:
• El bus interno o sea el que comunica los diferentes componentes con la CPU y la memoria
RAM, formado por los hilos conductores que vemos en el circuito impreso de la placa, y el
bus de direcciones.
• El bus externo puede considerarse dividido en cuatro ví as para otros tantos servicios
distintos:
Bus de datos
Bus de alimentación.
Bus de control.
Bus de Direcciones
De la velocidad de transmisión del bus interno depende la selección de algunos componentes como
el Microprocesador y la memoria Ram en una motherboard, entendiéndose por ejemplo que una
PLACA BASE cuya velocidad de transferencia es de 100 MHz, no admite procesadores Pentium IV
(que necesitan buses con mayor velocidad de transmisión) ni módulos de memoria que trabajan
exclusivamente en buses con velocidad de 133 MHz.
Por otra parte es importante resaltar la diferencia de conceptos que hay entre: numero de lí neas de
un bus (16, 32, 64 bits) y la frecuencia de trabajo del bus. La multiplicación de estos dos factores
representa al ancho de banda y se mide en Mb/s.
Todo bus local esta compuesto de dos áreas: datos y direcciones. El bus de datos lo forman las
lí neas dedicadas a la transmisión de señales u ordenes, el bus de direcciones lo constituyen las
lí neas que dan a conocer las posiciones de ubicación de los datos en la memoria (registros).
Buses actuales
En conjunción con la Informática, la electrónica innova permanentemente para crear nuevas y mas
eficientes rutas de comunicación entre los PC y sus periféricos. Muchas de estas ví as pueden
realmente llamarse buses entre tanto que otras solo deben clasificarse como puertos. A
continuación una descripción de las principales tecnologí as empezando por las de mayor relevancia:
§ BUS PCI. Es el bus local estándar en las motherboards actuales. El nombre abreviado
proviene de Peripheral Component Interconnect y fue dado a conocer por Intel en 1993. PCI
es un bus local compuesto por lí neas fí sicas que permiten comunicar el Microprocesador
con otro componente. Los puntos de conexión de los componentes son los SLOTS o puertos
de expansión que se observan en las motherboards, como bloques de plástico blanco.
Detalles técnicos de PCI.
§ BUS AGP. Accelerated Graphics Port. Se trata de un bus independiente del bus general
constituido por un slot especí fico para tarjetas gráficas. Es un bus de 32 bits que trabaja a
66 MHz, pero tiene la posibilidad de doblar o cuadruplicar las caracterí sticas básicas, hasta
una tasa de transferencia máxima de 1064 Mbits por segundo. Puede decirse que no es un
bus en el sentido estricto de la palabra sino más bien una extensión de la norma PCI, razón
por la cual en algunos aspectos es idéntico a aquel. Actualmente es un puerto de uso
exclusivo para dispositivos gráficos de alta velocidad.
§ BUS USB. 1996. Universal serial bus. Es un nuevo estándar para comunicaciones serie que
resuelve muchos de los inconvenientes de los antiguos puertos COM ( dificultades en la
§ BUS E-IDE. Enhanced Integrated Drive Electronics. Debe ser considerado mas como una
Interface. Se trata de una tecnologí a electrónica que basa el control de la comunicación en
una placa integrada en el propio dispositivo. El bus lo constituye un cable plano de 40 u 80
hilos conductores que comunica el conector del dispositivo (disco duro, CD-ROM o
grabador de CD) con el conector o puerto IDE de la motherboard. Las placas base actuales
se fabrican con dos puertos: IDE 0 e IDE1
Teoricamente cada puerto IDE representa un canal. Cada canal permite la conexión de hasta
2 drives (discos duros o unidades opticas).
§ BUS SCSI. 1980, 1986. Small Computer System Interface. Es la interface de mayor
capacidad, velocidad y estabilidad para conectar dispositivos directamente a una
motherboard. En las computadoras desktop, SCSI es una interface pues se fabrica sobre una
placa que se inserta en un slot de la motherboard (actualmente en slots PCI). Esta
independencia fí sica del microprocesador tiene la gran ventaja de hacer que los dispositivos
se direccionen lógicamente en contraposición al direccionamiento fí sico que utiliza IDE. La
consecuencia inmediata es que los dispositivos quedan liberados de las imposiciones que el
Bios pudiera imponer pues SCSI se encarga de hacer el trabajo completo de comunicación y
configuración. Esta capacidad lo ha hecho el preferido en equipos en los que se requiere
estabilidad y alta velocidad de transmisión, como los servidores
La ultima versión de SCSI es la Wide Ultra2 SCSI, que usa un bus de 16 bits, un ancho de
banda de 80MB/s y trabaja con cables planos de 68 hilos
La interface al trabajar como un dispositivo I/O (de entrada y salida) permite en teorí a
conectar 8 dispositivos simultáneamente, en una conexión en la que cada dispositivo se une
al siguiente y en donde cada dispositivo tiene su propio ID ante el host. El mayor uso de
SCSI se da en la conexión de discos duros, tape drives, unidades ópticas, escáneres e
impresoras. Los dispositivos externos que trabajan con interface SCSI tienen dos puertos:
uno para la entrada del cable y otro para conectarse al siguiente dispositivo. El ultimo
elemento debe cerrar la cadena mediante un circuito 'terminador' para que la conexión
funcione.
El Motherboard es el elemento principal del computador. Si habí amos dicho que el procesador es el
cerebro. El Motherboard es la espina dorsal, donde están conectados todos los demás elementos. Es
el componente más crí tico de una computadora. De ella dependen todos los demás componentes y,
por lo tanto, el rendimiento global. En muchas ocasiones el usuario y el comprador tienden a
descuidar este dispositivo.
Los Motherboard existen en diferentes formas y con diversos conectores para dispositivos,
periféricos, etc. Los fabricantes han ido definiendo varios estándares que especifican
recomendaciones sobre su tamaño y la disposición de los componentes sobre ella.
De cualquier modo y teóricamente la forma y categorí a de Placa no tiene nada que ver con sus
prestaciones ni mucho menos su calidad.
ü ATX
La diferencia con las AT se encuentra en sus conectores, que suelen ser más (por ejemplo,
con USB o con FireWire), están agrupados y tienen el teclado y ratón en clavijas mini-DIN
como ésta: . Además, reciben la electricidad mediante un conector formado por una sola
pieza.
Entre las ventajas de la placa cabe mencionar una mejor disposición de sus componentes,
conseguida básicamente girandola 90 grados. Permite que la colocación de la CPU no
moleste a las las tarjetas de expansión, por largas que sean. Otra ventaja es un sólo conector
de alimentación, que además no se puede montar al revés.
La memoria está colocada en un lugar más accesible.
La CPU está colocada al lado de la F.A. (Fuente de Alimentación) para recibir aire fresco de
su ventilador.
Los conectores para los dispositivos IDE y disqueteras quedan más cerca, reduciendo la
longitud de los cables y estorbando menos la circulación del aire en el interior de la caja.
Además de todas estas ventajas dicho estandar nos da la posibilidad de integrar en la placa
base dispositivos como la tarjeta de video o la tarjeta de sonido, pero sacando los conectores
directamente de la placa, dándonos un diseño más compacto, y sin necesidad de perder
ranuras de expansión.
ü Baby-AT
Fue el estándar absoluto durante años. Define una placa de unos 220x330 mm, con unas
posiciones determinadas para el conector del teclado, los slots de expansión y los agujeros de
anclaje a la caja, así como un conector eléctrico dividido en dos piezas.
Estas placas son las tí picas de los computadores "clones" desde el 286 hasta los primeros
Pentium. Con el auge de los periféricos (tarjeta sonido, CD-ROM, discos extraí bles...)
salieron a la luz sus principales carencias: mala circulación del aire en las cajas (uno de los
motivos de la aparición de disipadores y ventiladores de chip) y, sobre todo, una maraña
enorme de cables que impide acceder a la placa sin desmontar al menos alguno.
Para identificar una placa Baby-AT, lo mejor es observar el conector del teclado, que casi
seguro que es una clavija DIN ancha, como las antiguas de HI-FI; vamos, algo así : ;o
bien mirar el conector que suministra la electricidad a la placa, que deberá estar dividido en
dos piezas, cada una con 6 cables, con 4 cables negros (2 de cada una) en el centro.
ü LPX
Estas placas son de tamaño similar a las Baby-AT, aunque con la peculiaridad de que los slots
para las tarjetas de expansión no se encuentran sobre la placa base, sino en un conector
especial en el que están pinchadas, la riser card.
De esta forma, una vez montadas, las tarjetas quedan paralelas a la placa base, en vez de
perpendiculares como en las Baby-AT; es un diseño tí pico de ordenadores de sobremesa con
caja estrecha (menos de 15 cm de alto), y su único problema viene de que la riser card no
suele tener más de dos o tres slots, contra cinco en una Baby-AT tí pica.
2.1.4 BIOS
La BIOS (Basic Input Output System, Sistema de entrada/salida básico) es una memoria ROM,
EEPROM o FLASH-Ram la cual contiene las rutinas de más bajo nivel que hace posible que el
ordenador pueda arrancar, controlando el teclado, el disco y la disquetera permite pasar el control al
sistema operativo.
Además, la BIOS se apoya en otra memoria, la CMOS (llamada así porque suele estar hecha con
esta tecnologí a), que almacena todos los datos propios de la configuración del ordenador, como
pueden ser los discos duros que tenemos instalados, número de cabezas, cilindros, número y tipo de
disqueteras, la fecha, hora, etc..., así como otros parámetros necesarios para el correcto
funcionamiento del ordenador.
Esta memoria está alimentada constantemente por una baterí a, de modo que, una vez apaguemos el
ordenador no se pierdan todos esos datos que nuestro ordenador necesita para funcionar. Ahora
todos los motherboards suelen venir con una pila tipo botón, la cual tiene una duración de unos 4 ó
5 años (aunque esto puede ser muy variable), y es muy fácil de reemplazar. Antiguamente, las
placas traí an una pila corriente soldada en el motherboard, lo que dificultaba muchí simo el cambio,
además de otros problemas como que la pila tuviera pérdidas y se sulfataran ésta y la placa.
Además, la BIOS contiene el programa de configuración, es decir, los menús y pantallas que
aparecen cuando accedemos a los parámetros del sistema, pulsando una secuencia de teclas durante
el proceso de inicialización de la máquina.
En los primeros sistemas operativos para PC (como el DOS), el BIOS todaví a permanecí a activo
tras el arranque y funcionamiento del sistema operativo. El acceso a dispositivos como la disquetera
y el disco duro se hací an a través del BIOS. Sin embargo, los sistemas operativos más modernos
realizan estas tareas por sí mismos, sin necesidad de llamadas a las rutinas del BIOS.
Un sistema puede contener varios chips con firmware BIOS. Además del BIOS de arranque situado
en la placa base, del que ya se ha hablado en este artí culo, existen otros dispositivos, tales como
tarjetas adaptadoras SCSI, discos duros, adaptadores de memoria USB, o tarjetas de ví deo que
pueden incluir sus propios BIOS, complementando o reemplazando el código BIOS del sistema
para el componente dado.
2.1.5 Procesador(CPU)
Se llama CPU (siglas de Central Processing Unit) o Unidad Central de Proceso (UCP) a la
unidad donde se ejecutan las instrucciones de los programas y se controla el funcionamiento de los
distintos componentes del ordenador. Suele estar integrada en un chip denominado
microprocesador.
Es el corazón de todo ordenador, y es un microchip con una alta escala de integración, es decir, que
aloja millones de transistores en su interior. Todos estos transistores forman una serie de circuitos
lógicos que permite ejecutar una determinada variedad de instrucciones bá sicas.
La CPU está compuesta por: registros, la Unidad de control, la Unidad aritmético-lógica, y
dependiendo del procesador, una unidad en coma flotante.
2.1.6 Pila
La baterí a es por lo general una baterí a de reloj convencional de tamaño mediano, en otros casos es
de tipo cilí ndrico y por lo general de color azul, y en otros es de forma rectangular y se parece al
chip de la BIOS, aunque la diferenciamos de este ya que su cubierta es plástica. En realidad este
tipo de dispositivo es un chip con una pila soldada en su superficie, que pertenece al conjunto de
integrados de la board.
El software de hoy necesita grandes cantidades de RAM para funcionar. No compréis un equipo
nuevo que no tenga instalados al menos 64 Mb de memoria RAM, especialmente si es de alta gama.
Antes de comprar los módulos de memoria conviene que os informéis de los tipos de módulos que
utiliza vuestra placa base. Los módulos de 72 o 168 contactos pueden ser de simple o de doble cara.
Aseguraos bien del tipo de módulos que utiliza vuestra placa. Es muy importante que sepáis qué
orden llevan los zócalos para los SIMM. Estos zócalos se agrupan en bancos de uno, dos o cuatro
zócalos numerados como SIMMO, SIMMI, SIMM2, etc. (o DIMM0, DIMM1...) En las placas base
Pentium nuevas hay uno o dos slots DIMM, mientras que en las de Pentium II hay 3 ó 4. Hoy por
hoy, se recomienda poner SDRAM a las placas base Pentium y Pentium II (si la placa lo soporta),
ya que de lo contrario se ocasionarí a un cuello de botella, especialmente en el Pentium II
La placa base debe direccionar un mí nimo de 256 Megas de RAM (en las placas base Super 7 se
suele llegar a 768 Mb y en las Slot 1 a 1024 Mb). También hay que introducir el concepto de
memoria cacheable: hay placas base de mala calidad que admiten mucha memoria pero no es capaz
de manejarla eficientemente. En los mejores modelos se especifica el tamaño de memoria cacheable
(ej: 256 Mb) y memoria máxima admitida (ej: 769 Mb).
Consultad la documentación de la placa base para saber cuántos módulos de memoria y de qué
capacidad tenéis que comprar y así conseguir el número de Megabytes que queréis tener, sobre todo
a la hora de combinar antiguos SIMM con nuevos DIMM en los Pentiums.
2.1.8 Actualidades
Features Benefits
Form Factor ATX (12.00 inches by 9.60 inches [304.80 millimeters by 243.84
millimeters])
Processor Support for Intel®Pentium®Processor Extreme Edition (in an
LGA775 socket with a 1066 or 800 MHz system bus)
Support for Intel®Pentium®4 Processor Extreme Edition supporting
Hyper-Threading Technology (in an LGA775 socket with a 1066 MHz
system bus)
Support for Intel®Pentium®D Processor (in an LGA775 socket with a
800 MHz system bus)
Support for Intel®Pentium®4 Processor supporting Hyper-Threading
Technology (in an LGA775 socket with a 800 MHz system bus)
View all supported processors
Memory Four 240-pin DDR2 SDRAM Dual Inline Memory Module (DIMM)
sockets
Support for 667 and 533 MHz DDR2 DIMMs
Support for up to 8 GB of system memory
Support for ECC and non-ECC memory
Expansion Capabilities Two PCI Conventional bus add-in card connectors (SMBus routed to
both PCI Conventional bus add-in card connectors)
One Primary PCI Express* x16 (electrical x16 or x8) bus add-in card
connector
One Secondary PCI Express* x16 (electrical x8) bus add-in card
connector
One PCI Express* x16 (electrical x4) bus add-in card connector
2.2. MICROPROCESADOR
La CPU gestiona cada paso en el proceso de los datos. Actúa como el conductor y el supervisor de
los componentes de hardware del sistema. Asimismo, está unida, directa o indirectamente, con
todos los demás componentes de la placa prí ncipal. Por lo tanto, muchos grupos de componentes
reciben órdenes y son activados de forma directa por la CPU .
El procesador está equipado con buses de direcciones, de datos y de control, que le permiten llevar
a cabo sus tareas. Estos sistemas de buses varí an dependiendo de la categorí a del procesador, lo cual
se analizará más adelante.
También durante el desarrollo de los ordenadores personales han ido varí ando las unidades
funcionales internas de los procesadores, evolucionando drásticamente. Se ha incorporado un
número de transistores y circuitos integrados cada vez mayor , y dentro de un espacio cada vez más
reducido, a fin de satisfacer las demandas cada vez más exigentes de mayores prestaciones por parte
del software. Por ejemplo, el microprocesador Pentium contiene, ubicados sobre una placa de
cerámica de aproximadamente 6 milí metros cuadrados, má s de tres millones de transistores.
Por todo lo expuesto, se hacen lógicamente necesarios unos procesos de fabrí cación también
complejos y especiales. Esta técnica permite construir elementos casi microscópicos (un
micrómetro, o la millonésima parte de un metro). Esta técnica desarrollada por Intel se conoce
como CHMOS-IV .Para apreciar la miniaturí zación en cuestión, pensemos que un solo pelo
humano tiene una anchura que se extenderí a sobre 100 unidades de este tipo.
La configuración y capacidad de este procesador son los crí terí os fundamentales que determinan el
rendimiento de todo el ordenador .
El coprocesador matemático esta diseñado para que funcione en paralelo con el microprocesador. El
conjunto de instrucciones incluye muchas operaciones extremadamente potentes en coma flotante.
Cuando el microprocesador encuentre una instrucción en coma flotante, enví a el código de
operación necesario y direcciones de memoria de operandos al coprocesador matemático. Esto
libera al microprocesador de ejecutar la siguiente instrucción, mientras el coprocesador matemático
realiza simultáneamente el cálculo numérico.
El coprocesador matemático puede hacer peticiones de acceso a memoria a través de una canal de
datos dedicado permanente en el microprocesador.
La velocidad del reloj es básicamente cuantas veces por segundo el procesador late . Cada vez que
este late una instrucción se realiza. Se mide en diferentes unidades según el tipo de computador:
La memoria caché es una memoria especial de acceso muy rápido. Almacenar los datos y el código
utilizados en las últimas operaciones del procesador. Habitualmente el ordenador realiza la misma
operación repetidas veces seguidas. Si en lugar de, por ejemplo, leer del disco cada una de las veces
que realiza la operación lee de la memoria se incrementa la velocidad de proceso un 1.000.000
veces, es la diferencia de nanosegundos a milisegundos que son los tiempos de acceso a memoria y
a disco respectivamente. Las placas base generalmente tienen instalada la memoria caché en unos
zócalos para poder ampliarla. La configuración más usual es la de 512 Kb en la actualidad, pero
puede haber configuraciones de 1 Mb o 2 Mb en algunas placas (hoy dí a sólo en los procesadores
tipo Pentium (Pentium MMX, K6-x), ya que el Pentium II/II y el K7 la llevan integrada dentro de
él).
A la hora de la verdad, el rendimiento no es tan grande en los módulos Pipeline de las placas
Pentium. Aunque por 3.000 ptas, no es mala idea incrementar la caché de 256 a 512 Kb en las
placas Pentium más antiguas.
Desde la aparición de los primeros computadores en los años cuarenta del siglo XX, muchas fueron
las evoluciones que tuvieron los procesadores antes de que el microprocesador surgiera por simple
disminución del procesador. Entre esas evoluciones podemos destacar estos hitos:
• ENIAC fue un computador con procesador multiciclo de programación cableada, esto es, la
memoria contení a solo los datos y no los programas. ENIAC fue el primer computador, que
funcionaba según una técnica a la que posteriormente se dio el nombre de monociclo.
• EDVAC fue la primera máquina de Von Neumann, esto es, la primera máquina que
contiene datos y programas en la misma memoria. Fue el primer procesador multiciclo.
• El IBM 7030 (apodado Stretch) fue el primer computador con procesador segmentado. La
segmentación siempre ha sido fundamental en Arquitectura de Computadores desde
entonces.
• El IBM 360/91 supuso grandes avances en la arquitectura segmentada, introduciendo la
detección dinámica de riesgos de memoria, la anticipación generalizada y las estaciones de
reserva.
• El CDC 6600 fue otro importante computador de microprocesador segmentado, al que se
considera el primer supercomputador.
• El último gran hito de la Arquitectura de Computadores fue la segmentación superescalar,
propuesta por John Cocke, que consiste en ejecutar muchas instrucciones a la vez en el
mismo microprocesador. Los primeros procesadores superescalares fueron los IBM Power-
1.
Hay que destacar que los grandes avances en la construcción de microprocesadores se deben más a
la Arquitectura de Computadores que a la miniaturización electrónica. El microprocesador se
compone de muchos componentes. En los primeros procesadores gran parte de los componentes
estaban ociosos el 90% del tiempo. Sin embargo hoy en dí a los componentes están repetidos una o
mas veces en el mismo microprocesador, y los cauces están hechos de forma que siempre están
todos los componentes trabajando. Por eso los microprocesadores son tan rápidos y tan productivos.
Esta productividad tan desmesurada, junto con el gran numero de transistores por microprocesador
(debido en parte al uso de memorias cache) es lo que hace que necesiten los inmensos sistemas de
refrigeración que se usan hoy en dí a. Inmensos en comparacion con el microprocesador, que
habitualmente consiste en una cajita de 2 centí metros de largo y de ancho por 1 milí metro de altura,
cuando los refrigeradores suelen tener volumenes de al menos 5 centimetros cubicos.
1971: Intel 4004: El primer microprocesador comercial fue el Intel 4004, que salió al mercado el 15
de noviembre de 1971.
19XX: Intel 8008
1978: Intel 8086, Motorola MC68000
1979: Intel 8088
1982: Intel 80286, Motorola MC68020
1985: Intel 80386, Motorola MC68020, AMD80386
1989: Intel 80486, Motorola MC68040, AMD80486
1993: Intel Pentium, Motorola MC68060, AMD K5, MIPS R10000
1995: Intel Pentium Pro
1997: Intel Pentium II, AMD K6, PowerPC6 (versiones G3 y G4), MIPS R120007
1999: Intel Pentium III, AMD K6-2
2000: Intel Pentium 4, Intel Itanium 2, AMD Athlon XP, AMD Duron, PowerPC G4, MIPS
R14000
2005: Intel Pentium D, Intel Extreme Edition con hyper threading, Intel Core Duo, IMac con
Procesador Intel Core Duo, AMD Athlon 64, AMD Athlon X2, AMD Athlon FX.
Han pasado más de 25 años desde que Intel diseñara el primer microprocesador, siendo la compañí a
pionera en el campo de la fabricación de estos productos, y que actualmente cuenta con más del 90
por ciento del mercado. Un tiempo en el que todo ha cambiado enormemente, y en el que desde
aquel 4004 hemos visto pasar varias generaciones de máquinas que nos han entretenido y nos han
ayudado en el trabajo diario.
Dicen que es natural en el ser humano querer mirar constantemente hacia el futuro, buscando
información de hacia dónde vamos, en lugar de en dónde hemos estado. Por ello, no podemos
menos que asombrarnos de las previsiones que los cientí ficos barajan para dentro de unos quince
años. Según el Dr. Albert Yu, vicepresidente de Intel y responsable del desarrollo de los
procesadores desde el año 1984, Un futuro prometedor, que permitirá realizar tareas nunca antes
pensadas.
Los inicios
Sin embargo, para que esto llegue, la historia de los procesadores ha pasado por diferentes
situaciones, siguiendo la lógica evolución de este mundo. Desde aquel primer procesador 4004 del
año 1971 hasta el presente año ha llovido mucho en el campo de los procesadores. Tanto, que no
estamos seguros si las cifras que se barajan en Intel se pueden, incluso, quedar cortas. Aquel primer
procesador 4004, presentado en el mercado el dí a 15 de noviembre de 1971, poseí a unas
caracterí sticas únicas para su tiempo. Para empezar, la velocidad de reloj sobrepasaba por poco los
100 KHz , disponí a de un ancho de bus de 4 bits y podí a manejar un máximo de 640 bytes de
memoria. Realmente una auténtica joya que para entonces podí a realizar gran cantidad de tareas,
pero que por desgracia no tiene punto de comparación con los actuales micros. Entre sus
aplicaciones, podemos destacar su presencia en la calculadora Busicom, así como dotar de los
primeros tintes de inteligencia a objetos inanimados.
Poco tiempo después, sin embargo, el 1 de abril de 1972, Intel anunciaba una versión mejorada de
su procesador. Se trataba del 8008, que contaba como principal novedad con un bus de 8 bits, y la
memoria direccionable se ampliaba a los 16 Kb. Además, llegaba a la cifra de los 3500 transistores,
casi el doble que su predecesor, y se le puede considerar como el antecedente del procesador que
servirí a de corazón al primer ordenador personal. Justo dos años después, Intel anunciaba ese tan
esperado primer ordenador personal, de nombre Altair, cuyo nombre proviene de un destino de la
nave
Enterprise en uno de los capí tulos de la popular serie de televisión Star Trek la semana en la que se
creó el ordenador. Este ordenador tení a un coste de entorno a los 400 dólares de la época, y el
procesador suponí a multiplicar por 10 el rendimiento del anterior, gracias a sus 2 MHz de velocidad
(por primera vez se utiliza esta medida), con una memoria de 64 Kb. En unos meses, logró vender
decenas de miles de unidades, en lo que suponí a la aparición del primer ordenador que la gente
podí a comprar, y no ya simplemente utilizar.
La introducción de IBM
Sin embargo, como todos sabemos, el ordenador personal no pasó a ser tal hasta la aparición de
IBM, el gigante azul, en el mercado. Algo que sucedió en dos ocasiones en los meses de junio de
1978 y de 1979. Fechas en las que respectivamente, hací an su aparición los microprocesadores 8086
y 8088, que pasaron a formar el denominado IBM PC, que vendió millones de unidades de
ordenadores de sobremesa a lo largo y ancho del mundo. El éxito fue tal, que Intel fue nombrada
por la revista "Fortune" como uno de los mejores negocios de los años setenta.
De los dos procesadores, el más potente era el 8086, con un bus de 16 bits (por fin), velocidades de
reloj de 5, 8 y 10 MHz, 29000 transistores usando la tecnologí a de 3 micras y hasta un máximo de 1
Mega de memoria direccionable. El rendimiento se habí a vuelto a multiplicar por 10 con respecto a
su antecesor, lo que suponí a un auténtico avance en lo que al mundo de la informática se refiere. En
cuanto al procesador 8088, era exactamente igual a éste, salvo la diferencia de que poseí a un bus de
8 bits en lugar de uno de 16, siendo más barato y obteniendo mejor respaldo en el mercado.
En el año 1982, concretamente el 1 de febrero, Intel daba un nuevo vuelco a la industria con la
aparición de los primeros 80286. Como principal novedad, cabe destacar el hecho de que por fin se
podí a utilizar la denominada memoria virtual, que en el caso del 286 podí a llegar hasta 1 Giga.
También hay que contar con el hecho de que el tiempo pasado habí a permitido a los ingenieros de
Intel investigar más a fondo en este campo, movidos sin duda por el gran éxito de ventas de los
anteriores micros. Ello se tradujo en un bus de 16 bits, 134000 transistores usando una tecnologí a de
1.5 micras, un máximo de memoria direccionable de 16 Megas y unas velocidades de reloj de 8, 10
y 12 MHz.
En términos de rendimiento, podí amos decir que se habí a multiplicado entre tres y seis veces la
capacidad del 8086, y suponí a el primer ordenador que no fabricaba IBM en exclusiva, sino que
otras muchas compañí as, alentadas por los éxitos del pasado, se decidieron a crear sus propias
máquinas. Como dato curioso, baste mencionar el hecho de que en torno a los seis años que se le
concede de vida útil, hay una estimación que apunta a que se colocaron en torno a los 15 millones
de ordenadores en todo el mundo.
En 1988, Intel desarrollaba un poco tarde un sistema sencillo de actualizar los antiguos 286 gracias
a la aparición del 80386SX, que sacrificaba el bus de datos para dejarlo en uno de 16 bits, pero a
menor coste. Estos procesadores irrumpieron con la explosión del entorno gráfico Windows,
desarrollado por Microsoft unos años antes, pero que no habí a tenido la suficiente aceptación por
parte de los usuarios. También habí a habido algunos entornos que no habí an funcionado mal del
todo, como por ejemplo el Gem 3, pero no es hasta este momento cuando este tipo de entornos de
trabajo se popularizan, facilitando la tarea de enfrentarse a un ordenador, que por aquel entonces
sólo conocí amos unos pocos. Windows vino a ser un soplo de aire fresco para la industria, pues
permitió que personas de cualquier condición pudiera manejar un ordenador con unos
requerimientos mí nimos de informática.
Y si esto parecí a la revolución, no tuvimos que esperar mucho para que el 10 de abril de 1989
apareciera el Intel 80486DX, de nuevo con tecnologí a de 32 bits y como novedades principales, la
incorporación del caché de nivel 1 (L1) en el propio chip, lo que aceleraba enormemente la
transferencia de datos de este caché al procesador, así como la aparición del co-procesador
matemático, también integrado en el procesador, dejando por tanto de ser una opción como lo era en
los anteriores 80386. Dos cambios que unido al hecho de que por primera vez se sobrepasaban el
millón de transistores usando la tecnologí a de una micra (aunque en la versión de este procesador
que iba a 50 MHz se usó ya la tecnologí a .8 micras), hací a posible la aparición de programas de
calidad sorprendente, entre los que los juegos ocupan un lugar destacado. Se habí a pasado de unos
ordenadores en los que prácticamente cualquier tarea compleja requerí a del intérprete de comandos
de MS-DOS para poder ser realizada, a otros en los que con mover el cursor y pinchar en la opción
deseada simplificaba en buena medida las tareas más comunes.
Por su parte, Intel volvió a realizar, por última vez hasta el momento, una versión de este
procesador dos años después. Se trataba del 80486SX, idéntico a su hermano mayor salvo que no
disponí a del famoso co-procesador matemático incorporado, lo que suponí a una reducción del coste
para aquellas personas que desearan introducirse en el segmento sin necesidad de pagar una suma
elevada.
Llega el Pentium
Sin embargo, Intel no se quedó contemplando la gran obra que habí a creado, y rápidamente anunció
que en breve estarí a en la calle una nueva gama de procesadores que multiplicarí a de forma general
por cinco los rendimientos medios de los 80486. Se trataba de los Pentium, conocidos por P5 en el
mundillo de la informática mientras se estaban desarrollando, y de los que la prensa de medio
mundo auguraba un gran futuro, tal y como así ha sido.
Estos procesadores pasarán a la historia por ser los primeros a los que Intel no los bautizó con un
número, y sí con una palabra. Esto era debido a que otras compañí as dedicadas a la producción de
procesadores estaban utilizando los mismos nombres puesto que no se podí a registrar una cadena de
ellos como marca, y por lo tanto, eran de dominio público. De modo que a Intel no le quedó más
remedio que ponerle una palabra a su familia de procesadores, que además, con el paso del tiempo,
se popularizó en los Estados Unidos de tal forma, que era identificada con velocidad y potencia en
numerosos cómics y programas de televisión. Estos procesadores que partí an de una velocidad
inicial de 60 MHz, han llegado hasta los 200 MHz, algo que nadie habí a sido capaz de augurar unos
años antes.
Con una arquitectura real de 32 bits, se usaba de nuevo la tecnologí a de .8 micras, con lo que se
lograba realizar más unidades en menos espacio (ver recuadro explicativo). Los resultados no se
hicieron esperar, y las compañí as empezaron aunque de forma tí mida a lanzar programas y juegos
exclusivamente para el Pentium, hasta el punto que en este momento quien no posea un procesador
de este tipo, está seriamente atrasado y no puede trabajar con garantí as con los programas que
actualmente hay en el mercado. Algo que ha venido a demostrar la aparición del nuevo sistema
operativo de Microsoft Windows 95, que aunque funciona en equipos dotados de un procesador
486, lo hace sin sacar el máximo partido de sus funciones.
La aparición, el 27 de marzo de 1995, del procesador Pentium Pro supuso para los servidores de red
y las estaciones de trabajo un aire nuevo, tal y como ocurriera con el Pentium en el ámbito
doméstico.
La potencia de este nuevo procesador no tení a comparación hasta entonces, gracias a la arquitectura
de 64 bits y el empleo de una tecnologí a revolucionaria como es la de .32 micras, lo que permití a la
inclusión de cinco millones y medio de transistores en su interior. El procesador contaba con un
segundo chip en el mismo encapsulado, que se encargaba de mejorar la velocidad de la memoria
caché, lo que resultaba en un incremento del rendimiento sustancioso.
Las frecuencias de reloj se mantení an como lí mite por arriba en 200 MHz, partiendo de un mí nimo
de 150 MHz. Un procesador que en principio no tiene muchos visos de saltar al mercado doméstico,
puesto que los procesadores Pentium MMX parecen cubrir de momento todas las necesidades en
este campo. No podemos asegurar que en un futuro cercano esto no acabe ocurriendo, pues en el
mundo de la informática han sucedido las cosas más extrañas, y nunca se sabe por dónde puede tirar
un mercado en constante evolución.
Una evolución que demostró Intel hace muy poco con un nuevo procesador, denominado Pentium
II, que viene a ser simplemente un nuevo ingenio que suma las tecnologí as del Pentium Pro con el
MMX. Como resultado, el Pentium II es el procesador más rápido de cuantos ha comercializado
Intel. Por el momento únicamente se dispone de las versiones a 233 y 266 MHz, pero después de
este verano podremos disfrutar de la versión de 300 MHz, que supondrá un nuevo récord de
velocidad de reloj. El Pentium II, cuyas caracterí sticas fueron tratadas con detalle en el artí culo de
portada del pasado mes de la revista, es hoy (por poco tiempo) el extremo de la cadena evolutiva de
Intel.
La evolución que están sufriendo los procesadores es algo que no parece escapar a la atención de
millones de personas, cuyo trabajo depende de hasta dónde sean capaces de llegar los ingenieros de
Intel a la hora de desarrollar nuevos chips. El último paso conocido ha sido la implementación de la
nueva arquitectura de 0.25 micras, que viene a sustituir de forma rotunda la empleada hasta el
momento, de 0.35 micras en los últimos modelos de procesador.
Esto va a significar varias cosas en un futuro no muy lejano. Para empezar, la velocidad se
incrementará una media del 33 por ciento con respecto a la generación de anterior. Es decir, el
mismo procesador usando esta nueva tecnologí a puede ir un 33 por ciento más rápido que el
anterior. Para que os podáis hacer una idea del tamaño de esta tecnologí a, deciros que el valor de
0.25 micras es unas 400 veces más pequeño que un pelo de cualquier persona. Y este tamaño es el
que tienen los transistores que componen el procesador. El transistor, como muchos sabréis, permite
el paso de la corriente eléctrica, de modo que en función de en qué transistores haya corriente, el
ordenador realiza las cosas (esto es una simplificación de la realidad, pero se ajusta a ella más o
menos).
Dicha corriente eléctrica circula entre dos puntos, de modo que cuanto menor sea esta distancia,
más cantidad de veces podrá pasar pues el tiempo de paso es menor. Aunque estamos hablando de
millonésimas de segundo, tened en cuenta que un procesador está trabajando continuamente, de
modo que ese tiempo que parece insignificante cuando es sumado a lo largo de las miles de
millones de instrucciones que realizar, nos puede dar una cantidad de tiempo bastante importante.
De modo que la tecnologí a que se utilice puede dar resultados totalmente distintos incluso
utilizando el mismo procesador. Por el momento, en un futuro cercano además de contar con la
arquitectura de 0.25 micras, podremos disfrutar de duna de 0.07 para el año 2011, lo que supondrá
la introducción en el procesador de mil millones de transistores y alcanzando una velocidad de reloj
cercana a los 10000 MHz, es decir, 10 GHz.
La tecnologí a MMX
Aunque no podamos considerar la tecnologí a MMX como un procesador en sí mismo, serí a injusto
no hablar de ella en un informe como éste. Es uno de los mayores pasos que ha dado Intel en la
presente década, y según ellos mismos, todos los procesadores que fabriquen a partir de mediados
del próximo año llevarán incorporada esta arquitectura. Para su desarrollo se analizaron un amplio
rango de programas para determinar el funcionamiento de diferentes tareas: algoritmos de
descompresión de ví deo, audio o gráficos, formas de reconocimiento del habla o proceso de
imágenes, etc. El análisis dio como resultado que numerosos algoritmos usaban ciclos repetitivos
que ocupaban menos del 10% del código del programa, pero que en la práctica suponí an el 90% del
tiempo de ejecución. De modo que nació la tecnologí a MMX, compuesta por 57 instrucciones y 4
tipos de datos nuevos, que se encargan de realizar esos trabajos cí clicos consumiendo mucho menos
tiempo de ejecución. Antes, para manipular 8 bytes de datos gráficos requerí a 8 repeticiones de la
misma instrucción; ahora, con la nueva tecnologí a, se puede utilizar una única instrucción aplicada
a los 8 bytes simultáneamente, obteniendo de este modo un incremento del rendimiento de 8x.
del 8008
5 MHz. 10 veces las
29.000
8086 8/6/78 8 MHz. 16 bits 1 MegaByte prestaciones
(3 micras)
10 MHz. del 8080
Idéntico al
8086 excepto
5 MHz.
8088 1/6/79 8 bits 29.000 en su bus
8 MHz.
externo de 8
bits
De 3 a 6
8 MHz.
16 134.000 1 veces las
80286 1/2/82 10 MHz. 16 Megabytes
Bits (1.5 micras) Gigabyte prestaciones
12 MHz.
del 8086
Primer chip
16 MHz. x86 capaz de
Microprocesador 20 MHz. 32 275.000 64 manejar
17/10/85 4 Gigabytes
Intel 386 DX® 25 MHz. Bits (1 micra) Terabytes juegos de
33 MHz. datos de 32
bits
Bus capaz de
direccionar
Microprocesador 16 MHz. 16 275.000 64 16 bits
16/6/88 4 gigabytes
Intel 386 SX® 20 MHz. Bits (1 micra) Terabytes procesando
32bits a bajo
coste
(1 micra,
25 MHz. Caché de
Microprocesador 32 0.8 micras 64
10/4/89 33 MHz. 4 Gigabytes nivel 1 en el
Intel 486 DX® Bits en 50 Terabytes
50 MHz. chip
MHz.)
Idéntico en
16 MHz. diseño al
Microprocesador 20 MHz. 32 1.185.000 64 Intel 486DX,
22/4/91 4 Gigabytes
Intel 486 SX® 25 MHz. Bits (0.8 micras) Terabytes pero sin
33 MHz. coprocesador
matemático
60 MHz.
66 MHz.
Arquitectura
75 MHz.
escalable.
90 MHz.
Hasta 5 veces
Procesador 100 MHz. 32 3,1 millones 64
22/3/93 4 Gigabytes las
Pentium® 120 MHz. Bits (0.8 micras) Terabytes
prestaciones
133 MHz.
del 486 DX a
150 MHz.
33 MHz.
166 MHz.
200 MHz.
Arquitectura
de ejecución
150 MHz. 5,5 millones
Procesador 64 64 dinámica con
27/3/95 180 MHz. (0.32 4 Gigabytes
PentiumPro® Bits Terabytes procesador
200 MHz. micras)
de altas
prestaciones
S.E.C.,
233 MHz. 7,5 millones MMX, Doble
Procesador 64 64
7/5/97 266 MHz. (0.32 4 Gigabytes Bus Indep.,
PentiumII® Bits Terabytes
300 MHz. micras) Ejecución
Dinámica
El procesador de doble núcleo ha sido diseñado para adaptarse a la misma infraestructura de 939
pins, que los procesadores de un solo núcleo. Todo lo que se necesita es una actualización de la
BIOS y esto ahorra a nuestros socios los costes de rediseños y existencias obsoletas.
Procesador Intel®Pentium®
Extreme Edition
Número de 840, 955, 965
procesador
Arquitectura Tecnologí a de 90 nm y 65 nm
Caché L2 2x1MB y 2x2 MB
Caché L3 N/D
Velocidad del reloj 3,20 GHz, 3,46 GHz y 3,73 GHz
Bus frontal 800 MHz y 1066 MHz
Chipset Chipset Intel®975X Express
Chipset Intel®955X Express
Zócalo LGA775
Motherboard Desktop Board Intel®D955XBK
Desktop Board Intel®D955XBX
El chipset es un conjunto de circuitos integrados que se encarga de realizar las funciones que el
microprocesador delega en ellos. El conjunto de circuitos integrados auxiliares necesarios por un
sistema para realizar una tarea suele ser conocido como chipset, cuya traducción literal del inglés
significa conjunto de circuitos integrados. Se designa circuito integrado auxiliar al circuito
integrado que es periférico a un sistema pero necesario para el funcionamiento del mismo. La
mayorí a de los sistemas necesitan más de un circuito integrado auxiliar; sin embargo, el término
chipset se suele emplear en la actualidad cuando se habla sobre las placas base de los IBM PCs.
Toda la información debe viajar a través del chipset. Todos los componentes se comunican con la
CPU por medio del chipset. Para controlar el flujo de salida de toda la información, el chipset
utiliza el controlador de DMA y el bus de datos.
En los procesadores habituales el chipset está formado por 2 circuitos auxiliares al procesador
principal:
• El SouthBridge controla los dispositivos asociados como son la controladora de discos IDE,
puertos USB, Firewire, SATA, RAID, ranuras PCI, ranura AMR, ranura CNR, puertos
infrarrojos, disquetera, LAN y una larga lista de todos los elementos que podamos imaginar
integrados en la placa madre. El puente sur es el encargado de comunicar el procesador con
el resto de los periféricos.
Existen varios tipos de chipsets en el mercado, y por estos reconocemos las Motherboard, como en
el caso de la TX Pro II, e aquí algunos tipos de chipsets comunes:
Pentium Socket 5/7:
Intel 430LX Mercury (82434NX, 82433NX, 82371FB)
P5, Socket 4
Intel 430NX Neptune (82371FB, 82434LX, 82433LX)
P54C Socket 5
Intel 430FX Triton I (82437FX,82438FX,82371FB)
Intel 430HX Triton II (82439HX,82371SB)
Intel 430VX Triton III (82437VX,82438VX,82371SB)
Intel 430TX PCIset (82439TX,82371AB)
OPTi Viper Xpress+
OPTi Vendetta
ALi Alladin III (1521,1523)
ALi Alladin IV (1531,1533)
ALi Alladin IV+ (1531,1543)
SiS 5511/5512/5513
SiS Trinity (5571)
SiS 5581,5582
SiS 5591,5595
SiS Genesis (5596,5513)
SiS 5597,5598
AMD-640 (640/645)
PCChips VXPro
ALi HXPro
ALi TXPro
VLSI Lynx (541,543)
VIA Apollo Master (570M)
VIA Apollo VP-1 580VP (585VP,587,586A)
VIA Apollo VPX/97 580VPX (585VPX,587,586B)
VIA Apollo VP-2 590VP (595,586A)
VIA Apollo VP2/97 590VP (595,586B)
VIA Apollo VP3 597 (597,586B)
Pentium Pro
OPTi Discovery (650,651 or 650,651,652 with AGP)
Intel Orion (450GX)
Intel Mars (450KX)
Pentium Pro/II
El Chipset va a condicionar las capacidades de nuestra computadora ya que especifica las tecnlogí as
que es capaz de utilizar, por ejemplo, serí a inutil comprar un disco duro con tecnologí a SATA si el
Chipset de nuestra Placa base solo es capaz de utilizar tecnologí a PATA. Hay varios fabricantes de
chipsets, pero entre ellos destacan Intel, Nvidia, VIA y SIS.
Vamos a ver la especificacion técnica de un chipset de cada fabricante para ver diferencias:
Cada chipset que se encuentra en el mercado, ha sido diseñado para trabajar con un conjunto
determinado de procesadores, la gran mayorí a de los chipsets sólo soportan una generación de
procesadores. Así que los sistemas basados en Pentium II o Pentium Pro tienen su propio chipset
caracterí stico, el cual es muy diferente del chipset de un sistema basado en un 486.
Algunos chipsets le permiten a la Motherboard manejar varios procesadores al mismo tiempo, por
ejemplo dos o cuatro procesadores (en el caso de las estaciones de trabajo) bien sea de forma serial
o paralela. El chipset coordina en tales casos, las actividades de cada procesador de forma que no
interfiera con el trabajo de ningún otro, y el software del sistema se carga de manera compartida
entre las CPU s.
La mayorí a de los computadores actuales, manejan dos tipos de buses, uno el bus ISA para los
componentes antiguos, generalmente los más lentos, y el otro denominado bus PCI para los
componentes modernos, los cuales son más rápidos. El chipset controla estos buses, transfiriendo la
información necesaria desde y hacia el procesador y la memoria.
Las Motherboard actuales están en capacidad de controlar cuatro discos duros tipo IDE (o ATA),
dos por canal (primario y secundario). Esta caracterí stica fue integrada al chipset, puesto que de esta
forma se evita el uso de una tarjeta externa controladora, y con esto se consigue ahorrar un slot de
expansión; otra razón importante es por la comodidad de poder conectar en un canal de manera
indiferente discos duros y/o drives de CD-ROM.
El chipset Intel 955X Express habilita las plataformas Intel de desempeño máximo y ofrece
compatibilidad con el nuevo procesador Intel de doble núcleo compatible con la tecnologí a Hyper-
Threading , para agregar inteligencia que ayuda a gestionar y a asignar prioridades a cuatro
subprocesos de software de forma simultánea por primera vez en los equipos de desktop. Además,
este chipset admite capacidades clave de desempeño optimizado, tales como la Tecnologí a Intel ®
Memory Pipeline (Intel ® MPT), el direccionamiento de memoria de hasta 8 GB que habilita la
informática de 64 bits y la compatibilidad con la memoria ECC.
Interfaz PCI Express* x16 Brinda más de 3,5 veces el ancho de banda en
comparación con la interfaz AGP 8x tradicional. Es
compatible con las tarjetas gráficas más recientes
para los juegos y las aplicaciones más exigentes.
Interfaz PCI Express* x1 Ofrece hasta 3,5 veces el ancho de banda por
encima de la arquitectura PCI tradicional. Permite la
reproducción de ví deo más fluida y una capacidad
de edición de contenido de alta definición de nivel
profesional a través de los sistemas.
Tecnologí a de Brinda acceso más rápido a fotografí as, ví deo y
almacenamiento en matriz archivos profesionales digitales con RAID 0, 5 y 10,
Intel® al igual que protección en contra de la pérdida de
datos debido a problemas en la unidad de disco duro
con RAID 0, 5 y 10.
Sonido Intel ® de alta Permite el sonido digital supremo en los sistemas
definición (HD) para ofrecer una experiencia de sonido envolvente
cautivantes, reconocimiento de voz de alta calidad y
voz a través de IP. Los sistemas de Sonido Intel HD
brindan acceso a la tecnologí a de sonido de PC
Dolby*.
Tecnologí a Intel ® Memory Canalización mejorada de la memoria que permite
Pipeline una mayor utilización de cada canal de memoria, lo
cual acelera las transferencias de datos entre el
procesador y la memoria del sistema, y da como
resultado un desempeño superior del sistema.
Compatibilidad con la Provee mayor ancho de banda para una desempeño
memoria DDR2 de doble de repuesta de sistema más rápido con un ancho de
canal banda de hasta 10,7GB/s y 8GB de
direccionamiento para una respuesta más veloz del
sistema.
Tecnologí a Intel ® Flex Simplifica las actualizaciones al permitir el relleno
Memory de distintos tamaños de memoria y la conservación
del modo de doble canal.
Software de plataforma La pila exhaustiva de controlador de plataforma
ofrece desempeño y ayuda a reducir el coste total de
propiedad.
Tecnologí a Intel ® de Permite la gestión remota en todo momento de
gestión activa sistemas de redes fuera de banda
independientemente del estado del sistema. Ayuda a
mejorar la eficacia de TI, la gestión de activos y la
seguridad y disponibilidad del sistema.
El chipset Intel 975X permite las plataformas de Intel de más alto desempeño, ofrece
compatibilidad con los procesadores Intel de doble núcleo más recientes y agrega inteligencia que
ayuda a gestionar y a asignar prioridades a los subprocesos múltiples (cuádruples) recibidos del
procesador.
Además de la compatibilidad con los subprocesos múltiples, el chipset Intel 975X Express permite
capacidades clave optimizadas para el desempeño, tales como la compatibilidad con varias tarjetas
gráficas 2x8, la Tecnologí a Intel® de canalización de memoria (Intel® MPT), el direccionamiento
de memoria de 8GB que habilita la informática de 64 bits y la compatibilidad con la memoria ECC.
Existen muchos tipos de sockets, usados por diferentes CPUs. He aquí el listado hasta la fecha por
orden de antigüedad.
Socket 1
El Socket 1 fue uno de la serie de sockets estándares en el cual varios procesadores x86 podí an ser
utilizados. Fue el primer socket estándar para los procesadores Intel 486
Era un socket de 169 pin LIF/ZIF PGA (17x17) adecuado para los procesadores de 5v, 16-33 MHz
486 SX, 486 DX, 486 DX2 y DX4 Overdrive.
Socket 2
El Socket 2 fue uno de la de serie de sockets estandar dentro del cual podí a ser utilizado una gran
gama de procesadores x86. Fue una actualización del Socket 1 con el soporte para Pentium
Overdrive.
Era un socket de 238 pin LIF/ZIF PGA (19x19) adaptado para procesadores de 5v, 25-50 MHz ,486
SX, 486 DX, 486 DX2, 486 DX4, DX4 Overdrive y Pentium Overdrive.
Socket 3
Otro socket de Intel, posee 237 pines. Trabaja a 5 voltios, pero puede operar también a 3.3 voltios
(voltaje que se define por medio de un jumper ubicado en la Motherboard). Soporta todos los
procesadores soportados por el socket 2, y además soporta el 5x86. Es considerado el último de los
socket para 486.
Socket 4
Este socket nos da la bienvenida al mundo de las máquinas basadas en Pentium. Posee 273 pines.
Tan sólo opera a 5 voltios, y por esto no lo encontramos muy a menudo, puesto que los únicos
procesadores Pentium que operan a este voltaje son los de 60 y 66 Mhz, así como algunos chips
Overdrive.
Socket 5
El Socket 5, de Intel, fue usado para correr los primeros procesadores Pentium I de 32-bit. Corrí a
los pentium de 75Mhz,85Mhz,90Mhz, y los procesadores de 100Mhz. Algunos alcanzaron a ser
compatibles con el Pentium Overdrive, dependiendo del tipo de placa madre.
Socket 6
Aunque podrí a pensarse en un socket diseñado para procesadores Pentium, estamos en realidad
frente al socket mas avanzado que existe para máquinas 486. Su único problema (y el que le
impidió posicionarse en el mercado) es que salió a la venta cuando los 486 estaban en ví as de
extinción.
Socket 7
Procesadores soportados:
Socket 7 usa el SPGA socket, además de un LIF de 296 pines en distribución 37x37 (la cual es muy
rara), o los más comunes son los ZIF de 321 pines distribuidos en 19x19.
Socket 8
La parte de detrás es una pieza sólida de plástico. Si se le quiere conectar un disipador, éste irí a en
la parte de arriba.
Algunas placas base tienen un sistema de sujeción del procesador, que consiste en unas piezas de
plástico a cada lado del zócalo Slot 1 (esto se puede ver en la primera foto). Este sistema no es tan
cómodo como los de otros sockets, y a veces hay que forzar estas piezas para colocar o quitar un
procesador.
Datos técnicos
Slot 1 es más rápido que Socket 7, ya que permite una mayor frecuencia de reloj.
Socket A
Socket 462 / A
El Socket A (también conocido como
[[]]
Socket 462) es utilizado por los
procesadores de AMD, desde el Athlon K7 Especificaciones
hasta el Athlon XP 3200+, y por los de Tipo: PGA-ZIF
bajo presupuesto Duron y Sempron. El
Contactos: 462
socket es una rejilla para 462 pines.
Protocolo del Bus: EV6
El Socket A está siendo reemplazado poco 100 MHz, 133 MHz,
a poco por los nuevos tipos de socket, 166 MHz y 200 MHz
como el Socket 754, utilizado por los equivalentes a FSB200,
procesadores Sempron y Athlon 64, y el Bus frontal:
FSB266, FSB333 y
Socket 939 utilizado por los Athlon 64 y FSB400 (Bus de doble
Athlon 64 FX. velocidad DDR)
Rangos de voltaje: 1,1 - 2,05 V
Especificaciones Técnicas
AMD Athlon (650 MHz -
• Soporta procesadores con 1400 MHz)
velocidades de reloj entre 600 MHz AMD Athlon XP (1500+ -
(Duron) y 2333MHz (Athlon XP 3200+)
3200+) AMD Duron (800 MHz -
Procesadores:
• Bus frontal de doble velocidad 1800 MHz)
(DDR), 100MHz, 133MHz, AMD Sempron (2000+ -
166MHz y 200 MHz en 3000+)
procesadores Duron y Athlon XP, AMD Athlon MP (1000
basado en el bus EV6 del DEC MHz - 3000+)
Alpha.
• Es la plataforma sobre la que operó
el primer procesador x86 de 1 GHz.
ZIF
El ZIF, del inglés Zero Insertion Force, es un zócalo (socket) donde se conecta un microprocesador
con un mecanismo que permite una fuerza de inserción nula.
PGA
El PGA es un zócalo clásico para la inserción en una placa base de un microprocesador. Fue usado
para procesadores como el 80386 y el 80486; consiste en un cuadrado de conectores en forma de
agujero donde se insertan las patitas del chip por pura presión. Según el chip, tiene más o menos
agujeros (uno por cada patilla).
Socket 939
El socket 939 fue creado por AMD para los procesadores AMD Athlon 64, tanto para versiones
normales, como para los FX o los X2 doble núcleo. Muy similar al Socket_940, utilizado por los
Opteron, pero difiere en un pin, dado que los 940 utilizan memoria ECC.
Socket 423
El Socket 423 fue utilizado para los primeros Pentium 4 basados en en nucleo Willamette. Tuvo una
vida muy corta, puesto que tenia un diseño eléctrico inadecuado que no le permití a superar los
2Ghz. Fue remplazado por el Socket 478. Ambos Sockets son fácilmente diferenciables por el
tamaño resultante, siendo má s grande el 423 que el 478 (aunque parezca contradictorio).
Una de las caracterí sticas que diferencian a ambos sockets, a parte del tamaño, son las tecnologí as a
las que están asociados. El Socket 423 coincidió en una época de Intel donde mantení a un acuerdo
con Rambus, por lo que todas las placas que podemos encontrar con este tipo de zócalo, llevan
memoria Rambus.
Am2
El Socket AM2, denominado anteriormente como Socket M2, es un zócalo de CPU diseñado para
procesadores AMD en equipos de sobremesa. Su lanzamiento está previsto para el tercer trimestre
de 2006, como sustituto del 939. Tendrá 940 pins y soportará memoria DDR2; sin embargo no será
compatible con los procesadores actuales de 940 pins (como, por ejemplo, los procesadores Opteron
Sledgehammer).
Los primeros procesadores para el zócalo AM2 serán los nuevos Opteron serie 100. El zócalo está
también diseñado para los siguientes núcleos: Windsor (AMD Athlon 64 X2 4200+ - 5000+, AMD
Athlon 64 FX-62), Orleans (AMD Athlon 64 3500+ - 4000+) y Manila (AMD Sempron 3000+ -
3600+) - todos construidos con tecnologí a de 90 nm.
Aunque de estos actualmente quedan activos pricipalmente el 939 para AMD, el 775 para Intel y,
menos que estos, el 754 para AMD y el 478 para Pentium; servidores y portá tiles aparte.
Ranuras de expansión para tarjetas de tareas especí ficas que pueden no venir incorporadas en la
placa madre, como pueden ser más puertos de comunicaciones, acceso a red de ordenadores ví a
LAN (Local Area Network, red de área local) o ví a red telefónica: básica, RDSI (Red Digital de
Servicios Integrados), ADSL (Asynchronous Digital Subscriber Loop, Lazo Digital Así ncrono del
Abonado), etc. Un PC estándar suele tener muchas más ranuras de expansión que un PC embebido.
Las ranuras de expansión están asociadas a distintos tipos de bus: VESA, ISA, PCI, NLX (ISA +
PCI), etc.
El bus ISA (Industry Standard Architecture) es un bus creado por IBM en 1980 en Boca
Raton, Florida para ser empleado en los IBM PCs.
La versión original era de 8 bits y funcionaba a 4,77 MHz, la misma velocidad que el
procesador Intel 8088 empleado en el IBM PC. Posteriormente, cuando se lanzaron nuevos
PCs con el procesador Intel 80286, se creó una extensión de 16 bits y se aumentó su
velocidad a 8 MHz. Esta extensión es compatible de forma descendente con el bus ISA de 8
bits.
El ancho de banda máximo del bus ISA de 16 bits es de 16 MBytes/segundo. Este ancho de
banda es insuficiente para las necesidades actuales, tales como tarjetas de ví deo de alta
resolución, por lo que el bus ISA no se emplea en los PCs modernos (2004), en los que ha
sido substituido por el bus PCI.
En una Motherboard usted puede reconocer los ISA por su color negro y su gran tamaño.
• MCA (Arquitectura Micro Canal): Este bus fue creado por IBM, se trata de un bus de 32-
bit al igual que el EISA, pero en el cual usted no puede introducir tarjetas tipo ISA. El slot
MCA era capaz de manejar buses, así como de identificar algunos componentes conectados
en él y configurarlos de manera automática, por último la utilización del MCA reducí a la
interferencia eléctrica, de cualquier forma el slot MCA es historia, y en este momento no
existe. Tal vez esto se deba a que a pesar de sus múltiples ventajas sobre el bus ISA jamás se
popularizó debido a sus costos.
• VESA Local Bus (VLB), antes usado como un puerto de alta velocidad para ví deo (antes
de la aparición del AGP)
• VESA BIOS Extensions (VBE), usado para crear un estándar que soportase modos de
ví deo avanzados (a alta resolución y miles de millones de colores).
• VESA Display Data Channel (DDC), que permite a los monitores autoidentificarse a las
tarjetas gráficas a las que están conectados. Sin embargo, el formato actual de
identificación es llamado EDID (Extended Display Identification Data).
• VESA Display Power Management Signaling, que permite a los monitores comunicar
que tipo de modos de ahorro de energí an poseen.
• Una serie de patentes sobre pantallas planas, conectores de video, sincronización del ví deo
digital,...
A diferencia de los buses ISA, el bus PCI permite configuración dinámica de un dispositivo
periférico. En el tiempo de arranque del sistema, las tarjetas PCI y el BIOS interactúan y
negocian los recursos solicitados por la tarjeta PCI. Esto permite asignación de IRQs y
direcciones del puerto por medio de un proceso dinámico diferente del bus ISA, donde las
IRQs tienen que ser configuradas manualmente usando jumpers externos. A parte de esto, el
bus PCI proporciona una descripción detallada de todos los dispositivos PCI conectados a
través del espacio de configuración PCI.
Especificaciones de PCI
Variantes de PCI
• PCI 2.2: permite un ancho de bus de 64 bits a 66 MHz (533 MB/s de transferencia
máxima)
• PCI-Express
PCI-Express (anteriormente conocido por las siglas 3GIO, 3rd Generation I/O) es un nuevo
desarrollo del bus PCI que usa los conceptos de programación y los estándares de
comunicación existentes, pero se basa en un sistema de comunicación serie mucho más
rápido. Este sistema es apoyado principalmente por Intel, que empezó a desarrollar el
estándar con nombre de proyecto Arapahoe después de retirarse del sistema Infiniband.
PCI Express está pensado para sustituir no sólo al bus PCI para dispositivos como Módems
y tarjetas de red, sino también al bus AGP, lugar de conexión para la tarjeta gráfica desde
1997. Al contrario que su predecesor paralelo, PCI Express es un sistema de interconexión
serie punto a punto, capaz de ofrecer transferencias con un altí simo ancho de banda, desde
200MB/seg para la implementación 1X, hasta 4GB/seg para el PCI Express 16X que se
empleará con las tarjetas gráficas.
PCI Express también incluye caracterí sticas novedosas, tales como gestión de energí a,
conexión y desconexión en caliente de dispositivos (como USB), y la capacidad de manejar
transferencias de datos punto a punto, dirigidas todas desde un host. Esto último es
importante porque permite a PCI Express emular un entorno de red, enviando datos entre
dos dispositivos compatibles sin necesidad de que éstos pasen primero a través del chip host
(un ejemplo serí a la transferencia directa de datos desde una capturadora de ví deo hasta la
tarjeta gráfica, sin que éstos se almacenen temporalmente en la memoria principal).
PCI Express también optimiza el diseño de placas base, pues su tecnologí a serie precisa tan
sólo de un único cable para los datos, frente a los 32 necesarios para el PCI clásico, el cual
también necesitaba que las longitudes de estos fuesen extremadamente precisas.
La escalabilidad es otra caracterí stica clave, pues se pretende que las versiones posteriores
de PCI Express sustituyan cualquier caracterí stica que PCI o, en el segmento de servidores,
PCI-X, puedan ofrecer.
Dado que PCI Express es, a nivel fí sico, un enlace chip a chip, podrí a ser usado, en teorí a,
para sustituir a la gran cantidad de tecnologí as de interconexión actuales; sin embargo, está
siendo orientado únicamente hacia tareas muy especí ficas.
En el siguiente gráfico podemos apreciar una comparativa de las capacidades de los buses a
lo largo del tiempo:
Arquitectura
Un simple canal en PCI-Express ofrecerá inicialmente una velocidad de 2,5 Gbits/s en cada
dirección. Cada ruta emplea dos pares de hilos (transmisión y recepción), ofreciendo un
rendimiento efectivo de 200MBytes/s en cada dirección una vez factorizamos las
sobrecargas del protocolo. No obstante, sus creadores afirman que tendrá una escalabilidad
lí mite que permitirá hasta, al menos, 10Gbits/s en cada ruta y por cada dirección.
La diferencia más obvia entre PCI-Express y su antecesor es que, mientras PCI emplea una
arquitectura en paralelo, su sucesor utiliza una arquitectura serie punto a punto o conmutada.
Una ventaja del bus Serie frente al Paralelo es el alto ancho de banda que se puede conseguir
con un número mucho menor de señales. Dichas conexiones no llegan a situaciones
llamadas "delay skew", donde los bits en paralelo llegan en distintos instantes de tiempo y
han de ser sincronizados. Además, son más baratas de implementar. Ciertamente, los
interfaces paralelos pueden ser extremadamente veloces y muy efectivos para algunos
interfaces a nivel de chips, o en la tecnologí a SCSI por ejemplo.
La conexión dual permite que los datos sean transferidos en ambas direcciones
simultáneamente, similar a las conexiones full duplex (como en los teléfonos), solo que en
este caso, cada par de hilos posee su propia toma de tierra. Con el bus PCI, un dispositivo
debe requerir primero acceso al bus PCI compartido desde un árbitro central, y entonces
tomar control del bus para transferir datos al dispositivo de destino, con la transmisión de
datos ocurriendo en una dirección entre dos dispositivos en cada instante de tiempo.
Un flujo de datos/reloj serie puede ser transferido sobre distancias mucho mayores que
usando buses paralelo con los relojes separados (los buses paralelo con los relojes sí ncronos
pueden sufrir problemas de recuperación y de ruidos en la señal). Además, los enlaces en
serie son más baratos de implementar, lo cual es un buen presagio para conectar dispositivos
de Entrada/Salida internamente, y también para conexiones largas externas. Sin embargo,
extraer y crear los relojes de manera que vayan como hemos expuesto conlleva un
sobrecarga adicional de procesamiento, por tanto, las interfaces paralelas tienden más a ser
usadas para unir procesadores de alta velocidad y componentes de chipset en un sistema
multiprocesador actual, ya que poseen una latencia menor.
Transmisión sí ncrona
La señal de reloj está mezclada con la propia información. Para ello, usa una codificación
8b/10b que transmite 10 bits por cada 8 de información, por lo que genera una sobrecarga
del 20 %.
Transmisión bidireccional
Una conexión está compuesta de 2 canales, uno de ida y otro de vuelta que transmiten
simultáneamente (dos canales simplex).
Conexión múltiple
PCI Express puede utilizar varias conexiones para la misma comunicación dando lugar a
configuraciones llamadas x1, x2, x4, x8, x12, x16, x32. Las conexiones x16 y x32 están
pensadas para conectar dispositivos como tarjetas gráficas
Transmisión isócrona
Es posible reservar y garantizar un ancho de banda bajo demanda consiguiendo una
transmisión en tiempo real. A esto se le conoce como transferencia isócrona, pues se puede
garantizar el tiempo que durará una transmisión de datos (i.e. tiempo real).
Distancia
La inclusión de la señal de reloj permite mayores distancias respecto a los buses paralelo
cuya señal discurre por un lí nea separada. En el diseño de este bus se ha marcado como
objetivo permitir hasta 50 cm de distancia entre dispositivos con tecnologí a de placa de
Mantenimiento
Consumo energético
- Bajo consumo debido a las bajas tensiones de funcionamiento.
- Implementa funciones de ahorro de energí a.
Ahorro de costes
La transmisión serie ahorra muchas lí neas y por tanto patillas en los circuitos integrados,
pistas en las placas de circuito impreso, hilos en los cables permitiendo conectores más
pequeños.
Compatibilidad con PCI
Aunque es evidente la incompatibilidad hardware, se mantiene una compatibilidad con PCI
en las capas software, lo que permite abaratar los costes en la implementación de los
controladores de dispositivo (drivers).
Conexión sustitución
- Conexión en caliente (hot-plug)
- Cambio en caliente (hot-swap)
Integridad de la señal
- Al disminuir el nº de pistas, permite tomar medidas contra las interferencias
electromagnéticas (EMI).
- La conexión serie tiene menos problemas con la propagación por la diferencia de
longitud de las pistas.
- La señal diferencial disminuye los problemas con el ruido.
Errores
- Gestión integrada de errores que incluye la posibilidad de generar informes.
Topologí a
Arquitectura PC
Vista lógica de un switch en PCI Express:
Switch PCI-Express
Podemos observar a continuación una imagen de una placa de PC conteniendo los buses
PCI-Express:
En la siguiente tabla podemos ver el esquema de los pines genéricos de conexión (es decir,
que poseerán todos los slots de PCI-Express independientemente de la amplitud 1x,2x,4x,
etc) y que serán ampliados conforme el bus crezca su ancho de banda:
Además, las transacciones en PCI Express usan un mecanismo de control basado en un flujo
de créditos (gestionado por la capa de abstracción de transacciones) para asegurar que el
dispositivo de destino posee unos recursos de buffer suficientes (disponibles) para aceptar el
tamaño y tipo de datos de la transferencia del dispositivo que enví a.
Interrupciones
PCI Express soporta dos tipos de interrupciones, las viejas interrupciones heredadas PCI
INTx (donde x= A, B, C, ó D) usando una técnica de emulación, y las nuevas Interrupciones
Señalizadas por Mensajes (MSI de "Message Signaled Interrupt"). MSI es opcional en los
dispositivos PCI 2.2/2.3, pero se requiere en los nuevos modelos de dispositivos PCI
Express devices.
La emulación de INTx puede señalizar interrupciones al chipset host. Es compatible con los
drivers PCI y con el software de los sistemas operativos. Virtualiza las señales de
interrupción fí sicas de PCI usando un mecanismo de señalización por banda. Los
dispositivos PCI Express deben soportar tanto las anteriores INTx como los modos MSI, y
los dispositivos heredados encapsularán la información de las interrupciones INTx dentro de
una transacción de mensajes de PCI-Express (uno de los tipos de transacciones que vimos
un poco más arriba).
Las interrupciones MSI son activas por flanco y enviadas por medio de transacciones de
escritura de memoria. El Driver sobrescribirá lo que sea necesario para obtener las ventajas
del uso de las interrupciones por flanco MSI. El esquema MSI es el método originalmente
deseado de propagación de interrupciones cuando se usa un protocolo de paquetes sobre un
enlace serie. MSI es más efectivo en sistemas multiprocesador ya que cualquier dispositivo
puede editar interrupciones a los distintos host directamente. Muchos procesadores y
arquitecturas de sistemas de E/S han previsto la posibilidad del uso de técnicas de MSI.
que, un bus con tantas expectativas despierta gran ilusión entre los fabricantes de tarjetas
gráficas, como NVIDIA y ATI por ejemplo.
Algunos de los más beneficiados por el avance de PCI Express serán los ya mencionados
ATI y NVIDIA, así como otros fabricantes de tarjetas gráficas. Dado que el conector PCI
Express NO será compatible con las tarjetas AGP actuales, habrá que adaptar las tarjetas al
bus, en caso de que se desee un cambio de placa o bien de tarjeta.
Por supuesto, los fabricantes de sistemas gráficos no solo aprecian las ventajas fiscales del
PCI Express, sino también sus mejoras técnicas, que incluyen no solo el mayor ancho de
banda, sino también una mayor potencia eléctrica disponible. El actual AGP 8x (o también
AGP 3.0) ha forzado los lí mites en cuanto a rendimiento, y ya se ha visto que ha llegado el
momento del cambio. PCI Express aliviará bastantes de los problemas de temporización del
AGP actual, y casi triplicará la potencia eléctrica máxima disponible para la tarjeta, lo que lo
situará por encima de AGP y de una gran cantidad de buses, entre ellos, como no, el clásico
PCI.
Una señal más clara y mayor potencia eléctrica puede suponer una mejora significativa,
especialmente en la gama alta de procesamiento de gráficos. Un bonito efecto colateral es
que PCI Express hará sencilla la instalación de múltiples tarjetas gráficas de gama alta en el
mismo equipo, cosa que, actualmente no es tan fácil. No obstante, antes los fabricantes
deberán solucionar muchos otros problemas, como el sobrecalentamiento y los mecanismos
para evacuar ese calor (los enormes ventiladores de hoy en dí a), ya que, si con PCI-Express
se persigue una posible reducción en las dimensiones de la placa base, también estaremos
reduciendo en cierto modo el espacio interno para la instalación de dispositivos y
favoreciendo la acumulación de focos de calor.
PCI-Express no es todaví a suficientemente rápido para ser usado como bus de memoria.
Esto es una desventaja que no tienen el sistema similar HyperTransport, que también puede
tener este uso. Además no ofrece la flexibilidad del sistema InfiniBand, que tiene
rendimiento similar, y además puede ser usado como bus interno externo.
PCI-Express en 2006 es percibido como un estándar de las placas base para PCs,
especialmente en tarjetas gráficas. Marcas como ATI Technologies y nVIDIA entre otras
tienen tarjetas graficas en PCI-Express.
módem, adaptadores para red, tarjetas de sonido, etc. La mayorí a de las tarjetas PCMCIA
son utilizadas en los computadores portátiles, pero hoy dí a algunos fabricantes de PC de
escritorio las han integrado a sus máquinas.
• AGP (Puerto Gráfico Acelerador): Es el nuevo tipo de slot, creado para el manejo de
gráficas en 3D.
• Ranura AMR
Ranura de expansión en la placa madre para dispositivos de audio como tarjetas de sonido o
modems lanzada en 1998, cuenta con 16 pines y es parte del estándar de audio AC97 aun
vigente en nuestros dí as.
Desaparecido por completo en los modelos de placas madre para Pentium IV y a partir de
AMD en Socket A
• Ranura CNR
Adolecí a de los mismos problemas de recursos de los dispositivos diseñados para ranura
AMR. Actualmente no se incluye en las placas.
Las tarjetas de expansión son tarjetas que se conectan a la placa base en los slots de expansión,
añadiéndoles mayor funcionalidad al ordenador. Las tarjetas de expansión tí picas son la tarjeta de
video, la de sonido y la de red.
Existen placas base con estas tarjetas integradas, aunque todas las placas siguen manteniendo los
slots.
Una tarjeta de sonido o placa de sonido es una tarjeta de expansión para computadoras que permite
la entrada y salida de audio bajo el control de un programa informático.
Una tarjeta de sonido tí pica incluye un chip de sonido que por lo general tiene el convertidor
Digital-Análogo el cual cumple con la importante función de "traducir" formas de ondas grabadas o
generadas digitalmente en una señal analógica y viceversa. Esta señal es enviada a un conector
(para audí fonos) en donde se puede conectar cualquier otro dispositivo como un amplificador, un
altavoz, etc.
Los diseños más avanzados tienen más de un chip de sonido, y tienen la capacidad de separar entre
los sonidos sintetizados (usualmente para la generación de música y efectos especiales en tiempo
real utilizando poca cantidad de información y tiempo del microprocesador y quizá compatibilidad
MIDI) y los sonidos digitales para la reproducción.
Esto último se logra con DACs, que tienen la capacidad de reproducir múltiples muestras digitales a
diferentes tonos e incluso aplicarles efectos en tiempo real como el filtrado o distorsión. Algunas
veces, la reproducción digital de multi-canales puede ser usado para sintetizar música si es
combinado con un banco de instrumentos que por lo general es una pequeña cantidad de memoria
ROM o flash con datos sobre el sonido de distintos instrumentos musicales. Otra forma de sintetizar
música en las PC's es por medio de los "códecs de audio" los cuales son programas diseñados para
esta función pero consumen mas tiempo de microprocesador.
La mayorí a de las tarjetas de sonido también tienen un conector de entrada o "Line In" por el cual
puede entrar cualquier tipo de señal de audio proveniente de otro dispositivo como micrófonos,
entre otros y luego así la tarjeta de sonido puede digitalizar estas ondas y guardarlas en el disco duro
del computador.
Otro conector externo que tiene una tarjeta de sonido tí pica es el conector para micrófono. Este
conector está diseñado para recibir una señal proveniente de dispositivos con menor voltaje al
utilizado en el conector de entrada "Line-In".
• Conexiones: Casi todas las tarjetas de sonido se han adaptado al estándar PC99 de
Microsoft que consiste en asignarle un color a cada conector externo, de este modo:
Color Función
• 16 bits: Nada de 32, 64, 128 y 256 bits. Las tarjetas de sonido (excepto muy raras
excepciones profesionales) toman las muestras de sonido a 16 bits (aunque se llame
SoundBlaster 128 PCI o MaxiSound 64). Esto ha llevado a engaño a más de uno al creer que
su tarjeta de sonido trabajaba con más bits que su propio procesador (pero se trata del
numero de voces, que es otro tema completamente distinto). Esos bits vienen a definir la
posición del altavoz.
Para emitir sonidos, los altavoces se mueven dando golpes. Estos golpes hacen que el aire
que nos rodea vibre, y nuestros oí dos captan esas vibraciones y las transforman en impulsos
nerviosos que van a nuestro cerebro. Pues bien, deberemos indicarle al altavoz dónde debe
"golpear". Para ello simplemente le enviaremos una posición (en este caso un número). Pues
bien, cuantas más posiciones podamos representar, mejor será el sonido. Y cuantos más bits
tengamos, más posiciones podremos representar .
¿Son necesarios más bits? En principio no; sin embargo, como en todo, cuando el ADC no
es excesivamente bueno, los últimos bits captados tienen información que no es demasiado
fidedigna. Esto significa que si podemos trabajar con un mayor abanico de bits (20 o más),
aunque perdamos calidad el sonido final seguirá siendo igual de bueno.
• 44,1 KHz :Las tarjetas de sonido simplemente transforman una señal continua en una
discreta.
Veamos un grá fico de ejemplo.
En el dibujo se aprecia una lí nea continua, que representa un sonido. Sin embargo, en
realidad cuando la captamos con nuestra tarjeta de sonido no podemos capturar TODA la
onda, capturamos simplemente una serie de puntos (los que están marcados), un punto cada
cierto tiempo, es decir, un muestreo de los datos con una determinada frecuencia; la onda
que nos quedará será del siguiente estilo:
La conclusión de este ejercicio es muy sencilla: cuanta más resolución tengamos, mejor será
la representación del sonido en nuestro ordenador. Algunas tarjetas incorporan interpolación,
mediante la que se suavizan los picos y se puede volver a obtener una onda más parecida a la
original, mejorando, según los fabricantes, la calidad de sonido.
Todas las tarjetas de sonido domésticas pueden trabajar con una resolución de 44 1KHz, y
muchas incluso lo hacen a 48KHz. Las semi-profesionales trabajan en su mayorí a con esos
48KHz y algunas incluso con 50KHz. Las profesionales llegan cerca de los 100KHz.
La utilización de este muestreo ampliado se debe al mismo motivo por el que algunas
tarjetas utilizan más de 16bits para cada muestra: si los datos de partida no son
suficientemente fieles o después nos vamos a dedicar a modificar el sonido, perderemos
calidad, así que cuanta más calidad tengamos en un principio, mejores resultados
obtendremos al final, es mejor trabajar con un margen de confianza.
Toda placa de sonido, en la actualidad, tiene las siguientes caracterí sticas y componentes:
• Soporte 3D: Es uno de los aspectos que más debemos fijarnos si somos jugadores. El
sonido en 3D se genera mediante algoritmos de programación que le dicen a la placa de
sonido qué efectos aplicar en base a la pureza del origen del sonido, y en qué canal de audio
ponerlo. Es fundamental tener un buen sistema de parlantes.
• Entradas y Salidas: Son quienes comunican la placa de sonido hacia el exterior, desde los
simples parlantes y micrófonos hasta complejos sistemas digitales, y también dispositivos
internos como lectoras de CD/DVD y capturadoras de video.
Una tarjeta gráfica, tarjeta de ví deo o GPU (Graphics Processing Unit) es una tarjeta de circuito
impreso encargada de transformar las señales eléctricas que llegan desde el microprocesador en
información comprensible y representable por la pantalla del ordenador.
Normalmente lleva chips o incluso un procesador de apoyo para poder realizar operaciones gráficas
con la máxima eficiencia posible, así como memoria para almacenar tanto la imagen como otros
datos que se usan en esas operaciones.
2.7.2.1 Evolución
• 8514/A
Fabricado por IBM, y que trabajaba con su bus MCA. Trabaja con comandos de un nivel
muy superior a los comandos de dibujo pixel por pixel.
• MDA
En los primeros ordenadores, los gráficos brillaban... por su ausencia. Las primeras tarjetas
de ví deo presentaban sólo texto monocromo, generalmente en un agradable tono ámbar o
verde fosforito que dejaba los ojos hechos polvo en cuestión de minutos. De ahí que se las
denominase MDA, Monochrome Display Adapter.
• Hércules
Se trataba ésta de una tarjeta gráfica de corte profundamente profesional. Su ventaja, poder
trabajar con gráficos a 720x348 puntos de resolución, algo alucinante para la época; su
desventaja, que no ofrecí a color.
• EGA
Es el acrónimo inglés de Enhanced Graphics Adapter, el la especificación estándar de IBM
PC para visualización de gráficos, situada entre CGA y VGA en términos de rendimiento
gráfico (es decir, amplitud de colores y resolución). Introducida en 1984 por IBM para sus
nuevos PC-AT, EGA tení a una profundidad de color de 16 colores y una resolution de hasta
640×350 pí xels. La tarjeta EGA tení a 16 kilobytes de ROM para ampliar la de la BIOS con
funciones adicionales e incluí a el generador de direcciones de video Motorola MC6845.
A cada uno de los 16 colores se les podí a asignar un color RGB de una paleta en el modo de
alta resolución 640×350; EGA permití a escoger los colores de una paleta de 64 diferentes
(dos bits por pí xel para rojo, verde y azul). EGA también incluí a la función completa de 16
colores de CGA en los modos gráficos de 640×200 y 320×200; sólo los colores 16
CGA/RGBI estaban disponibles en este modo. Los modos CGA orginales estaban presentes,
pero EGA no era 100% compatible con CGA. EGA también podí a controlar un monitor
MDA ajustando los jumpers de la placa; sólo a 640×350.
La tarjeta IBM EGA básica incluí a 64 kilobytes de memoria de ví deo, suficiente para
controlar un monitor monocromo de alta resolución (y permitiendo todos los colores a
640×200 and 320×200 modes), si bien la mayorí a de las tarjetas EGA y sus clones incluí an
256 KB de memoria. Algunos clones de EGA de terceros fabricantes (principalmente las
tarjetas de ATI Technologies y Paradise boards) incluí an un rango de gráficos ampliado (por
ejemplo, 640×400, 640×480 and 720×540), así como detección automática del monitor, y
algunas un modo especial de 400 lí neas para usar con monitores CGA.
Como pasó con otros productos de IBM, múltiples fabricantes crearon tarjetas clónicas
compatibles con la norma VGA. Aunque la norma VGA está anticuada, siendo superada por
la XGA, es último estándar de visualización de gráficos de IBM que la mayorí a de los
fabricantes decidieron seguir. A partir de entonces cada fabricante creó mejoras del estándar
VGA incompatibles entre sí denominadas SVGA (Super VGA).
• Super Video Graphics Array o SVGA es un término que cubre una amplia gama de
estándares de visualización gráfica de ordenadores, incluyendo tarjetas de video y
monitores.
Cuando IBM lanzara al mercado el estándar VGA en 1987 muchos fabricantes manufacturan
tarjetas VGA clones. Luego, IBM se mueve y crea el estándar XGA, el cual no es seguido
por las demás compañí as, éstas comienzan a crear tarjetas de video SVGA.
Las nuevas tarjetas SVGA de diferentes fabricantes no eran exactamente igual a nivel de
hardware, lo que las hací a incompatibles. Los programas tení an dos alternativas. Manejar la
tarjeta de video a través de llamadas estándar, lo cual era muy lento pero habí a
compatibilidad con las diferentes tarjetas, o manejar la tarjeta directamente, lo cual era muy
rápido y se podí a acceder a toda la funcionalidad de ésta (modos gráficos, etc), sin embargo,
el programador tení a que hacer una rutina de acceso especial para cada tipo de tarjeta. Poco
después surgió Video Electronics Standards Association (VESA), un consorcio abierto para
promover la interoperabilidad y definición de estándares entre los diferentes fabricantes.
Entre otras cosas, VESA unificó el manejo de la interface del programa hacia la tarjeta,
también desarrolló un Bus con el mismo nombre para mejorar el performance entre el
computador y la tarjeta. Unos años después, este bus serí a sustituido por el PCI de Intel.
SVGA fue definido en 1989 y en su primera versión se estableció para una resolución de
800 × 600 pixels y 4 bits de color por pixel, es decir, hasta 16 colores por pixel. Después fue
ampliado rápidamente a los 1024 × 768 pixels y 8 bits de color por pixel, y a otras mayores
en los años siguientes.
Aunque el número de colores fue definido en la especificación original, esto pronto fue
irrelevante, (en contraste con los viejos estándares CGA y EGA), ya que el interfaz entre la
tarjeta de ví deo y el monitor VGA o SVGA utiliza voltajes simples para indicar la
profundidad de color deseada. En consecuencia, en cuanto al monitor se refiere, no hay
lí mite teórico al número de colores distintos que pueden visualizarse, lo que se aplica a
cualquier monitor VGA o SVGA.
Mientras que la salida de VGA o SVGA es analógica, los cálculos internos que la tarjeta de
ví deo realiza para proporcionar estos voltajes de salida son enteramente digital. Para
aumentar el número de colores que un sistema de visualización SVGA puede producir, no se
precisa ningún cambio en el monitor, pero la tarjeta video necesita manejar números mucho
más grandes y puede ser necesario rediseñarla desde el principio. Debido a esto, los
principales fabricantes de chips gráficos empezaron a producir componentes para tarjetas
video del alta densidad de color apenas unos meses después de la aparición de SVGA.
Sobre el papel, el SVGA original debí a ser sustituido por el estándar XGA o SXGA, pero la
industria pronto abandonó el plan de dar un nombre único a cada estándar superior y así ,
casi todos los sistemas de visualización hechos desde finales de los 80 hasta la actualidad se
denominan SVGA.
Los fabricantes de monitores anuncian a veces sus productos como XGA o SXGA, pero esto
no tiene ningún significado, ya que la mayorí a de los monitores SVGA fabricados desde los
años 90 llegan y superan ampliamente el rendimiento de XGA o SXGA.
El estándar XGA soporta una resolución máxima de 1024x768 pixeles, con una paleta
gráfica de 256 colores, o 640x480 con una profundidad de color de 16 bits por pixel (65.536
colores)
El estándar XGA-2 soporta mayor profundidad de color para el modo 1024x768 y mayor
frecuencia de refresco de pantalla, además de una resolución de 1360x1024 a 16 colores.
Todos estos modos de pantalla conservan la relación de aspecto 4:3 redondeado a 8 pixeles.
Dichos sistemas han ido evolucionando a lo largo del tiempo, pasando por algunos tan
conocidos como el primitivo CGA, VGA, SuperVGA, XGA y UXGA, aumentando en cada
sistema la resolución y el número de colores. Estos sistemas, así denominados suelen
referirse a monitores no panorámicos, es decir, en formato 4:3.
Cuando nos referimos a formato panorámico 16:9 o 16:10 añadimos al principio de las siglas
anteriores W, por lo que WUXGA es una adaptación del modo UXGA para monitores
panorámicos.
• Colores: Número de colores que es capaz de generar. Se considera True-Color a los 24 bits
ya que el ojo humano no puede diferenciar más de esos 24 bits.
• Procesador de gráficos: El encargado de hacer los cálculos y las figuras, debe tener
potencia para que actúe más rápido y de mejor rendimiento.
• La Velocidad del Refresco El refresco es el número de veces que se dibuja la pantalla por
segundo; evidentemente, cuanto mayor sea menos se nos cansará la vista y trabajaremos más
cómodos y con menos problemas visuales.
• Memoria de Video Como hemos dicho, su tamaño influye en los posibles modos de ví deo
(cuanta más, mejor); además, su tipo determina si conseguiremos buenas velocidades de
refresco de pantalla o no. Los tipos más comunes son:
o DRAM: en las tarjetas más antiguas, ya descatalogadas. Malas caracterí sticas;
refrescos máximos entorno a 60 Hz.
o EDO: o "EDO DRAM". Hasta hace poco estándar en tarjetas de calidad media-baja.
Muy variables refrescos dependiendo de la velocidad de la EDO, entre 40 ns las
peores y 25 ns las mejores.
o VRAM y WRAM: bastante buenas, aunque en desuso; en tarjetas de calidad, muy
buenas caracterí sticas.
o MDRAM: un tipo de memoria no muy común, pero de alta calidad.
o SDRAM y SGRAM: actualmente utilizadas mayoritariamente, muy buenas
prestaciones.
La SGRAM es SDRAM especialmente adaptada para uso gráfico, en teorí a incluso
un poco mas rápida.
• Conectores locales La tarjeta gráfica, como añadido que es al PC, se conecta a éste
mediante un slot o ranura de expansión. Muchos tipos de ranuras de expansión se han creado
precisamente para satisfacer a la ingente cantidad de información que se transmite cada
segundo a la tarjeta gráfica.
o ISA: el conector original del PC, poco apropiado para uso gráfico; en cuanto
llegamos a tarjetas con un cierto grado de aceleración resulta insuficiente. Usado
hasta las primeras VGA "aceleradoras gráficas", aquellas que no sólo representan
la información sino que aceleran la velocidad del sistema al liberar al
microprocesador de parte de la tarea gráfica mediante diversas optimizaciones.
o VESA Local Bus: más que un slot un bus, un conector í ntimamente unido al
microprocesador, lo que aumenta la velocidad de transmisión de datos. Una solución
barata usada en muchas placas 486, de buen rendimiento pero tecnológicamente no
muy avanzada.
o PCI: el estándar para conexión de tarjetas gráficas. Suficientemente veloz para las
tarjetas actuales, si bien algo estrecho para las 3D que se avecinan.
o AGP: tampoco un slot, sino un puerto, pensado únicamente para tarjetas gráficas que
transmitan cientos de MB/s de información, tí picamente las 3D. Presenta poca
ganancia en prestaciones frente a PCI, pero tiene la ventaja de que las tarjetas AGP
pueden utilizar memoria del sistema como memoria de ví deo.
En cualquier caso, el conector sólo puede limitar la velocidad de una tarjeta, no la eleva, lo
que explica que algunas tarjetas PCI sean muchí simo más rápidas que otras AGP más
baratas o peor fabricadas.
• Z-Buffer: Importante para el renderizado de imagenes 3D. Suele ser de 24 o 32 bits En los
gráficos por computadora, el z-buffering es la gestión de las coordenadas de profundidad de
la imagen en los gráficos en tres dimensiones (3-D), usualmente calculados en el hardware,
y algunas veces por software. Es una de las soluciones al problema de visibilidad, que es el
problema de decidir que elementos de una escena renderizada son visibles y cuales están
ocultos. El algoritmo del pintor es una solución común, pero menos eficiente.
Cuando un objeto es dibujado por una Tarjeta gráfica, la profundidad del pí xel generado
(cordenada z) se almacena en un buffer (el z-buffer). Este buffer se suele distribuir como un
array de 2 dimensiones (x-y) con un elemento por cada pixel de la pantalla. Si algún otro
objeto de la escena se tiene que renderizar en el mismo pixel, la tarjeta grafica compara las
dos profundidades y elije el más cercano al observador. La profundidad elegida es entonces
salvada en el z-buffer, reemplazando a la antigua. Al final, el z-buffer permitirá la
representación correcta de los objetos: los objetos cercanos ocultan a los más lejanos.
Al dibujar una nueva escena, el z-buffer debe limpiarse a un valor definido, normalmente
1.0, porque este valor es el limite superior de profundidad para una escala del 0 al 1. Esto
significa que no hay objetos mas alejados en ese punto en el frustum de visión .
En las tarjetas graficas de los PC recientes (1999-2005), la gestión del z-buffer usa una
porción significativa del ancho de banda de la memoria disponible del sistema. Varios
metodos se han empleado para reducir su impacto, tales como compresión sin perdida y ultra
fast hardware z-clear.
Actualmente los mayores fabricantes de tarjetas gráficas en el mercado son Nvidia, Ati,
Matrox, Intel, entre otros. Desde 32 MB a 512 MB de memoria.
2.7.2.3 Tecnologí a 3D
OpenGL y Direct3D son dos APIs (Application Programming Interface - Interfaz de Programación
de Aplicaciones) muy populares para la generación de imágenes 3D en tiempo real. Muchas tarjetas
gráficas modernas proveen de cierto grado de aceleración por hardware basado en estas APIs,
frecuentemente habilitando el despliegue de complejos gráficos tridimensionales en tiempo real. Sin
embargo, no es necesario emplear alguna de estas interfaces para la generación de imágenes 3D.
Los gráficos 3D se han convertido en algo muy popular, particularmente en juegos de computadora,
al punto que se han creado APIs especializadas para facilitar los procesos en todas las etapas de la
generación de gráficos por computadora. Estas APIs han demostrado ser vitales para los
desarrolladores de hardware para gráficos por computadora, ya que proveen un camino al
programador para acceder al hardware de manera abstracta, aprovechando las ventajas de tal o cual
placa de video.
Las siguientes APIs para gráficos por computadora son particularmente populares:
• OpenGL
• Direct3D (subconjunto de DirectX para producir gráficos interactivos en 3D)
• RenderMan
A pesar de haber muchos paquetes de modelado y animación 3D, los cuatro que se han ganado la
mayor popularidad son:
• Maya (Alias Wavefront). Es quizá el software más popular en la industria, por lo menos
hasta 2003. Es utilizado por multitud de importantes estudios de efectos visuales en
combinación con RenderMan, el motor de rénder fotorrealista de Pixar. Última versión a
Septiembre de 2003: Maya 5.
• 3D Studio Max (Discreet). Fue originalmente escrito por Kinetix (una división de
Autodesk) como el sucesor de 3D Studio para DOS. Más tarde Kinetix se fusionarí a con la
última adquisición de Autodesk, Discreet Logic. La versión a Noviembre del 2005 era la
8.0. Es el lí der en el desarrollo 3D de la industria del videojuego y es muy utilizado a nivel
amateur.
• Lightwave 3D (Newtek). Fue originalmente desarrollado por Amiga Computers a
principios de la década de los 90. Más tarde evolucionó en un avanzado paquete gráfico y
animación 3D. Actualmente disponible para Windows, Mac OS y Mac OS X. La versión a
principios del 2006 era la 8.5. El programa consiste en dos componentes: el modelador y el
editor de escena. Es utilizado en multitud de productoras de efectos visuales como Digital
Domain.
• Softimage XSI (Avid). El contrincante más grande de Maya. En 1987, Softimage Inc, una
compañí a situada en Montreal, escribió Softimage|3D, que se convirtió rápidamente en el
programa de 3D más popular de ese perí odo. En 1994, Microsoft compró Softimage Inc. y
comenzaron a reescribir SoftImage|3D para Windows NT. El resultado se llamó
Softimage|XSI. En 1998 Microsoft vendió Softimage a Avid. La versión a mediados del
2003 era la 3.5.
Junto a estos paquetes mayores, hay otros que no se han ganado tal aceptación general, pero que no
son simples juguetes. Algunos son:
• Caligari trueSpace - una aplicación 3D integrada, con una interfase muy intuitiva. Una
caracterí stica distintiva de esta aplicación es que todas las fases de creación de gráficos 3D
son realizadas dentro de un único programa. No es tan avanzado como los paquetes lí deres,
pero provee caracterí sticas como simulación de fenómenos fí sicos (viento, gravedad,
colisiones entre cuerpos).
• Cinema4d - Motor de rénder rápido, cálculo de radiosidad.
• formZ - Ofrece manipulación topológica de las geometrí as.
• Rhinoceros 3D - Un potente modelador bajo NURBS.
Utilizadas en sistemas internos, son de bajo costo. No tienen ningún tipo de inteligencia para el
control.
El dispositivo de E/S que se conecta a este tipo de tarjetas puede cumplir con las siguientes
funciones:
2.7.4 EL MODEM
Acrónimo de las palabras modulador/demodulador. El módem actúa como equipo terminal del
circuito de datos (ETCD) permitiendo la transmisión de un flujo de datos digitales a través de una
señal analógica.
2.7.4.1 Funcionamiento
El modulador emite una señal analógica constante denominada portadora. Generalmente, se trata de
una simple señal sinusoidal. A medida que se desea transmitir datos digitales, se modifica alguna
caracterí stica de la señal portadora. De esta manera, se indica si se está transmitiendo un "cero" o un
"uno". Las caracterí sticas que se pueden modificar de la señal portadora son:
• Internos: consisten en una tarjeta de expansión sobre la cual están dispuestos los diferentes
componentes que forman el módem. Existen para diversos tipos de conector:
o ISA: debido a las bajas velocidades que se manejan en estos aparatos, durante
muchos años se utilizó en exclusiva este conector, hoy en dí a en desuso.
o PCI: el formato más común en la actualidad.
o AMR: sólo en algunas placas muy modernas; baratos pero poco recomendables por
su bajo rendimiento.
• Externos: son similares a los anteriores pero están ensamblados en una carcasa que se
coloca sobre la mesa o el ordenador. La conexión con el ordenador se realiza generalmente
mediante uno de los puertos serie o COM, por lo que se usa la UART del ordenador, que
deberá ser capaz de proporcionar la suficiente velocidad de comunicación. La ventaja de
estos módems reside en su fácil transportabilidad entre ordenadores diferentes, además de
que podemos saber el estado del módem (marcando, con/sin lí nea, transmitiendo...)
mediante los LEDs que suelen tener en un panel frontal. Por el contrario, son un trasto más,
necesitan un enchufe para su transformador y la UART debe ser de 16550 o superior para
que el rendimiento de un módem de 28.800 bps o más sea el adecuado. Existen modelos
para puerto USB, de conexión y configuración aún más sencillas, aunque suelen estar en la
categorí a de módems software y eso puede imposibilitar su uso con sistemas operativos no
soportados por el fabricante.
• Módems software, HSP o Winmódems: son módems generalmente internos, en los cuales
se han eliminado varias piezas electrónicas (generalmente chips especializados), de manera
que el microprocesador del ordenador debe suplir su función mediante un programa. Lo
normal es que utilicen como conexión una ranura PCI (o una AMR), aunque no todos los
módems PCI son de este tipo. El uso de la CPU entorpece el funcionamiento del resto de
aplicaciones del usuario. Además, la necesidad de diponer del programa puede imposibilitar
su uso con sistemas operativos no soportados por el fabricante, de manera que, por ejemplo,
si el fabricante desaparece el módem quedarí a eventualmente inutilizado ante una futura
actualización del sistema. A pesar de su bajo coste resultan poco recomendables.
• Módems completos: los módems clásicos no HSP, bien sean internos o externos. En ellos el
rendimiento depende casi exclusivamente de la velocidad del módem y de la UART, no del
microprocesador.
Velocidad
Norma Otras velocidades
máxima
57.333, 54.666, 53.333, 52.000, 50.666, 49.333, 48.000,
V.90 y X2 56.000 bps 46.666, 45.333, 44.000, 42.666, 41.333, 40.000, 38.666,
37.333, 36.000, 34.666 bps
V.34+ 33.600 bps 31.200 bps
V.34 28.800 bps 26.400, 24.000, 21.600, 19.200, 16.800 bps
V.32bis 14.400 bps 12.000 bps
Tarjeta de red o NIC (Network Interface Card, Tarjeta de Interfaz de Red en español), es un
dispositivo electrónico que permite a una DTE (Data Terminal Equipment) ordenador o impresora
acceder a una red y compartir recursos entre dos o más equipos (discos duros, cdrom, etc). Hay
diversos tipos de adaptadores en función del tipo de cableado o arquitectura que se utilice en la red
(coaxial fino, coaxial grueso, etc.), pero, actualmente el más común es del tipo Ethernet utilizando
un interfaz o conector RJ45.
Las tarjetas de red Ethernet pueden variar en función de la velocidad de transmisión, normalmente
10 Mbps ó 10/100 Mbps. Actualmente se están empezando a utilizar las de 1000 Mbps, también
conocida como Gigabit Ethernet y en algunos casos 10 Gigabit Ethernet, utilizando también cable
de par trenzado, pero de categorí a 6, 6e y 7 que trabajan a frecuencias más altas. Otro tipo de
adaptador muy extendido hasta hace poco era el que usaba conector BNC. También son NIC las
tarjetas inalámbricas o wireless, las cuales vienen en diferentes variedades dependiendo de la norma
a la cual se ajusten, usualmente son 802.11a, 802.11b y 802.11g. La más popular es la 802.11b que
transmite a 11 Mbps con una distancia teórica de 100 metros.
Cada tarjeta de red tiene un número identificativo único de 48 bits, en hexadecimal llamado MAC
(no confundir con Apple Macintosh). Estas direcciones hardware únicas son administradas por el
Institute of Electronic and Electrical Engineers (IEEE). Los tres primeros octetos del número MAC
conocidos como OUI identifican a proveedores especí ficos y son designados por la IEEE.
Se le denomina también NIC a un sólo chip de la tarjeta de red, este chip se encarga de servir como
interface de Ethernet entre el medio fí sico (por ejemplo un cable coaxial) y el equipo (por ejemplo
un PC).
Es un chip usado en computadoras o perifericos tales como las tarjetas de red, impresoras de red o
sistemas embebidos para conectar dos o más dispositivos entre sí a través de algún medio, ya sea
conexión inalámbrica (ví a aire), cable UTP, cable coaxial, fibra óptica, etc.
Para que las unidades de disco puedan comunicarse con el sistema, debe existir una tarjeta de
interface que lo haga.
Esta puede ser:
IDE
SCSI (en sus diferentes tipos)
La tarjeta IDE es la más común, ya que viene incluida en la placa madre, aún la más económica.
Esta tarjeta tiene la posibilidad de tener dos unidades de discos flexibles, dos dispositivos IDE en el
Canal IDE 0, y otros dos en el IDE 1.
Además, trae un puerto paralelo, dos seriales y una interface para joystick. Es también conocida
como tarjeta Super IDE. En las placas más antiguas (hasta la 486 DX2), debí a insertarse una tarjeta
de éstas en una ranura de expansión. Es barata (ya viene con la placa), pero es lenta, ya que no fue
hecha para multitarea.
La tarjeta SCSI (se lee escási) no viene normalmente con la placa madre. Habrá que adquirir una
tarjeta, la más barata cuesta en torno a los 100 USD. Una marca muyconocida es Adaptec, que es
considerada muy buena. Su velocidad de transferencia es mucho mayor que la IDE, ya que fue
concebida como una interface tipo multitarea.
Es más cara, y admite en su versión más económica hasta 8 dispositivos. Las tarjetas más nuevas
admiten hasta 16 periféricos SCSI. También el tipo de interface no se limita a discos duros. Existen
grabadores de CD, unidades removibles, scanner, etc. Cuya interface es SCSI, ya que ésta se
caracteriza por su velocidad.
Estar tarjetas no traen puertos seriales ni paralelos, pero si el conector para las unidades de discos
flexibles.
Estas tarjetas pueden grabar en un fichero AVI en tu disco duro una secuencia de video, con su
sonido correspondiente.
Existen otras tarjetas que solo son capturadoras, es decir, no sintonizan, por lo que capturan la señal
de video que se les introduzca por la entrada de video. Estas tarjetas son las usadas por las cámaras
de video para Chat, pudiendo también capturar dicha señal.
Lo mas importante es una buena velocidad de transferencia a disco duro y la velocidad del Bus PCI
y del Bus de sistema (Definida por la placa base).
Las tarjetas sintonizadoras de las que hablamos capturan sin ninguna clase de compresión (aunque
por software luego se pueda comprimir) por lo que el volumen de datos que se vuelca al disco duro
es muy alto.(Las tarjetas con fines mas profesionales, disponen de compresión Mpeg por hardware,
pero valen 5 o 6 veces mas que nuestras "tarjetitas" ;) capturando con mucha calidad)
La captura de video digital fuerza al sistema a la escritura de datos en el disco duro a un ritmo y
velocidad alto y mantenido. Cuanto mas alta sea la resolución y calidad que elijamos, mayor será la
velocidad requerida al disco.
Por todo esto, es recomendable disco rápido, que sea UDMA-33 o más, en un Pentium 233Mhz
MMX, y 64Mb de RAM.
2.7.7.3 Recomendaciones:
1. Defragmentar el disco duro. Esto permite escribir la secuencia de video en sectores
contiguos del disco sin parar la cabeza de escritura, por tanto sin retardos, mas
eficientemente
2. Escanear el disco y reparar sectores defectuosos si los hubiera.
Existen diferentes codecs de compresion, elegibles por el usuario, con diferentes calidades
y tamaños de fichero resultantes
2.8 JUMPER
Es un elemento que se utiliza para interconectar dos terminales de manera temporal sin tener que
efectuar una operación que requiera herramienta adicional, dicha unión de terminales cierran el
circuito eléctrico del que forma parte.
La finalidad de conectar dos terminales, es normalmente para configurar "por hardware" el modo de
funcionamiento del dispositivo, que es lo opuesto a la configuración por "software", donde el
mismo modo se llegan al mismo resultado: cambiar la configuración, o modo de operación del
dispositivo. La principal dificultad al hacer la configuración, es la información del fabricante del
dispositivo, que en algunos casos, esta solamente en el manual de operación del mismo o algunas
veces, con su leyenda respectiva impresa por la placa de circuito impreso donde esta montado el
jumper.
Una de sus aplicaciones más habituales se encuentra en unidades IDE (discos duros, lectores y
grabadoras de CD's y DVD's) dónde se emplean para definir entre maestro y esclavo. También se
usan para definir el voltaje y la velocidad del procesador.
2.9 MEMORIA
La memoria de un computador se puede definir como los circuitos que permiten almacenar y
recuperar la información. En un sentido más amplio, puede referirse también a sistemas externos de
almacenamiento, como las unidades de disco.
Cada vez se requiere más memoria para poder utilizar los nuevos programas.
2.9.1.1 IRQ
Es una solicitud de interrupción que se enví a al procesador.
La CPU interrumpe entonces la tarea que se encuentre realizando y ejecuta su solicitud.
El procesador está en capacidad de atender miles de IRQ por segundo.
La CPU atiende las múltiples interrupciones por una lí nea a través de los PIC (Controladores de
Interrupción Programables)
2.9.1.2 DMA
El Acceso directo a memoria (DMA, del inglés Direct Memory Access) permite a cierto tipo de
componentes de ordenador acceder a la memoria del sistema para leer o escribir
independientemente de la CPU principal. Muchos sistemas hardware utilizan DMA, incluyendo
controladores de unidades de disco, tarjetas gráficas, y tarjetas de sonido.
DMA es una caracterí stica esencial en todos los ordenadores modernos, ya que permite a
dispositivos de diferentes velocidades comunicarse sin someter a la CPU a una carga masiva de
interrupciones.
Cabe destacar que aunque no se necesite a la CPU para la transacción de datos, sí que se necesita el
bus del sistema (tanto bus de datos como bus de direcciones), por lo que existen diferentes
estrategias para regular su uso, permitiendo así que no quede totalmente acaparado por el
controlador DMA.
Se trata de una memoria de semiconductor en la que se puede tanto leer como escribir. Es una
memoria volátil, es decir, pierde su contenido al desconectar la energí a eléctrica. Se utiliza
normalmente como memoria temporal para almacenar resultados intermedios y datos similares no
permanentes.
En estas memorias se accede a cada celda (generalmente se direcciona a nivel de bytes) mediante un
cableado interno, es decir, cada byte tiene un camino prefijado para entrar y salir, a diferencia de
otros tipos de almacenamiento, en las que hay una cabeza lectograbadora que tiene que ubicarse en
la posición deseada antes de leer el dato deseado.
Se dicen "de acceso aleatorio" porque los diferentes accesos son independientes entre sí . Por
ejemplo, si un disco rí gido debe hacer dos accesos consecutivos a sectores alejados fí sicamente
entre sí , se pierde un tiempo en mover la cabeza hasta la pista deseada (o esperar que el sector pase
por debajo, si ambos están en la misma pista), tiempo que no se pierde en la RAM.
Las RAMs se dividen en estáticas y dinámicas. Una memoria RAM estática mantiene su contenido
inalterado mientras esté alimentada. La información contenida en una memoria RAM dinámica se
degrada con el tiempo, llegando ésta a desaparecer, a pesar de estar alimentada. Para evitarlo hay
que restaurar la información contenida en sus celdas a intervalos regulares, operación denominada
refresco.
Las memorias se agrupan en módulos, que se conectan a la placa base del computador. Según los
tipos de conectores que lleven los módulos, se clasifican en Módulos SIMM (Single In-line
Memory Module), con 30 ó 72 contactos, módulos DIMM (Dual In-line Memory Module), con 168
contactos y módulos RIMM (RAMBUS In-line Memory Module) con 184 contactos.
La memoria RAM es uno de los componentes más importantes de los actuales equipos
informáticos, y su constante aumento de la velocidad y capacidad ha permitido a los PCs crecer en
potencia de trabajo y rendimiento.
Cuando compramos memoria RAM en nuestra tienda de informática, comprobamos cómo estos
pequeños chips no se encuentran sueltos, sino soldados a un pequeño circuito impreso denominado
módulo, que podemos encontrar en diferentes tipos y tamaños, cada uno ajustado a una necesidad
concreta (SIMM,DIMM,RIMM).
Sobre ellos se sueldan los chips de memoria, de diferentes tecnologí as y capacidades. Ahora bien,
mientras que los ensambladores de módulos se cuentan por centenas, la lista de fabricantes de los
propios chips de memoria son un número menor y sólo encontramos unas pocas empresas como
Buffalo, Corsair, Kingston o Samsung, que en cualquier caso no superan la decena.
nota: a veces a la memoria SDRAM también se la denomina SDR SDRAM(Single Data Rate
SDRAM) para diferenciarla de la memoria DDR.
También existen las especificaciones DDR400, DDR466, DDR533 y DDR600 pero según
muchos ensambladores es poco práctico utilizar DDR a más de 400MHz, por lo que está
siendo sustituida por la revisión DDR2 de la cual sólo se comercializan las versiones DDR2-
400 y DDR2-533.
• Memoria SRAM
Representa la abreviatura de Static Random Access Memory y es la alternativa a la
DRAM. No precisa de tanta electricidad como la anterior para su refresco y movimiento de
las direcciones de memoria, por lo que, en resumidas cuentas, funciona más rápida. Sin
embargo, tiene un elevado precio, por lo que de momento se reserva para ser utilizada en la
memoria caché de procesadores y placas base, cuyo tamaño suele ser muy reducido,
comparado con la RAM del sistema. Así , y atendiendo a la utilización de la SRAM como
memoria caché de nuestros sistemas informáticos, tenemos tres tipos:
• Async SRAM: la memoria caché de los antiguos i386, i486 y primeros Pentium,
así ncrona y con tiempos de acceso entre 20 y 12 nanosegundos.
• Sync SRAM: es la siguiente generación, capaz de sincronizarse con el procesador
y con un tiempo de acceso entre 12 y 8,5 nanosegundos. Muy utilizada en
sistemas a 66 MHz de bus.
• Pipelined SRAM: se sincroniza igualmente con el procesador. Tarda en cargar
los datos más que la anterior, aunque una vez cargados, accede a ellos con más
rapidez. Opera con tiempos entre 8 y 4,5 nanosegundos.
La memoria de sólo lectura o ROM es utilizada como medio de almacenamiento de datos en los
ordenadores. Debido a que no se puede escribir fácilmente, su uso principal reside en la distribución
de programas que están estrechamente ligados al soporte fí sico del ordenador, y que seguramente
no necesitarán actualización. Por ejemplo, una tarjeta gráfica puede realizar algunas funciones
básicas a través de los programas contenidos en la ROM.
Hay una tendencia a poner cada vez menos programas en la estática ROM, y más en los discos,
haciendo los cambios mucho más fáciles. Los ordenadores domésticos a comienzos de los 80
vení an con todo su sistema operativo en ROM. No habí a otra alternativa razonable ya que las
unidades de disco eran generalmente opcionales. La actualización a una nueva versión significa usar
un soldador o un grupo de interruptores DIP y reemplazar el viejo chip de ROM por uno nuevo. En
el año 2000 los sistemas operativos en general ya no van en ROM. Todaví a los ordenadores pueden
dejar algunos de sus programas en memoria ROM, pero incluso en este caso, es más frecuente que
vaya en memoria flash. Los teléfonos móviles y los asistentes personales digitales (PDA) suelen
tener programas en memoria ROM (o, por lo menos en memoria flash).
Algunas de las consolas de videojuegos que utilizan programas basados en la memoria ROM son la
Super Nintendo, la Mega Drive o la Game Boy. Estas memorias ROM, pegadas a cajas de plástico
aptas para ser utilizadas e introducidas repetidas veces, son conocidas como cartuchos. Por
extensión la palabra ROM puede referirse también a un archivo de datos que contenga una imagen
del programa que se distribuye normalmente en memoria ROM, como una copia de un cartucho de
videojuego.
Una razón de que todaví a se utilice la memoria ROM para almacenar datos es la velocidad ya que
los discos son más lentos. Aún más importante, no se puede leer un programa que es necesario para
ejecutar un disco desde el propio disco. Por lo tanto, el BIOS, o el sistema de arranque oportuno del
ordenador normalmente se encuentran en una memoria ROM.
La memoria RAM normalmente es más rápida de leer que la mayorí a de las memorias ROM, por lo
tanto el contenido ROM se suele trasvasar normalmente a la memoria RAM cuando se utiliza.
• Memoria EPROM son las siglas de Erasable Programmable Read-Only Memory (ROM
borrable programable). Es un tipo de chip de memoria ROM inventado por el ingeniero Dov
Frohman que retiene los datos cuando la fuente de energí a se apaga. En otras palabras, es no
volátil.
Está programada por un dispositivo electrónico que proporciona voltajes superiores a los
normalmente utilizados en los circuitos electrónicos. Una vez programada, una EPROM se
puede borrar solamente mediante exposición a una fuerte luz ultravioleta. Las EPROMs se
reconocen fácilmente por una ventana transparente en la parte alta del encapsulado, a través
de la cual se ver el chip de silicio y que admite la luz ultravioleta durante el borrado.
Una EPROM programada, retiene sus datos durante diez o veinte años, y se puede leer un
número ilimitado de veces. Para prevenir el borrado accidental por la luz del sol, la ventana
de borrado debe permanecer cubierta.
• Memoria flash es una forma evolucionada de la memoria EEPROM que permite que
múltiples posiciones de memoria sean escritas o borradas en una misma operación de
programación mediante impulsos eléctricos, frente a las anteriores que sólo permite escribir
o borrar una única celda cada vez. Por ello, flash permite funcionar a velocidades muy
superiores cuando los sistemas emplean lectura y escritura en diferentes puntos de esta
memoria al mismo tiempo. Las memorias flash son de tipo no volátil, esto es, la
información que almacena no se pierde en cuanto se desconecta de la corriente, una
caracterí stica muy valorada para la multitud de usos en los que se emplea este tipo de
memoria.
Todos los discos duros comparten la misma estructura básica, variando tan sólo en la forma en que
las partes son utilizadas, y la calidad de estas. Dentro del disco duro encontramos los platos, el
motor de rotación, las cabezas, y el impulsor de platos. Todas estas partes se encuentran dentro
de una unidad sellada, la cual se denomina usualmente HDA. HDA no tiene una traducción literal
posible, pero es como la recamara donde se encuentran los órganos vitales del disco duro. Esta
unidad sellada tan sólo puede ser abierta por profesionales y en condiciones especiales. En
la parte externa de esta recamara encontramos la board del disco duro, y los conectadores.
Los platos son los discos dentro del disco duro. Estos platos varí an en tamaño, aunque usualmente
se encuentran en formatos de 5.25 pulgadas o 3.5 pulgadas. Entre mayor sea la capacidad de
almacenamiento de un disco duro, mayor también es el número de platos que tiene. Estos platos son
usualmente de aluminio, por eso si tiene la oportunidad de observar un disco duro por dentro
observará que estos platos tienen un color plateado. Los nuevos discos poseen platos hechos de un
material de cerámica y vidrio, este material ha demostrado ser más resistente a las altas
temperaturas que el aluminio, y es por esta razón que muchos fabricantes de discos duros lo han
integrado plenamente a su tecnologí a.
Por si solos los platos no son capaces de almacenar ningún tipo de información, para que puedan
hacerlo están recubiertos de una sustancia magnética sensitiva. Esta sustancia esta constituida
principalmente de oxido de hierro ó cobalto.
Además de los platos, encontramos en el disco duro las cabezas de lectura y escritura, las cuales
realizan precisamente esa función sobre cada plato, generalmente hay una cabeza por cada plato,
y cada cabeza esta ligada a un motor general, por lo cual el movimiento de las cabezas se produce
de manera sincronizada. Cada cabeza esta acoplada a una distancia milimétrica del plato
correspondiente por medio de unos resortes. Cuando el disco duro se encuentra apagado, las
cabezas descansan sobre la superficie del plato. Cuando el disco duro se encuentra en
funcionamiento, la rotación de los platos genera una fuerza hacia el exterior capaz de mantener las
cabezas alejadas a una distancia casi inexistente, por esto las unidades HDA deben ensamblarse en
condiciones asépticas ya que cualquier partí cula de polvo en el ambiente generarí a un mal
funcionamiento en el disco.
El motor de rotación es el dispositivo al cual todas las cabezas se encuentran conectadas. Se encarga
de mover las cabezas alrededor de los platos. Estos motores vienen en dos formatos:
motores de paso y motores tipo “voice coil . El motor de paso se mueve entre posiciones
establecidas, no puede detenerse en el medio de dos posiciones. Este motor es pequeño y se
encuentra fuera de la unidad HDA, por lo cual es posible ubicarlo a simple vista. Los motores de
paso son muy lentos, y sufren recalentamiento. Además puede ser desviado por un golpe accidental,
y es incapaz de parquear las cabezas en una zona segura. Este motor actúa exclusivamente
gobernado por las posiciones de detención, siendo incapaz de trabajar con pistas. Con el tiempo
las unidades que poseen este tipo de motor deben ser formateadas, y sus cabezas realineadas,
este tipo de motores ya no se usa ya que es para motores de muy baja capacidad.
Afortunadamente para nosotros, a partir de los discos duros con tamaños iguales o
superiores a los 100 MB aparece el motor voice coil , el cual permite que las cabezas lean pista,
por pista, sin depender de posiciones establecidas, lo cual es posible gracias a la utilización del
código Gris un sistema numérico binario que le permite a la cabeza saber en que posición entre
dos pistas se encuentra.
Cuando el disco duro se apaga, las cabezas se ubican sobre la superficie de los platos, a esto se le
conoce con el nombre de parqueo. Con los motores voice coil las cabezas son detenidas y
aseguradas mientras los platos se detienen, con lo cual se evita que los platos se rayen, problema
muy común con los antiguos motores de paso. Cuando el disco se enciende nuevamente la fuerza
magnética generada por la rotación de los platos libera las cabezas, de su posición de parqueo y
habilita el modo de lectura/escritura. Los discos duros IDE, tienen un tiempo de acceso de 8-10
milisegundos y giran a 7500 RPM; los discos duros SCSI, tienen un tiempo de acceso de 3-4
milisegundos y giran a 15000 RPM
Cada una de las dos superficies magnéticas de cada plato se denomina cara. El número total de
caras de un disco duro coincide con su número de cabezas. Cada una de estas caras se divide en
anillos concéntricos llamados pistas. En los discos duros se suele utilizar el término cilindro para
referirse a la misma pista de todos los discos de la pila. Finalmente, cada pista se divide en sectores.
Los sectores son las unidades mí nimas de información que puede leer o escribir un disco duro.
Generalmente, cada sector almacena 512 bytes de información. Claro que actualmente esa
capacidad es mucho mayor
Las cabezas y cilindros comienzan a numerarse desde el cero y los sectores desde el uno. En
consecuencia, el primer sector de un disco duro será el correspondiente a la cabeza 0, cilindro 0 y
sector 1.
2.10.2.-GRABACION PERPENDICULAR
Según el método tradicional de grabación de datos, discos duros graban y guardan datos de forma
longitudinal sobre un plano horizontal. Con el sistema perpendicular sin embargo, los bytes
se alinean de forma vertical, lo que permite disponer de mayor espacio y guardar más
información.
En la siguiente gráfica se
mostrara la grabación de datos en
forma longitudinal y en forma
Perpendicular.
La grabación Longitudinal, como su
nombre indica, alinea los bits de datos
horizontalmente, la lectura de los datos
por medio de la cabecera magnética
es paralela a la superficie del disco.
Al contrario la grabación
perpendicular alinea los bits verticalmente, la lectura de los datos por medio de la
cabecera magnética es perpendicular al disco, que permite al disco adicionar mas
espacio para guardar más datos, así , permitiendo a la densidad de grabación más alta.
2.10.3.-DISCOS DUROS PORTATILES
Una de los mas innovadores avances tecnológicos es los discos Duros Portátiles y de
sobremesa. La versión portátil es compacta y ligera permitiendo llevar los documentos en el
bolsillo. Para usarlo, basta conectar el cable USB 2.0 o FireWire al ordenador y estará listo para
descargar a una velocidad de hasta 480 Mbits/s.
Para los trabajos de mayor peso, el disco de sobremesa ofrece más capacidad. Hasta 500
GB. Esta capacidad puede ampliarse apilando varias unidades
la configuración de un disco duro, es tan fácil como la selección de la posición adecuada para los
jumpers (esto al nivel de hardware). Y en el ámbito de software, sabemos que mediante el uso de
FDISK podemos configurar correctamente el disco duro, ademas para cada marca de disco se puede
utilizar el utilitario mas conveniente para su formateo
Si su computador es nuevo, la motherboard le permite colocar hasta cuatro unidades de disco duro.
El primer disco duro se conoce como primario master, el segundo como primario esclavo, el tercero
como secundario master y el cuarto como secundario esclavo. El primario master será siempre el de
arranque del computador (C :\>).
2.11.1.-Las particiones
Cada disco duro constituye una unidad fí sica distinta. Sin embargo, los sistemas operativos no
trabajan con unidades fí sicas directamente sino con unidades lógicas. Dentro de una misma unidad
fí sica de disco duro puede haber varias unidades lógicas. Cada una de estas unidades lógicas
constituye una partición del disco duro. Esto quiere decir que podemos dividir un disco duro en, por
ejemplo, dos particiones (dos unidades lógicas dentro de una misma unidad fí sica) y trabajar de la
misma manera que si tuviésemos dos discos duros (una unidad lógica para cada unidad fí sica).
Particiones y directorios.- Ambas estructuras permiten organizar datos dentro de un disco duro.
Sin embargo, presentan importantes diferencias: 1ª ) Las particiones son divisiones de tamaño fijo
del disco duro; los directorios son divisiones de tamaño variable de la partición; 2ª ) Las particiones
ocupan un grupo de cilindros contiguos del disco duro (mayor seguridad); los directorios suelen
tener su información desperdigada por toda la partición; 3ª ) Cada partición del disco duro puede
tener un sistema de archivos (sistema operativo) distinto; todos los directorios de la partición
tienen el sistema de archivos de la partición.
Como mí nimo, es necesario crear una partición para cada disco duro. Esta partición puede contener
la totalidad del espacio del disco duro o sólo una parte. Las razones que nos pueden llevar a crear
más de una partición por disco se suelen reducir a tres.
Las particiones pueden ser de dos tipos: primarias o lógicas. Las particiones lógicas se definen
dentro de una partición primaria especial denominada partición extendida.
En un disco duro sólo pueden existir 4 particiones primarias (incluida la partición extendida, si
existe). Las particiones existentes deben inscribirse en una tabla de particiones de 4 entradas situada
en el primer sector de todo disco duro. De estas 4 entradas de la tabla puede que no esté utilizada
ninguna (disco duro sin particionar, tal y como viene de fábrica) o que estén utilizadas una, dos, tres
o las cuatro entradas. En cualquiera de estos últimos casos (incluso cuando sólo hay una partición),
es necesario que en la tabla de particiones figure una de ellas como partición activa. La partición
activa es aquella a la que el programa de inicialización (Master Boot) cede el control al arrancar. El
sistema operativo de la partición activa será el que se cargue al arrancar desde el disco duro. Más
adelante veremos distintas formas de elegir el sistema operativo que queremos arrancar, en caso de
tener varios instalados, sin variar la partición activa en cada momento.
De todo lo anterior se pueden deducir varias conclusiones: Para que un disco duro sea utilizable
debe tener al menos una partición primaria. Además para que un disco duro sea arrancable debe
tener activada una de las particiones y un sistema operativo instalado en ella. Más adelante, se
explicará en detalle la secuencia de arranque de un ordenador. Esto quiere decir que el proceso de
instalación de un sistema operativo en un ordenador consta de la creación de su partición
correspondiente, instalación del sistema operativo (formateo de la partición y copia de archivos) y
activación de la misma. De todas maneras, es usual que este proceso esté guiado por la propia
instalación. Un disco duro no arrancará si no se ha definido una partición activa o si, habiéndose
definido, la partición no es arrancable (no contiene un sistema operativo).
Hemos visto antes que no es posible crear más de cuatro particiones primarias. Este lí mite,
ciertamente pequeño, se logra subsanar mediante la creación de una partición extendida (como
máximo una). Esta partición ocupa, al igual que el resto de las particiones primarias, una de las
cuatro entradas posibles de la tabla de particiones. Dentro de una partición extendida se pueden
definir particiones lógicas sin lí mite. El espacio de la partición extendida puede estar ocupado en su
totalidad por particiones lógicas o bien, tener espacio libre sin particionar.
Veamos el mecanismo que se utiliza para crear la lista de particiones lógicas. En la tabla de
particiones del Master Boot Record debe existir una entrada con una partición extendida (la cual no
tiene sentido activar). Esta entrada apunta a una nueva tabla de particiones similar a la ya estudiada,
de la que sólo se utilizan sus dos primeras entradas. La primera entrada corresponde a la primera
partición lógica; la segunda, apuntará a una nueva tabla de particiones. Esta nueva tabla contendrá
en su primera entrada la segunda partición lógica y en su segunda, una nueva referencia a otra tabla.
De esta manera, se va creando una cadena de tablas de particiones hasta llegar a la última,
identificada por tener su segunda entrada en blanco.
Ambos tipos de particiones generan las correspondientes unidades lógicas del ordenador. Sin
embargo, hay una diferencia importante: sólo las particiones primarias se pueden activar. Además,
algunos sistemas operativos no pueden acceder a particiones primarias distintas a la suya.
Lo anterior nos da una idea de qué tipo de partición utilizar para cada necesidad. Los sistemas
operativos deben instalarse en particiones primarias, ya que de otra manera no podrí an arrancar. El
resto de particiones que no contengan un sistema operativo, es más conveniente crearlas como
particiones lógicas. Por dos razones: primera, no se malgastan entradas de la tabla de particiones del
disco duro y, segunda, se evitan problemas para acceder a estos datos desde los sistemas operativos
instalados. Las particiones lógicas son los lugares ideales para contener las unidades que deben ser
visibles desde todos los sistemas operativos.
Algunos sistemas operativos presumen de poder ser instalados en particiones lógicas (Windows
NT), sin embargo, esto no es del todo cierto: necesitan instalar un pequeño programa en una
partición primaria que sea capaz de cederles el control.
Los programas habituales para particionar un disco duro son FDISK (proporcionado con MS-DOS
y los sistemas operativos Windows) y Partition Magic (programa comercial válido para MS-DOS,
Windows y OS/2).
Las distintas versiones de FDISK se pueden clasificar básicamente en dos: las que trabajan
únicamente con FAT (FDISK de MS-DOS y Windows 95) y las que también soportan FAT32
(FDISK de Windows 95 OSR2 y Windows 98). En este último caso, FDISK preguntará al arrancar
si se desea habilitar el soporte para unidades de gran capacidad. Si respondemos que sí a esta
pregunta, las particiones que se creen serán FAT32; en caso contrario, serán FAT. Es decir, una
partición es FAT32 o FAT no según la herramienta que se utilice para formatear la unidad, sino
según el método utilizado al particionar.
FDISK presenta importantes limitaciones: no se puede crear una partición extendida sino existe ya
una partición primaria FAT o FAT32 en la unidad; no se pueden variar las particiones creadas sino
es borrándolas y creándolas de nuevo; y sólo permite trabajar con particiones FAT o FAT32.
Partition Magic presenta muchas más ventajas y opciones avanzadas que FDISK. Permite algo
totalmente impensable hasta hace poco tiempo: variar el tamaño de una partición y su localización
sin perder su contenido. Además es compatible con un buen número de sistemas de archivos,
incluidos NTFS, HPFS y el de Linux. Entre las opciones avanzadas destaca la variación del tamaño
del grupo (cluster) de una partición sin afectar a su contenido. Por estas razones, Partition Magic es
la herramienta ideal para la gestión de particiones.
Para que sea posible acceder a estas utilidades debemos disponer de un disco duro arrancable o un
disquete con sistema. Si el primer disco duro no tiene sistema, no queda más remedio que arrancar
desde un disquete (o un CD-ROM, si fuera posible). En este caso, es necesario que la secuencia de
arranque del ordenador sea A:, C:.
Consejo: Cuando realice cambios a las particiones de su disco duro es más que
recomendable disponer de un disquete con sistema, ya que será la única forma de acceder
al ordenador si su disco duro perdiese el arranque. Desde MS-DOS se puede crear con las
órdenes SYS A: o FORMAT A: /S.
Una vez creadas las particiones, es necesario dar formato a cada una de ellas. Si se trata de una
partición que va a contener un sistema operativo, el propio programa de instalación nos guiará por
este proceso (Partition Magic es capaz de formatear las particiones a la vez que las crea). Pero si la
partición va a ser para programas o datos de un sistema operativo, esta operación será necesario
realizarla desde las herramientas proporcionadas por el sistema operativo instalado. En el caso de
MS-DOS es FORMAT unidad:, donde unidad es la letra de la unidad que se desea formatear.
Advertencia: El formateo de una partición lleva consigo la destrucción de todos sus datos.
Después de crear y formatear todas las particiones, es necesario activar (si no lo estaba ya) aquella
partición del primer disco duro que queremos que arranque al encender el ordenador.
Formateo de Discos
Todos los discos magnéticos son formateados de manera similar o divididos en áreas denominadas:
Una pista es un anillo circular sobre un lado del disco. Cada pista tiene un número. El dibujo
muestra 3 pistas.
Se llama sector de un disco, una parte en forma de cuña del mismo. Cada sector está numerado.
En un disquete de 5 1/4 hay 40 pistas con 9 sectores cada una.
En un disquete de 3 1/2 hay 80 pistas con 9 sectores cada una.
De manera que, en un disquete de 3 1/2 hay el doble de lugares que en un disquete de 5¼ .
Un sector de pista es el área de intersección entre una pista y un sector. (área amarilla)
Un cluster es un conjunto de sectores de pista , desde 2 a 32 o más, dependiendo del
esquema de formateo que se use. El esquema más común para PC determina la cantidad de
sectores de pista por cada cluster sobre la base de la capacidad del disco. Un disco rí gido de 1.2
gigabytes tendrá el doble de clusters que un disco rí gido de 500 MB. 1 cluster es el mí nimo
espacio usado para cualquier lectura o escritura. Por esta causa es frecuente que quede mucho
espacio perdido (slack space), no usado a continuación del cluster de datos almacenado allí . La
única manera de reducir la cantidad de espacio perdido es reduciendo el tamaño de cada cluster
cambiando el método de formateo. Usted podrí a tener más pistas en el disco o además más
sectores por pista, o podrí a reducir el número de pistas y sectores por cluster.
La Desfragmentación del disco permite aumentar la velocidad de acceso al disco duro y hacer
que los archivos se abran rápidamente.
2.12.-ESTRUCTURA DE ARCHIVOS
Formato, es importante aclarar que existen dos clases: Formato a bajo nivel, y Formato a alto
nivel. Los dos deben utilizarse para preparar el disco duro antes de la instalación del O.S que vaya
a utilizarse: primero se formatea en bajo nivel (para lo cual se utiliza el FDISK, o el Disk
Manager), luego se crean las particiones, y finalmente se formatea a alto nivel. El formato en bajo
nivel lleva los platos desde un estado vací o, a un estado de división. Define las áreas de datos, crea
las pistas, separa al disco en sectores, y escribe el número de identificación para cada sector.
Las particiones dividen el disco duro en áreas capaces de manejar cada una su propio sistema
operativo, y es en le momento de hacerlas que se asignan las tablas de localización de archivos
(FAT). Existen cuatro tipos de sistemas de archivos:
FAT: Es el sistema de archivos utilizado por DOS y las primeras versiones de Windows 95,
y soportado por OS/2, Windows NT. Soporta nombres de archivos de máximo ocho caracteres, con
una extensión de tres letras. Con Windows 95 se pueden manejar nombres de archivos de hasta
255 caracteres (virtualmente). Este sistema de archivos no soporta particiones mayores de 2 GB.
FAT 32: Este 32 se refiere a 32 bits. Es un sistema de archivos que se introdujo con la
versión OSR-2 de Windows 95. La caracterí stica principal de este sistema es que guarda los
nombres de archivos como números de 32 bits. Su mayor ventaja es la de manejar particiones hasta
de 2048 GB.
Sistema de Archivos NT (NTFS): Es igual al HPFS pero sólo lo incluye Windows NT.
Hoy por hoy la FAT es el sistema de archivos que más se utiliza, pero su ineficiencia en el manejo
del espacio en disco, ha venido generando un auge por FAT 32. Con FAT cada cluster 3 puede
almacenar 32K de información, pero si sólo se necesitaban guardar 8K en un cluster, los otros 24K
se desperdiciaban. Por su parte FAT 32 maneja cluster de 4K, con lo cual se optimiza el manejo del
espacio en el disco duro.
Sin importar que sistema de archivos se utilice, un sector de arranque se escribe al principio de
cada disco duro, en el primer sector. Este sector contiene la rutina que le indica al sistema que
hacer cuando se enciende el PC.
Aunque los discos duros, vienen pre formateados en bajo nivel de fabrica.
2.13.1.-CLASIFICACION Y APLICACIONES
Los medios masivos de almacenamiento de datos se caracterizan por dos importantes
propiedades:
cantidad de información
transportabilidad.
discos flexibles
discos rí gidos
cintas
discos ópticos
las memorias flash portátiles
Almacenamiento Primario.
• Caché: La forma de almacenamiento más rápida y más costosa, se gestiona por hardware.
• Memoria Principal : Es el medio donde operan las instrucciones de maquina y los datos
disponibles para los programas, este tipo de almacenamiento es voluble a fallos.
• Discos magnéticos
• Almacenamiento en Cinta
• Almacenamiento óptico
Dispositivos magnéticos existen infinidad; desde las casetes o las antiguas cintas de
música hasta los modernos Zip y Jaz, discos duros y otros similares. Todos se parecen en
ser dispositivos grabadores a la vez que lectores, en su precio relativamente bajo por MB
(lo que se deriva de ser tecnologí as muy experimentadas) y en que son bastante
delicados. Les afectan las altas y bajas temperaturas, la humedad, los golpes y sobre
todo los campos magnéticos; si quiere borrar con seguridad unos cuantos disquetes,
póngalos encima de un altavoz conectado en el interior de un coche al sol y déjelos caer a
un charco un par de veces. Y si sobreviven, compre acciones de la empresa que los ha
fabricado.
Descripción.-Es un dispositivo de acceso secuencial, esto quiere decir que no puede saltar sobre la
superficie del cassette como los discos. La cinta magnética es frecuentemente usada para respaldar
el contenido de las unidades de disco
duro, además , es muchas veces el medio elegido para almacenar archivos grandes que se leen y
procesan de manera secuencial.
Si se desea acceder a algún registro se debe primero pasar por los primeros registros hasta llegar al
deseado. Debido a que se debe acceder secuencialmente; es muy difí cil leer y escribir en una
misma cinta.
Ventajas:
Alta densidad de datos: Un carrete común de cinta de 10½ plg. de dm. Tiene una longitud de
2400ft. Y puede grabar 800, 1600, 6250 caracteres en cada pulgada dependiendo de la unidad
de cinta que utilice, por lo tanto, si se graban 6250 caracteres en una pulgada de cinta y si la
cinta tiene una longitud de 28800 pulgadas entonces la capacidad máxima de la cinta será de
180 millones de caracteres. Además, como ya se vio, los cartuchos modernos de 18 pistas
pueden lograr una densidad de datos 6 veces mayor.
Desventajas:
Falta de acceso directo a los registros.- La cinta es un medio de acceso secuencial que se
utiliza para el procesamiento por lotes. Es necesario leer y procesar toda la cinta para actualizar todos
los registros de un archivo organizados en forma secuencial
Problemas ambientales.- Las partí culas de polvo y la falta de control de los niveles de la temperatura
o humedad pueden causar errores en la lectura de cintas, las cintas y sus envase deben
etiquetarse y controlarse cuidadosamente para no borrar por error un archivo importante.
UNIDAD DE DISCOS FLEXIBLES
Las cabezas rozan sobre la placa cuando se está realizando un acceso. Hay una cabeza de cada
lado, que trabaja sobre la respectiva superficie del disco.
El motor que posiciona las cabezas es del tipo paso a paso (stepper motor). La referencia para
la posición la da un sensor óptico (sensor de cilindro 0) que es excitado cuando el
posicionador de las cabezas retrocede hasta que la lengüeta interrumpe el haz de luz. El
cilindro 0 es el mas externo, a partir de este, cada paso del motor representa un nuevo
cilindro.
Otro sensor óptico determina la posición del primer sector de un cilindro, gracias a una
perforación que posee la placa (en los discos de 5,25 pulgadas). En los discos de 3,5
pulgadas, no es necesario el orificio, ya que el anillo metálico de arrastre posee una muesca que
Descripción.- Como su nombre lo dice, son sólidos, porque están construidos sobre un disco
grueso de aluminio. Un disco duro posee un material magnético de mejor calidad para poder
disponer de un mayor número de pistas y sectores por pista, además que sobre el montaje
pueden tenerse uno, dos o más discos, cada uno con sus propias cabezas.
El disco duro se diferencia del disco flexible en que el primero normalmente está fijo en el
computador y no es transportable. Cada disco de la unidad tiene sus dos lados recubiertos por una
fina capa de óxido metálico sensible al magnetismo, usualmente cromo o ní quel.
El proceso de lectura o escritura es el mismo que se mencionó para los discos flexibles.
Los platos de aluminio tienen muescas para identificar los lí mites de cada pista y sector por
medio de un sensor (infrarrojo, bobinado), todo este equipo esta herméticamente cerrado.
Los discos duros IDE, tienen un tiempo de acceso de 8-10 milisegundos y giran a 7500 RPM; los
discos duros SCSI, tienen un tiempo de acceso de 3-4 milisegundos y giran a 15000 RPM
CD-ROM
Estructura del disco CD ROM.- El material del que esta hecho es de policarbonato dicho
material es una fibra plastificada resistente (también es utilizado en la fabricación de
ventanas contra balas y cascos protectores).
4. Las perforaciones miden 0.12 micras de profundidad y 0.6 micras de anchura (1 micra = 1
milésima de milí metro).
5. La separación entre dos vueltas continuas de la espiral es muy pequeña de 1.6 micras por plg.
(TPI), muy superior a la de los discos flexibles (hasta 96 TPI) y a la de los discos duros (varios
cientos de TPI).
6. La longitud total de la pista espiral del disco CD ROM es de casi 5 Km. y a lo largo de ella se
ordenan casi 2 000 000 de perforaciones.
Una grabación Master, consiste en una onda que transmite la información ya codificada, se
transfiere de una cinta magnética a un modulador donde se controla el haz láser de onda que
transmitido por el lente que enfoca a la superficie fotosensible del disco. Al girar el disco del lente
se va moviendo hasta dar lugar a la pista espiral, al dejar la superficie expuesta las regiones del
disco se convierten en hoyos.
El CD ROM tiene una capacidad de almacenamiento de 500, 550 552, 600 y 700
Mbytes (aproximadamente de 450 disquetes de alta densidad) dependiendo de la marca del
fabricante.
Elementos para el funcionamiento del CD ROM
1. Un motor que se encarga de que el disco gire, el cual contiene un detector que se localiza
en relación al radio del disco.
2. El láser es el que proyecta una luz dirigida al enfocador. Este reflejo que sucede se
penetra en una pelí cula reflectora.
3. La superficie de esta pelí cula esta constituida por platos y hoyos, donde son
utilizados para el almacenamiento de datos.
4. Al reflejar la luz sobre una pista es retenida, en cambio cuando es reflejada en los
hoyos su reflejo se devuelve al detector, en donde pasa a través de un prisma que refleja el
láser a un diodo de luz sensible.
5. Los pulsos de luz que pegan en el diodo de luz sensible genera un voltaje
electrónico en donde se conduce a un circuito donde se genera el código 1 y 0 en el cual la
PC entiende.
ZIP
El zip puede transportar archivos que no cabrí an en los discos flexibles, un disco zip equivale a
casi 70 discos normales, por esto, se pueden almacenar paquetes de grandes dimensiones y
tantos programas como el zip lo permita: los discos a pesar de ser pequeños y ligeros ofrecen una
gran resistencia a el maltrato. El zip es capaz de ofrecer no sólo capacidad, sino también con una
gran rapidéz, con 29 ms de acceso promedio y 1.4 MB/seg de velocidad máxima sostenida de
transferencia, pequeña y silenciosa la unidad cabe en la mano y pesa una pulgada (cerca de 450
gramos). Para ahorro de energí a, luego de un periodo prefijado la inactividad, la unidad entra
automáticamente en modo de bajo consumo de energí a.
El zip de Iomega proporciona dos tipos de interfaz y una capacidad infinita para guardar
datos. El zip azul viene en versión para puerto paralelo y SCSI, esta última para usuarios de
Mac. La versión SCSI de la unidad zip incluye un cable SCSI con conectores de 25 pins en
ambos extremos, esto lo hace bueno para usarse en mac y en PC que tengan un adaptador SCSI con
un conector externo de 25pins.
Caracterí sticas
El procesador central carga en los puertos del controlador la ubicación del fichero
que se desea leer y su tamaño. El controlador se encarga de ir leyendo secuencialmente(por
sectores ) el fichero e ir transfiriendo los datos a la interfaz USB
En la memoria flash se almacena un archivo que indica el contenido de la memoria en
cuanto a directorios
(carpetas) y archivos que tiene almacenados, así como la ubicación dentro de la memoria de los
distintos archivos.
La salida de la interfaz USB transmite la información en serie. Dispone de 4 cables,
uno de alimentación, otro de tierra (o lí nea de referencia común), y dos, donde van los
datos, en forma balanceada (si se transmite un 1 con 2,5 V, en una lí nea van +2,5V y en la otra -
2,5 V).
JAZZ
Descripción.- La unidad jazz usa discos de 1GB de capacidad con autentica tecnologí a de disco
duro. El Jazz no solo toma en serio el espacio de almacenamiento, sino que mejora el
aprovechamiento de las unidades internas en muchas PCs.
Sus caracterí sticas son, por ello, impresionantes incluso superiores a la de algunos discos
duros: velocidad de transferencia por ráfagas de 10 MB /seg. , 12 ms de tiempo promedio de
búsqueda, 17 ms de tiempo promedio de acceso y la capacidad de ser reconocida como disco
duro por el sistema operativo de la computadora.
Por otro lado, el Jazz tiene las mismas caracterí sticas portátiles que su hermano zip, pero a
diferencia de este, tiene la rapidez y capacidad para cargar aplicaciones, permitir el
desarrollo de multimedia, hacer el resguardo de la computadora en 10 min., guarda hasta 8 hrs.
de música con calidad de CD, 2 hrs. de pelí cula o 150 fotografí as de color, etc.
Principio de funcionamiento
Para la escritura o borrado de los datos, el haz láser logra la grabación magnética vertical
mediante el calentamiento instantáneo del material magnético a una alta temperatura (entre
150 y 200 º C) y aplicando magnetización vertical al material.
Para la lectura de los datos, un débil haz láser, el cual no calienta el material magnético, es
irradiado continuamente sobre el material. En este caso, se hace uso del efecto Kerr, es decir,
la leve rotación de la superficie de deflexión de la luz reflejada desde el material magnético,
debido a la dirección vertical de la magnetización.
Es apreciable la diferencia con los discos ópticos que se pueden escribir una sola vez, en los cuales
el haz láser perfora un agujero directamente en la pelí cula de grabación.
La pelí cula está estructurada en varias capas, las cuales son, desde donde incide el haz láser:
Revestimiento duro, sustrato, capa dieléctrica, capa de magnetización, capa aislante del calor,
capa reflectora y recubrimiento protector. Los discos de 5,25" poseen dos placas pegadas
entre sí , de forma que ambos lados se pueden utilizar para grabar datos, pero los discos de 3,5"
consisten de una sola placa, por ende sólo un lado es utilizado para la grabación.
• Portabilidad:
Son transportables como un disco flexible pero con 100 o 200 veces más
información.
• Seguridad:
Pueden ser retirados, evitando que, como en los discos rí gidos, cualquiera pueda ver la
información.
• Alta duración:
Esto es debido a su construcción. A diferencia de los discos rí gidos, la cabeza nunca toca la
superficie del disco. Según los fabricantes, la cantidad de escrituras puede exceder de
varios miles y la cantidad de lecturas, varios millones.
Controladores
El interfaz es la conexión entre el mecanismo de la unidad de disco y el bus del sistema. El
interfaz define la forma en que las señales pasan entre el bus del sistema y el disco duro. En el
caso del disco, su interfaz se denomina controladora o tarjeta controladora, y se encarga no sólo
Se encuentran gobernados por una controladora y un determinado interfaz que puede ser:
ESDI: Es un interfaz a nivel de dispositivo diseñado como un sucesor del ST506 pero
con un valor más alto de transferencia de datos (entre 1,25 y 2.5 Mbytes por
segundo).Ya ha dejado de utilizarse este interfaz y es difí cil de encontrar.
Íntimamente relacionado con el IDE, tenemos lo que se conoce como ATA, concepto que
define un conjunto de normas que deben cumplir los dispositivos. Años atrás la compañí a
Western Digital introdujo el standard E-IDE (Enhanced IDE), que mejoraba la tecnologí a
superando el lí mite de acceso a particiones mayores de 528 Mb. y se definió ATAPI, normas
para la implementación de lectores de CD-ROM y unidades de cinta con interfaz IDE
• El CHS es una traducción entre los parámetros que la BIOS contiene de cilindros,
cabezas y sectores (ligeramente incongruentes) y los incluidos en el software de sólo
lectura (Firmware) que incorpora la unidad de disco.
• El LBA (dirección lógica de bloque), estriba en traducir la información CHS en una
dirección de 28 bits manejables por el sistema operativo, para el controlador de
dispositivo y para la interfaz de la unidad.
Las mejoras del SCSI-2 sobre el SCSI tradicional son el aumento de la velocidad a través
del bus, desde 5 Mhz a 10 Mhz, duplicando de esta forma el caudal de datos. Además se
aumenta el ancho del bus de 8 a 16 bits, doblando también el flujo de datos. Actualmente
se ha logrado el ancho de 32 bits, consiguiendo velocidades teóricas de hasta 40 Mbytes /
seg.
Los interfaces IDE y SCSI llevan la electrónica del controlador en el disco, por lo que el
controlador realmente no suele ser mas que un adaptador principal para conectar el disco al
PC. Como se puede ver unos son interfaces a nivel de dispositivo y otros a nivel de sistema, la
diferencia entre ambos es:
Interfaz a nivel de dispositivo: Es un interfaz que usa un controlador externo para conectar
discos al PC. Entre otras funciones, el controlador convierte la ristra de datos del disco en
datos paralelos para el bus del microprocesador principal del sistema. ST506 y ESDI son
interfaces a nivel de dispositivo.
Interfaz a nivel de sistema: Es una conexión entre el disco duro y su sistema principal
que pone funciones de control y separación de datos sobre el propio disco (y no en el
controlador externo), SCSI e IDE son interfaces a nivel de sistema.
2.13.5.-Clasificación y caracterí sticas de los diferentes medios de Almacenamiento de
Datos
Óptico vertical los 128MB y archivos con unidades tienen así como de
calentamien 1.3GB. una gran una alta su unidad
to del Discos de fiabilidad y transferencia de (Unidad
Material 5.25 es de durabilidad. datos Magneto
magnético los 4.5 GB Óptica)
por un haz
de láser.
Reconociend
o
automático
Memoria o Almacenamient en Windows
Dispositivo De 8MB o de datos en XP, 2000, o
USB 1.5GB memoria flash. Puerto USB Me.
512MB- 1.5 IDE / SCSI /
DVD GB SATA
ZIP
IOMEGA 100 MB SCSI
SUPER
DISK LS- SCSI / Puerto
120 120 MB USB
EZFLYE 230 MB SCSI
JAZ 1 GB 2
(IOMEGA) GB SCSI
SYJET
YQUEST 1.5 GB SCSI / IDE
BIBLIOGRAFÍ A:
http://es.wikipedia.org/wiki/Jumper
http://www.conozcasuhardware.com/quees/tsonido1.htm
http://es.wikipedia.org/wiki/Tarjeta_de_sonido
http://www.pchardware.org/modem
http://es.wikipedia.org/wiki/Tarjeta_de_red
http://www.euskalnet.net/shizuka/video.htm
http://www.Archivos- Monografias_com
http://www.CONOZCA SU HARDWARE.com
http://www. Dosemu.com
http://support.quantum.com/menus/soft_menu.htm#ATA
http://www.seagate.com/disc/discwizard/discwiz.shtml
http://www.maxtor.com
http://www.cable4pc.com
http://www.usb.org
http://www.rclelectronics.cl
USB - Wikipedia, la enciclopedia libre.htm
micropik.com
http://www.hispatech.com/
http://www.noticias3d.com/articulo.asp?idarticulo=534&pag=1
http://www.intel.com/espanol/products/chipsets/index.htm
http://www.intel.com/espanol/products/motherbd/index.htm
http://www.intel.com/espanol/products/processor/index.htm
http://www.amd.com/es-es/