301

Click here to load reader

Curso de arquitectura

Embed Size (px)

DESCRIPTION

 

Citation preview

Page 1: Curso de arquitectura

CURSO DE ARQUITECTURA, ENSAMBLE Y MANTENIMIENTO DE COMPUTADORAS

OBJETIVOS

Proveer los conocimientos y criterios necesarios para el ensamble, mantenimiento correctivo y preventivo de equipos de cómputo y sus periféricos, abriendo la posibilidad de crear microempresas y generar una posibilidad de empleo a la población objetivo del curso.

Conocer y entender el mercado (el negocio) de ensamble y mantenimiento de computadoras y sus componentes, así como de los periféricos y suministros.

Entender el origen de las fallas a nivel de hardware en los componentes de los computadores, así como de sus periféricos y plantear criterios para su prevención y solución de fallas.

Iniciar su propia microempresa en el campo del ensamble y mantenimiento de computadoras y periféricos.

METODOLOGÍALas clases serán presénciales y se trabajaran con ayudas audiovisuales como videobeam, retroproyectores y videos, análisis y ejemplos con base en casos reales.

MODULO1. ARQUITECTURA Y ENSAMBLE DE COMPUTADORAS

Introducción

Clasificación de las computadoras

La clasificación se realiza de acuerdo a la potencia de la computadora. Esta potencia está definida por varias variables como son: la velocidad de funcionamiento, capacidad de memoria, el ancho de la palabra.

Nota: Palabra es un conjunto de información expresada en forma binaria (ceros y unos, 0 y 1) y que se transmite dentro del sistema como una unidad de información. Esta palabra puede ser de 8, 16, 32, 64 bits o más. A mayor número de bits, más potente es la computadora

 - Supercomputadoras: Las más potentes de todas, muy rápida, de gran longitud de palabra. Tienen en su gran mayoría varios procesadores, trabajando a la vez (en paralelo) y logran procesar miles de millones de operaciones por segundo. Se utilizan para realizar simulaciones de procesos muy complejos con una gran cantidad de datos (análisis del genoma humano, simulación de explosiones nucleares, predicciones meteorológicas, etc.). Se instalan en ambientes controlados debido a su gran generación de calor.

 - Macrocomputadoras (Mainframes): Computadoras de uso general, también se instalan en ambientes controlados. Tiene gran capacidad de procesamiento y capacidad de manejo de puertos de entrada y salida. Por tener gran capacidad de almacenamiento, es capaz de tener conexión simultánea con muchas terminales. Se utiliza mucho en las empresas de gran tamaño, bancos, etc. Es capaz de realizar varios millones de operaciones por segundo.

 - Minicomputadoras: Aparecieron en el mercado con el propósito de dar servicio a empresas e instituciones de tamaño mas pequeño que las que utilizan

Page 2: Curso de arquitectura

mainframes. Tiene características parecidas a las de las mainframes, pero con menores prestaciones en velocidad, tamaño de memoria, capacidad de almacenamiento y número de terminales que puede aceptar.

 - Estaciones de trabajo (Workstations): Son computadoras que normalmente sirven para conectarse a una computadora mas grande a través de una red, con gran capacidad de procesamiento.

 - Computadoras personales (PC): Se llaman así a todas las computadoras IBM PC o compatibles y a las computadoras Macintosh de APPLE. Son microcomputadoras que tienen bajo precio con gran disponibilidad de hardware y software debido a su popularidad.

Qué es Hardware?

Es todo aquello que se puede tocar: el monitor, el teclado, la computadora en si ¨la caja¨ (lo que alberga las tarjetas, el disco duro, la unidad de disquete, etc.), la impresora, el ratón (mouse), los cables, conexiones, etc.

Qué es Software?

Todo el hardware que hay no puede funcionar si no hay un programa o programas que hacen que este trabaje de manera adecuada.

Estos programas hacen que una computadora tenga vida y se comporten como las vemos se llama software.

Algunos ejemplos de software son:

- Los los Sistemas Operativos (S.O.) como el antiguo DOS (Disk Operating System), Windows 95, 98, Milenium, 2000, XP, de Microsoft., también hay el OS/2, el LINUX, el UNIX, entre otros.

- Los programas hechos para áreas específicas, como el Word, el PowerPoint, juegos, programas de antivirus, programas para navegar en Internet, etc.

- Algunos pequeños programas que vienen con muchos dispositivos adicionales para un computador como tarjetas de módem, de sonido, etc., llamados drivers (manejadores) que lo que hacen es hacer trabajar la tarjeta de forma correcta, entre otros.

Como se puede deducir, Software y Hardware deben de funcionar en conjunto para lograr que la computadora realice los trabajos para los que fue creada. La evolución del Hardware y Software es constante y se pueden ver los progresos en estas dos áreas observando los nuevos productos de Microsoft y de Intel, para poner un ejemplo, que son los más representativos del mercado.

Como actualizar los PCs.  Tomado de Hazlo tu mismo

....

Page 3: Curso de arquitectura

Sabemos bien que una computadora trabaja con dos áreas definidas: el hardware (parte física) y el software (los programas o parte abstracta). 

Para que los PC trabajen óptimamente, estas dos áreas deben formar un conjunto armonioso cuyo balance  vamos  a analizar en las siguientes líneas a fin de tener elementos de base para tomar una decisión sobre  como ACTUALIZAR  o REEMPLAZAR la máquina cuando el tiempo ha pasado sobre ella.

....

1. Actualización del hardware. Actualizar una computadora no es un paso sencillo como parece. Va a requerir la EVALUACION del PC como máquina en su conjunto para tomar una decisión al respecto. Básicamente se trata de decidir si los COMPONENTES básicos permiten la EJECUCION de los programas que NECESITAMOS para trabajar con el PC.  Cuando decimos programas, nos referimos al Software actual: Windows XP, Office 2000 o XP, Corel Draw 12, Autocad 12, juegos de estrategia grandes (como Warcraft, Starcraft ) o programas didácticos como Enciclopedia Encarta 2006, etc. Puesto que se necesita cierto conocimiento de hardware y experiencia de trabajo con el software actual, te mostramos algunas observaciones útiles para ayudarte a evaluar los PC que podrían actualizarse.

....

En lo que atañe al cambio de partes lamentablemente tenemos que decir que es una de las mayores decepciones que sufren los compradores a raíz de la expectativa creada en la venta de los PC. Muchos usuarios han sido 'culturizados' para creer que los PC solo necesitan 'pequeños cambios' a través de los años para 'mantenerse al día'.  ...La realidad nos muestra que un PC es OBSOLETO a los DOS AÑOS (si al momento de la compra era el más alto en prestaciones). Pero como no todo el mundo compra el PC MAS MODERNO, este lapso es indudablemente más corto que el de la norma (se conoce a esto como el cumplimiento de la LEY DE MOORE que dice que cada 18 meses el número de los transistores de los Chips microprocesadores se DUPLICA).  ....

La dificultad en la actualización radica principalmente en el hecho de que a un MICROPROCESADOR están íntimamente ligados un TIPO DE MOTHERBOARD, una clase de MEMORIA RAM y una capacidad en DISCO DURO. De manera que no solo basta con cambiar uno de estos componentes.  Y si sumamos el valor de ellos, fácilmente tenemos que el valor es aproximado a un PC nuevo. ...

2. Como evaluar si se puede o no actualizar un PC. Aquí las pautas: (utilizamos el Microprocesador para hacer las comparaciones) a. Un PC con microprocesador Pentium II o Pentium III no puede actualizarse a Pentium 4 o a Celerón, porque sus procesadores utilizan motherboards incompatibles. Lo mismo ocurre con otros fabricantes como AMD: hay categorías que no pueden convertirse en superiores (algunos procesadores DURON no pueden actualizarse a un ATHLON XP sin cambiar la Motherboard). ...b. Un PC que tenga una motherboard para Pentium 4 de menos de 1 GHz, no puede ACTUALIZARSE a un Pentium 4 de 2 GHz porque la velocidad de su bus es incompatible. Si el procesador de un PC es anterior a los mencionados Celerón, Pentium II o Pentium III, ya puedes deducir que lo mejor seria comprar uno nuevo. ....

3. Como obtenemos medidas de comparación y evaluación?.  Se pueden obtener visitando principalmente los sitios Web de los fabricantes de Motherboards.  Afortunadamente se esta utilizando bastante la Red para orientar a los compradores.  Si no estas familiarizado con las categorías de motherboards, tipos de Microprocesadores y memoria Ram, la fuente rápida y práctica debería ser tu Soporte técnico de confianza.   ...Otra fuente de información para hacer comparaciones (principalmente para averiguar que Procesador va con x motherboard o cuanta memoria y tamaño de disco duro debería poseer un PC determinado), la constituyen las paginas Web de los sitios que VENDEN PC por Internet, pues ellos exhiben diferentes configuraciones para la diversidad de usuarios informáticos....

Para ejemplo de lo dicho citamos aquí las fichas técnicas de dos configuraciones modernas (2006)....Companion 1010 Home Computer  AMD Semprom

Page 4: Curso de arquitectura

...

1. Mid-Tower ATX Desktop Computer Case with 350 Watt ATX12V PS 2. Motherboard with built-in video, sound and network 3. AMD Sempron 2600+ Processor 4. 256MB DDR Memory 5. 80GB 7200RPM Serial ATA (SATA) Hard Drive 6. Integrated AGP Video Graphics 7. 3.5" 1.44 MB Floppy Drive 8. DVD/CD-RW Combo Drive 9. 6-Channel 3D Audio 10. 56K V.92 Data/Fax Modem 11. Integrated 10/100 Base-T Fast Ethernet 12. Keyboard / Mouse / Speakers 13. Microsoft Windows XP Home Edition with Service Pack 2 14. Companion 1010 computers are assembled and tested. 15. Companion 1010s ship within three business days. 16. All parts are Industry Standard, no proprietary hardware

17. One year parts and labor warranty

...

...Companion 5010 Computer       Intel® Pentium® D Processor 805, Dual Core CPU ...

1. ATI Radeon® X300 graphics 2. 256MB PC3200 DDR Memory 3. 80GB Serial ATA Hard Drive 4. DVD/CD-RW Combo Drive 5. Mid-Tower ATX Desktop Computer Case with 420 Watt ATX12V PS 6. Motherboard with ATI Radeon Express 200 Chipset 7. 1.44MB 3.5" Floppy Drive 8. 6-Channel Audio 9. 10/100 LAN 10. Keyboard, Mouse, Speakers 11. Windows XP Home Edition with Service Pack 2 12. One PCI Express x16, One PCI Express X1, Two PCI slots 13. Eight USB 2.0 Ports 14. One - Serial(16550A) Port, One - Printer Port 15. Companion 5010 Computers are assembled and tested. 16. Companion 5010s ship within three business days. 17. All parts are Industry Standard, no proprietary hardware

18. One year parts and labor warranty

El Sistema Operativo (S.O.)

Cuando se escucha hablar de DOS, Windows 3.1, Windows 95, Windows 98, Windows NT, Windows 2000, Windows XP, Linux, Unix, OS/2, etc., se está hablando del Sistema Operativo. El S.O. es una “primera capa“ de software que aísla al usuario del funcionamiento directo de la computadora

El Sistema Operativo es un conjunto de programas que interactúan directamente con el hardware y se encarga de que éste funcione adecuadamente.

Permite que el usuario tenga acceso a las virtudes de la máquina de una manera amigable sin que deba de saber los detalles de operación de ésta. Permite también que el usuario corra aplicaciones. (Word, Excel, Juegos, etc.)

Cuando una computadora se enciende una de las primeras cosas que se hace es cargar el S.O. en memoria (El S.O. debe estar al menos parcialmente en memoria para que la computadora pueda funcionar.)

Nota: Al encenderse una computadora lo primero que se ejecuta es un pequeño programa almacenado en un integrado llamado BIOS (Basic Input Output System) que está dentro de la máquina. Este programa tiene almacenado la configuración básica del sistema y cuando esta arranca realiza un autoexamen para verificar su correcto funcionamiento. Uno de los últimos comandos del BIOS es llamar al Sistema Operativo.

Page 5: Curso de arquitectura

EL MS-DOS fue uno de los S.O. más populares hace unos años, pero  tenía el gran inconveniente de no poder utilizar más de 640 Kb de memoria, sin algún manejador adicional de memoria, cómo el manejador de memoria extendida (XMS) o el manejador de memoria expandida (EMS) que permite que se utilice el máximo de memoria disponible para un microprocesador en particular.Otro inconveniente muy importante: ser un  S.O. que sólo permitía un  usuario y una sola tarea. (no podía correr dos programas a la vez.)

El Windows 3.0 y Windows 3.1 estaban basados en el DOS, por lo cual muchos expertos no lo consideraban un verdadero Sistema Operativo. Siendo su capacidad de multitarea (hacer mas de una tarea) muy limitada

Al salir al mercado el Windows 95, causó una auténtica revolución en los Sistemas Operativos para PCs, pues era independiente del MS-DOS, aunque guardaba  compatibilidad con éste. Se había desarrollado  en parte con código de 32 bits a diferencia de los anteriores que eran de 8 y 16 bits. Ahora el S.O. utilizaba una Tabla de Localización de Archivos (File Alocation Table [FAT]) de 32 bits

Esta diferencia permitía utilizar con mayor eficiencia la capacidad de los discos duros y permitía entre otras cosas tener nombres de más de 8 caracteres (hasta 256). (Se puede ver en Win 95, 98, etc.)

Windows 98 es una mejora de Windows 95, casi totalmente desarrollado con código de 32 bits, mucho mas robusto y completo.

En Sistemas Operativos de Red existe el Windows NT, Windows 2000 server. Con un interface de usuario similar a Windows 95. La versión 4.0 de Windows NT es el equivalente al Windows 95 y la versión 5.0 es una mejora. Existen dos versiones: Windows NT Workstation, orientada a estaciones de trabajo, mas potente que el Windows 95 o 98 y Windows NT Server, que se utiliza en servidores de red.

No hay que olvidar que existen sistemas operativos de Red muy robustos y confiables como Unix y Linux (similar al Unix, pero de libre distribución), que desde su concepción inicial son sistemas operativos de Red multiusuario (mas de un usuario se conecta al S.O. a la vez)) y multitarea (hace varias tareas a la vez).

DIFERENTES TIPOS DE CABLES Y CONECTORES QUE SUELE UTILIZAR UN PC.

La costumbre hace que cuando contestamos alguna pregunta relacionada con un PC digamos que compruebe tal o cual cable o que mire este o aquel conector, pero pocas veces nos paramos a pensar si la persona a la que estamos respondiendo conoce esos cables, cuales son, como son físicamente y para qué sirven.

Vamos a intentar en este tutorial darles un repaso a los principales, ordenándolos en lo posible por su uso.

Cables de datos:

Los principales cables (también llamados a veces fajas) utilizados para la transmisión de datos son:

Faja FDD o de disquetera:

Page 6: Curso de arquitectura

Imágenes de dos tipos diferentes de cables FDD, uno plano y otro redondo.

Es el cable o faja que conecta la disquetera con la placa base.

Se trata de un cable de 34 hilos con dos o tres terminales de 34 pines. Uno de estos terminales se encuentra en un extremo, próximo a un cruce en los hilos. Este es el conector que va a la disquetera asignada como unidad A. En el caso de tener tres conectores, el del centro sería para conectar una segunda disquetera asignada como unidad B.

El hilo 1 de suele marcar de un color diferente, debiendo este coincidir con el pin 1 del conector.

Faja IDE de 40 hilos:

Imagen de una faja IDE de 40 hilos.

Las fajas de 40 hilos son también llamadas Faja ATA 33/66, en referencia a la velocidad de transferencia que pueden soportar.

La longitud máxima no debe exceder los 46cm.

Al igual que en las fajas FDD, el hilo 1 se marca en color diferente, debiendo este coincidir con el pin 1 del conector.

Este tipo de faja no sirve para los discos IDE modernos, de 100Mbps o de 133Mbps, pero si se pueden utilizar tanto el lectoras como en regrabadoras de CD / DVD.

Faja IDE de 80 hilos:

Page 7: Curso de arquitectura

Imágenes de dos tipos diferentes de cables IDE 80, uno plano y otro redondo.

Los cables IDE80, también llamados Faja ATA 100/133, son los utilizados para conectar dispositivos ATA - PATA a los puertos IDE de la placa base.

Son fajas de 80 hilos, pero con terminales de 40 contactos.

Esto se debe a que llevan 40 hilos de datos o tensión y 40 hilos de masa. Estos últimos tienen la finalidad de evitar interferencias entre los hilos de datos, por lo que permiten una mayor velocidad de transmisión.

A diferencia de las fajas de 40 hilos, en las que es indiferente el orden de conexión maestro / esclavo, en las fajas de 80 hilos estas deben estar en un orden establecido, estando este orden determinado por el color de los conectores, que suele ser:

Azul.- En un extremo, al IDE de la placa base. Gris.- En el centro, al dispositivo esclavo. Negro.- En el otro extremo, al dispositivo Master.

Estas fajas se pueden utilizar también sin problemas para conectar lectoras y regrabadoras de CD / DVD o en discos duros ATA 33 o ATA 66.

Al igual que en las fajas IDE 40, el hilo 1 se marca en color diferente, debiendo este coincidir con el pin 1 del conector.

Cable SATA:

En estas imágenes podemos ver un cable SATA y, en la de la derecha, los conectores en detalle.

Las unidades SATA (discos duros, regrabadoras de DVD...) utilizan un tipo específico de cable de datos.

Estos cables de datos están más protegidos que las fajas IDE y tienen bastantes menos contactos.

En concreto, se trata de conectores de 7 contactos, formados por dos pares apantallados y con una impedancia de 100 Ohmios y tres cables de masa (GND).

Los cables de masa corresponden a los contactos 1, 4 y 7, el par 2 y 3 corresponde a transmisión

Page 8: Curso de arquitectura

+ y transmisión - y el par 5 y 6 a recepción - y recepción +.

Este tipo de cables soporta unas velocidades muchísimo más altas que los IDE (actualmente hasta 3Gbps en los SATA2), así como unas longitudes bastante mayores (de hasta 2 metros). Las conexiones SATA son conexiones punto a punto, por lo que necesitamos un cable por cada dispositivo.

Faja SCSI:

Cable o Faja SCSI III.

Este tipo de cable conecta varios dispositivos y los hay de diferentes tipos, dependiendo del tipo de SCSI que vayan a conectar.

SCSI-1.- Conector de 50 pines, 8 dispositivos max. y 6 metros max. SCSI-2.- Conector de 50 pines, 8 dispositivos max. y 3 metros max. SCSI-3 Ultra.- Conector de 50 pines, 8 dispositivos max. y 3 metros max. SCSI-3 Ultra Wide.- Conector de 68 pines, 15 dispositivos max. y 1.5 metros max. SCSI-3 Ultra 2.- Conector de 68 pines, 15 dispositivos max. y 12 metros max.

Cables USB:

Izquierda, cable USB. A la derecha, conectores tipo A y B.

Los cables USB son cada vez más utilizados en conexiones exteriores. Se trata de cables de 4 contactos, distribuidos de la siguiente forma:

Contacto 1.- Tensión 5 voltios. Contacto 2.- Datos -. Contacto 3.- Datos +. Contacto 4.- Masa (GND).

Dado que también transmiten tensión a los periféricos, es muy importante, sobre todo en las conexiones internas (a placa base mediante pines) seguir fielmente las indicaciones de conexión suministradas por el fabricante de la placa base, ya que un USB mal conectado puede causar graves averías, tanto en el periférico conectado como en la propia placa base.

Las conexiones USB soportan una distancia máxima de 5 metros, aunque con dispositivos amplificadores se puede superar esta distancia.

Los conectores estandarizados son el tipo A, utilizado sobre todo en las placas base y en los dispositivos tipo Hub, y el tipo B, utilizado en periféricos (impresoras, escáneres, discos

Page 9: Curso de arquitectura

externos...).

Existe otro conector estandarizado (hasta cierto punto), denominado Mini USB, que podemos ver en la imagen superior, utilizado por dispositivos USB de pequeño tamaño a multimedia (MP3, cámaras fotográficas y de vídeo, etc.).

Los conectores USB admiten hasta un máximo de 127 dispositivos.

Además de estos (que son los más habituales), no existe una reglamentación en cuanto a la estandarización de la forma y tamaño de este tipo de conectores, por lo que hay en el mercado cientos de tipos diferentes de conectores (sobre todo del tipo Mini), que en ocasiones solo sirven para una marca y modelo determinado.

Cables IEEE1394 (Firewire):

Imagen de unos conectores IEEE1394 de 6 contactos.

Se trata de una conexión de alta velocidad, ofreciendo una velocidad en su estándar Firewire 400 algo inferior a la teórica de un USB 2.0, pero en la práctica ofrece una mayor velocidad y, sobre todo, más estable en esta que la USB. Además de una mayor estabilidad, también tiene un mayor voltaje en su salida de alimentación (hasta 25 - 30 voltios).

Hay dos tipos de conexiones IEEE 1394 dentro del estándar Firewire 400, los conectores de 4 contactos y de 6 contactos.

El esquema de un conector de 6 contactos sería el siguiente:

Conector 1.- Alimentación (hasta 25 - voltios). Conector 2.- Masa (GND). Conector 3.- Cable trenzado de señal B-. Conector 4.- Cable trenzado de señal B+. Conector 5.- Cable trenzado de señal A-. Conector 6.- Cable trenzado de señal A+.

Este mismo esquema, pero para un conector de 4 contactos seria:

Conector 1.- Cable trenzado de señal B-. Conector 2.- Cable trenzado de señal B+. Conector 3.- Cable trenzado de señal A-. Conector 4.- Cable trenzado de señal A+.

Page 10: Curso de arquitectura

Como se puede ver, la principal diferencia entre uno y otro es que el conector de 4 contactos se utiliza en aquellos dispositivos que no tienen que alimentarse a través del puerto IEEE 1394.

Existe un segundo estándar Firewire, llamado Firewire 800.

Firewire 8000 (o IEEE 1394b) soporta una velocidad de transmisión de 800Mbps, el doble que el estándar Firewire 400.

Este tipo de Firewire utiliza un conector de 9 contactos, que sigue el siguiente esquema:

Conector 1.- Cable trenzado de señal B-. Conector 2.- Cable trenzado de señal B+. Conector 3.- Cable trenzado de señal A-. Conector 4.- Cable trenzado de señal A+. Conector 5.- Masa (GND) cables trenzados de señal A. Conector 6.- Masa (GND) alimentación. Conector 7.- Reservado (no se utiliza). Conector 8.- Alimentación (hasta 25 - voltios). Conector 9.- Masa cables trenzados de señal A.

Imagen de unos conectores IEEE1394 de 9 contactos.

En todos los casos, el número máximo de dispositivos conectados es de 63, con una distancia máxima de 4.5 metros

Una característica de los conectores Firewire es que son compatibles con Macintosh, pudiendo estar conectada una cámara o un escáner simultáneamente a un PC y a un Mac.

Cables PS/2:

En la imagen, conectores PS/2 macho y hembra.

Los cables con conectores PS/2 son los utilizados para el teclado y el ratón.

Normalmente los conectores están señalados en color violeta para el teclado y verde para el ratón.

Cables UTP (RJ-45):

Page 11: Curso de arquitectura

Cable UTP con sus conectores RJ-45.

Son los utilizados para las conexiones de red, ya sea interna o para Internet mediante un router.

Pueden ser planos (cuando los dos conectores tienen los mismos códigos de colores en el cableado) o cruzados.

Puede ser de varios tipos y categorías, siendo el mas empleado el de categoría 5 (C5). Tiene en su interior 4 pares de cables trenzados y diferenciados por colores (blanco naranja, naranja, blanco verde, verde, blanco azul, azul y blanco marrón y marrón). Es importante recordar que la longitud máxima de un cable de red no debe exceder de los 100 metros. Vamos a numerar los hilos:

1 Blanco – Naranja 2 Naranja 3 Blanco – verde 4 Verde 5 Blanco – Azul 6 Azul 7 Blanco – Marrón 8 Marrón

El orden estándar de colocación de los hilos, siempre con la pestaña del conector hacia abajo, seria: Estándar 568-B: 1-2-3-5-6-4-7-8, correspondiendo estos números al orden indicado en cable de red. Estándar 568-A: 3-4-1-5-6-2-7-8, correspondiendo estos números al orden indicado en cable de red.

Esquema de posicionamiento de los hilos en los conectores RJ-45.

Conectores de gráfica:

Page 12: Curso de arquitectura

A la izquierda, un conector VGA. A la derecha, un conector DVI.

Los cables conectores de gráfica son los que unen la salida de la tarjeta gráfica con el monitor.

Estos cables pueden ser de dos tipos. Los tradicionales VGA de 15 pines o los nuevos digitales DVI.

En la actualidad las tarjetas gráficas de gama alta suelen traer solo conectores DVI, pero existen adaptadores DVI-VGA.

Conectores de audio:

En la imagen, un cable de audio macho - macho.

El audio se conecta mediante cables con clavijas del tipo Mini jack, de 3.5 mm.

Existe un código de colores según el cual la salida de señal a los altavoces es una clavija verse y la entrada de micrófono es una clavija rosa.

Les recomiendo que vean el tutorial sobre Identificar y conectar los cables de un PC, en el

Page 13: Curso de arquitectura

que encontrarán más información sobre este tema.

Conectores eléctricos:

En nuestro PC encontramos una serie de conectores eléctricos, encargados de suministrar energía a los diferentes componentes.

Todos estos conectores provienen de la fuente de alimentación, y son los siguientes:

Conector ATX:

A la izquierda, un conector ATX de 20 pines. A la derecha, un conector ATX de 24 pines. Como se puede observar, los 4 pines extra se

pueden separar del resto.

Es el conector encargado de suministrar alimentación a la placa base y a los componentes que se alimentan a través de ella.

En estándar ATX se compone de un conector rectangular de 20 o 24 pines, dependiendo que sea ATX 1.0 o 2.2.

La versión actual de ATX es la 2.2, que consta de un conector de 24 pines, un conector de 4 pines (2 x 12v y 2 x masa), un conector de 6 pines (3 x 12v y 3 x masa) para placas PCIe y conectores de alimentación para SATA, además de los habituales molex de alimentación de componentes. Algunas fuentes de alimentación llevan también conectores de alimentación para tarjetas gráficas SLI.

De izquierda a derecha, conectores de 4 y 6 pines de 12 v, conectores de alimentación para gráficas PCIe y conector de alimentación

SATA.

En el siguiente esquema podemos ver el esquema de los conectores de 20 pines y de 24 pines. En el recuadro azul los correspondientes a los conectores ATX de 20 pines y en el recuadro rojo los 4 pines extra. Normalmente estos 4 pines se pueden desmontar para utilizar una fuente ATX 2.2 en una placa con conector de 20 pines.

Page 14: Curso de arquitectura

Molex de alimentación:

De izquierda a derecha, molex para discos duros IDE y unidades ópticas. A la derecha, conector de alimentación de disquetera.

Se conocen como Molex a los conectores de alimentación utilizados para los dispositivos IDE.

Estos molex pueden ser de dos tamaños, pero la distribución en todos los casos es la misma: Rojo - Alimentación 12 v. Negro - Masa (GND). Negro - Masa (GND). Amarillo - Alimentación 5 v.

Hay multiplicadores de molex y adaptadores molex - SATA, como los mostrados en las imágenes inferiores.

Page 15: Curso de arquitectura

CONSIDERACIONES PARA ELEGIR UNA CAJA PARA EL ORDENADOR.

Hemos visto en diferentes tutoriales como elegir una fuente de alimentación, un micro. tarjetas gráficas, memoria... pero hay un elemento del PC que es el que más se ve y que tienen una importancia bastante grande. Se trata de la caja donde vamos a montar nuestro ordenador.

No vamos a entrar en consideraciones estéticas, pues cada uno puede tener un gusto muy diferente sobre lo que desea.

Solo reseñar que en el mercado hay un gama amplísima de cajas para PC, desde la más simple hasta con las apariencias más frikis que se pueda uno imaginar.

Lo que sí vamos a ver es como debe ser dicha caja (o más bien que debe tener).

Page 16: Curso de arquitectura

La caja (también llamada gabinete en muchos países) es el elemento que va a servir de soporte y contenedor al resto de elementos de nuestro PC, por lo que hay que buscar una que sea lo más rígida posible. No se trata de que los elementos que montemos en ella sean los que le den esta rigidez, sino de que sea la caja la que absorba las posibles vibraciones y torsiones que puedan darse y proporcione la rigidez necesaria.

Como hemos visto en varios tutoriales, una de las causas de avería en elementos tales como los discos duros y lectores ópticos es precisamente las vibraciones y torsiones que la caja no es capaz de amortiguar.

Cada vez son más las cajas hechas en aluminio, que es un material que reune las mejores características para el chasis. Un buen chasis de acero también es totalmente válido, pero eso repercute en el peso de la caja, que puede llegar a ser bastante alto.

Una cosa que debemos evitar son las cajas con el chasis de chapa muy fina troquelada, que se doblan con tan solo aplicarles un poco de presión con la mano, en las que gran parte de la rigidez (por no decir toda) la proporcionan los paneles frontal, laterales y los elementos que fijamos en su interior (placa base, discos, lectores). Repetimos que es la caja la que tiene que proporcionar la rigidez necesaria, NO el resto de elementos.

Vamos a dar un repaso a las principales características que debe reunir una buena caja:

- Formato:

En este punto tenemos que ver el que más se adecue a nuestras necesidades y a nuestra disponibilidad de espacio.

Los formatos más usuales son ATX y Mini ATX.

Las cajas Mini ATX son más bajas y con un poco menos de profundidad que las cajas ATX, aunque con el mismo ancho, por lo que suelen estar limitadas a placas base Mini ATX y a una bahía de 3.5'' y dos bahías de 5.25'' como máximo.

Hay en el mercado cajas para colocarlas tanto vertical como horizontalmente, e incluso algunos modelos que nos ofrecen ambas posibilidades.

Caja con formato horizontal o de sobremesa.

- Posibilidades de expansión:

El número de bahías, así como las posibilidades de expansión, va a depender en gran medida del formato de la caja. Una bahía es el espacio en el que se colocan tanto los discos duros, disqueteras o lectores de tarjetas (bahías de 3.5'') como las unidades ópticas (lectores y regrabadoras de CD o DVD (bahías de 5.25'')).

Lo mínimo exigible (sin contar la bahía externa para la disquetera) es que tenga al menos dos bahías de 3.5'' y otras dos de 5.25''.

Una caja de formato ATX suele tener entre 4 y 5 bahías externas de 5.25'' y entre 6 y 8 bahías de 3.5'', dos de ellas externas y el resto internas.

Como ya hemos comentado. la rigidez de los soportes de anclaje de estas bahías es muy importante, ya que va a evitar un exceso de vibraciones tanto en los discos duros como en las unidades ópticas.

También hay varios tipos de fijación de los elementos a las bahías.

Page 17: Curso de arquitectura

Aunque la más normal es mediante tornillería, cada vez son más las cajas que utilizan un sistema de guías para facilitar tanto la instalación como el poder cambiar un elemento.

A la izquierda podemos ver las bahías externas. En la imagen de la derecha se ven las sujeciones de las bahías internas y externas.

- Ventilación:

El tema de la ventilación es fundamental. Una caja debe tener al menos un ventilador posterior para evacuar el aire caliente de su interior.

Lo ideal es que cuente con al menos dos ventiladores posteriores y uno o varios anteriores o laterales. Si no tiene los ventiladores, al menos que tenga los emplazamientos para poner estos ventiladores, así como con una tobera de ventilación en la tapa lateral que quede sobre el disipador del procesador, para evacuar o permitir la entrada de aire directamente a este.

Es muy importante que tenga un número alto de rejillas u orificios de entrada de aire.

Muchas cajas de calidad incorporan filtros para las entradas de aire, evitando así la entrada de polvo al interior de la caja. Esto es muy importante para una buena conservación de los elementos que instalemos.

Page 18: Curso de arquitectura

En la imagen podemos ver los diferentes espacios reservados para instalar ventiladores, tanto frontales como traseros. a la derecha

vemos el lateras de una caja con una tobera de extracción y dos ventiladores.

- Fuente de alimentación:

Aunque la tendencia actual (sobre todo en cajas de gama media-alta y alta) es a que las cajas vengan sin fuente de alimentación para que nosotros pongamos la que deseemos, algunas cajas si que traen incorporada dicha fuente.

Debemos asegurarnos en ese caso de que se trate de una fuente de alimentación de buena calidad y con la potencia suficiente para nuestro equipo (como mínimo 450w). También debemos asegurarnos de que tenga las salidas de alimentación que vamos a necesitar.

La norma actual para las salidas de alimentación es la ATX 2.2, con un conector ATX de 24 pines y un segundo conector de 4 pines.

En cuanto a la sujeción, la estandarizada es mediante 4 tornillos traseros, colocados de forma asimétrica.

- Tomas externas para USB y para sonido:

Aunque estos son dos elementos que incluye cualquier caja actual, en importante que disponga de al menos dos tomas de USB en la parte frontal (o en una esquina entre el frontal y uno de los laterales), así como tomas para auriculares y micrófono.

Algunas cajas de calidad incluyen otras salidas, como puede ser IEEE1394 (firewire).

Page 19: Curso de arquitectura

Imagen que nos muestra los conectores externos de una caja. Podemos observar dos tomas para USB, una para salida de audio, otra de

entrada de micrófono y una toma para IEEE1394.

- Indicadores de control de temperatura:

Cada vez son más las cajas que incluyen sensores e indicadores para controlar una serie de parámetros de temperatura y de rotación de los ventiladores.

Si no dispone de estos indicadores podemos utilizar una bahía de 5,25'' para colocar un panel de este tipo (ver el tutorial sobre Como visualizar la temperatura de un ordenador

Page 20: Curso de arquitectura

A la izquierda una caja Deluxe MG416 con su panel de control. A la derecha, detalle del panel de control de una caja NZXT LEXA

OTROS TIPOS DE CAJAS.

Además de lo visto hasta el momento, existen en el mercado otros tipos de cajas para ordenadores:

- Cajas tipo ''Cubo '' o ''Barebone'':

Se trata de cajas de pequeño tamaño. Por lo general se venden o bien completamente montadas o al menos con la fuente de alimentación y la placa base, ya que ambos elementos son específicos para estas cajas.

Son ideales si no disponemos de mucho espacio y no necesitamos unas altas prestaciones en nuestro ordenador, aunque sus posibilidades de expansión son mínimas. Este tipo de caja es bastante utilizado en los equipos Media Center.

A la izquierda vemos una caja del tipo ''CUBO''. A la derecha vemos un Barebone PUNDIT de ASUS.

- Cajas tipo ''RACK'':

Page 21: Curso de arquitectura

Son un tipo especial de cajas diseñadas para colocarlas dentro de un armario ''RACK''.

Tienen unas medidas estándar en el ancho (19'' (la más habitual), 24'' y 30'') y en la profundidad, pudiendo variar su altura. Esta altura se mide en Unidades, siendo cada unidad de 1.75'' (44.45mm) de alto.

Hay cajas de 2, 3 y 4 unidades de altura, correspondiéndose esta última con el ancho normal de una caja de ordenador..

En la imagen, caja RACK de 4 unidades.

En cuanto a marcas de cajas, podemos citar a NZXT, ASUS, GIGABYTE, THERMALTAKE, XION, PLANET CASE, NOX, APLUS CASE, ANTEC, COOLER MASTER o ZALMAN entre otras.

Como se puede observar, la mayoría son también fabricantes de sistemas de refrigeración o de otros componentes como fuentes de alimentación.

Como siempre, repetir la importancia de que la caja se encuentre en un lugar bien ventilado, que permita una correcta circulación de aire.

CONECTORES DEL PANEL TRASERO DE UN PC. IDENTIFICARLOS Y CONECTARLOS CORRECTAMENTE.

La conexión de los cables en el panel trasero del ordenador es una tarea muy fácil... cuando se conoce el procedimiento y donde debe ir cada cable.

En un principio esta labor no suele causar muchas dudas, salvo en el caso de la conexión del teclado y del ratón en los conectores PS/2 y la conexión de los cables de sonido, ya que los conectores son muy diferentes y no es posible conectarlos en otro sitio salvo en el que les corresponde.

No obstante vamos a dar un repaso a los diferentes conectores.

Page 22: Curso de arquitectura

En primer lugar vamos a ver el panel trasero de una placa típica. Hay que tener en cuenta que nuestra placa puede ser ligeramente diferente a la mostrada en la imagen.

Para empezar vamos a ver la conexión del teclado y del ratón.

En la imagen de la izquierda vemos los conectores PS/2 de la placa base. A continuación diferentes tipos de conectores de teclado y

ratón.

Tanto el teclado como el ratón suelen tener una conexión del tipo PS/2.

En las placas actuales (desde hace unos cuantos años) estos conectores llevan un código de color estandarizado, correspondiendo el conector verde al ratón y el conector violeta al teclado. No obstante también podemos seguir esta norma: El conector más cercano al chasis de la caja es el correspondiente al teclado y el más próximo al centro de la torre es el correspondiente al ratón.

En cuanto a los dispositivos, es normal que sigan la misma codificación de colores (si bien en algunos teclados el conector es de color amarillo en vez de violeta) o bien que lleven grabada alguna imagen del dispositivo.

Imagen de los pines de un conector PS/2, donde podemos apreciar lo finos que son.

En todo caso, estos son, junto con el conector del monitor, los dispositivos con el que hay que tener más precauciones al conectarlo, ya que como se puede observar en la imagen superior, los pines del conector son muy finos y frágiles, pudiéndose doblar alguno al intentar conectar estos dispositivos, con lo que quedarían inutilizados.

La siguiente conexión que vamos a ver es la correspondiente al cable de red o RJ45.

Esta conexión es muy utilizada por los router para la conexión a Internet, así como para las conexiones a redes.

Page 23: Curso de arquitectura

Se debe introducir hasta escuchar un ligero clic, que indica que ha saltado la pestañita de seguridad.

A la izquierda, dentro del recuadro, podemos ver un puerto RJ-45. A la derecha unos conectores RJ-45.

La siguiente conexión es la conexión USB.

Este tipo de conexiones es muy utilizado, tanto por impresoras como por muchísimos dispositivos más, siendo cada vez más los teclados y ratones que llevan este tipo de conexión, en lugar de la tradicional PS/2.

En principio es indiferente en que puerto USB conectemos un dispositivo, ya que el sistema se encargará de reconocerlo y asignarle el controlador pertinente.

A la izquierda, dentro del recuadro, puertos USB. A la derecha un conector USB.

Hay un tipo de conexión que se utiliza sobre todo en la conexión de cámaras de vídeo para descargar vídeo, y es la conexión IEEE1394, también llamada Firewire. Este tipo de conexiones solo suele estar incluido en las placas base de gama alta.

Imagen de dos tipos de conectores IEEE1394, uno estándar y otro mini.

En las siguientes imágenes vamos a ver dos tipos de conexiones que cada vez se utilizan menos.

Estas conexiones son el Puerto paralelo, muy utilizado en el pasado para la conexión de impresoras, pero hoy en día prácticamente en desuso (de hecho cada vez son más las placas

Page 24: Curso de arquitectura

base que carecen de este puerto). Se trata de un puerto de 25 pines, hembra en la base y macho en el cable.

En la imagen de la izquierda vemos un puerto Paralelo. A la derecha un cable Paralelo ''Centronic'', utilizado para las impresoras.

Y el Puerto serie o Puerto COM, que es un tipo de puerto usado sobre todo para la conexión de algún módem externo. Los puertos serie son macho en la base y hembra en el cable, siendo el más habitual el de 9 pines, aunque también lo hay de 25 pines. Existen adaptadores para transformar un tipo en otro.

Imágenes de un puerto Serie de 9 pines y de un conector, también de 9 pines.

Los siguientes conectores que vamos a ver son los Conectores de sonido.

Estos conectores son unas entradas para mini jack de 3.5mm, que son los conectores usados por los altavoces para PC, así como por los micrófonos.

Page 25: Curso de arquitectura

A la izquierda, esquema de conexión habitual. A la derecha, imagen de los conectores de una tarjeta de sonido del tipo 8.1

La configuración de estos puede variar mucho de una placa base a otra, pero la regla básica en una configuración de sonido con dos altavoces es la siguiente:

- Conector rosa (1): Entrada de micrófono. - Conector verde (2): Salida para los altavoces. - Conector celeste (3): Entrada de sonido en línea.

Para cualquier otra configuración de sonido debemos consultar siempre el manual de la tarjeta, ya sea esta integrada en placa base o no.

Por último vamos a ver la conexión del monitor a la Tarjeta gráfica.

En algunos casos nos podemos encontrar con gráficas integradas en la placa base, en cuyo caso se trata de un conector del tipo VGA.

También se puede tratar de tarjeta gráfica independiente. Estas tarjetas gráficas suelen tener tres salidas, tal como podemos ver en la imagen inferior.

Imagen de una tarjeta gráfica actual.

Empezando por la izquierda, nos encontramos una salida para señal S-Video, utilizada para pasar la imagen a un televisor. A continuación (en el centro) tenemos una salida VGA, que es la misma que nos encontraremos en el caso de una gráfica integrada en placa base, y que es la más utilizada en monitores. Por fin, a la derecha, podemos ver una salida HDMI, que es una salida digital, y que cada vez son más las tarjetas gráficas que la llevan y más los monitores que cuentan con este tipo de entradas.

Page 26: Curso de arquitectura

A la izquierda podemos ver un conector VGA y a la derecha un conector HDMI. La clavija más pequeña es la que se conecta al monitor.

Bien, pues vistos los diferentes tipos de conectores que tenemos (los más habituales), vamos a ver una serie de normas a seguir para su instalación (sea cual sea el tipo de conexión).

La primera y más importante es nunca forzar un conector. Si no entra suave es por algún motivo que debemos averiguar, como puede ser una colocación incorrecta o un pin ligeramente doblado. El forzar el conector solo agravará el problema, pudiendo llegar incluso a su ruptura.

La segunda es asegurarnos de que han quedado correctamente conectados, ya que una mala conexión será causa de fallos en el funcionamiento del dispositivo conectado.

Y la tercera es más un comentario. Varios de estos conectores llevan unos tornillitos para su fijación. Bien, estor tornillitos debemos apretarlos, pero sin forzarlos en ningún momento. Sirven para dejar bien sujeto el conector, no para que no se escape y salga corriendo (que, evidentemente, no lo hace).

QUE DEBEMOS TENER EN CUENTA PARA ELEGIR UNA PLACA BASE.

Placa base ASUS M2N32 WS Pro. Se trata de una placa base de altas prestaciones de la serie Profesional.

Bien, pues estamos montando nuestro ordenador y ya tenemos elegido el procesador que queremos montar (ver tutorial ¿Cual es mejor AMD o INTEL?).

Page 27: Curso de arquitectura

Una vez visto si vamos a montar un ordenador basado en INTEL (socket 755) o en AMD (socket AM2) es hora de ver que placa base vamos a poner.

Como podéis observar, en AMD no he puesto el socket 939. Esto se debe a que es un socket llamado a desaparecer, ya que por un lado solo soporta memorias DDR (que cada vez se venden menos) y por otro porque AMD ya solo tiene unos pocos procesadores para este tipo de socket, sustituyendo los modelos que tiene poco a poco por los de socket AM2, que soportan DDR2 y además tienen un consumo bastante más bajo.

Todos los fabricantes de placas base (con la excepción de INTEL, que solo fabrica placas base para los procesadores Intel) tienen placas para ambos procesadores y salvo las características propias de cada tipo de procesador (INTEL o AMD) son placas que ofrecen las mismas prestaciones y calidades para ambos procesadores. Al decir esto me refiero, por ejemplo, a que no vamos a encontrar una placa para Intel que soporte HyperTransport, ya que esta tecnología es exclusiva de los procesadores AMD.

Llegados a este punto hay que aclarar una cosa muy importante. Como decimos en España, nadie da duros a cuatro pesetas. Con esto quiero decir que una placa de altas prestaciones, buena calidad y barata no existe. Cierto que puede haber diferencias de precio entre una marca y otra, pero a igualdad de prestaciones y calidad estas diferencias siempre van a ser pequeñas. Si por ejemplo hemos visto una placa con unas determinadas características y prestaciones de un fabricante X por 200 euros, podemos encontrar una placa base con la misma calidad, prestaciones y características en otro fabricante por 190 o 185, pero nunca por 150 o 125.

La calidad de una placa base no depende de sus prestaciones. Depende de la calidad de sus componentes y de que las prestaciones que ofrece no sean picos, sino constantes.

Hay una serie de elementos mínimos exigibles a una placa base actual que debe incorporar. Vamos a ver alguno de ellos:

- Procesadores soportados. Dentro de su gama (tipo de socket) debe soportar todos los procesadores disponibles.

- Memoria. Lo mas habitual es que soporten DDR2 (aunque hay algunas placas para DDR en socket 775 (Intel) y en socket 939 (AMD)). Deben tener al menos 4 slots para memoria, con una capacidad mínima de 4Gb en total y soportar Dual Channel, así como frecuencias de 533, 667 y 800Mhz. Hay algunas placas de bajo coste que solo tienen dos slots, soportando solo 2Gb de RAM.

- Tarjeta de red de 100mbps. Hoy en día todas las placas base incorporan este elemento. En placas de gama alta suelen incorporar 2 tarjetas, siendo una de ellas del tipo 100/1000.

- Ranuras de expansión. Lo mínimo exigible es lo siguiente: 1 ranura PCIe 16x (para gráfica, incluso en el caso de placas con gráfica incorporada). 2 ranuras PCIe 1x. 2 ranuras PCI 2.2.

- Front Side Bus. Deben soportar un FSB de 1066 en el caso de INTEL y de 2000 en el caso de AMD.

- Conectores SATA2. Como mínimo 4 conectores para SATA2. En las gamas media y alta es normal que tengan 6 u 8 conectores SATA2.

- Soporte por hardware para RAID0, RAID1 y JBOD. En placas de gama media y superiores también deben soportar RAID 0+1 y RAID5.

- Conectores IDE. Lo normal es que cuenten con 2 conectores IDE (IDE1 e IDE2), pero hay algunas placas con 3 conectores IDE (2 para discos, normalmente RAID, y 1 exclusivo para dispositivos ATAPI) y cada vez hay más placas base que solo tienen 1 conector IDE ATA/ATAPI.

- Puertos USB 2.0. Todas las placas actuales cuentan con una buena colección de puertos USB 2.0, tanto externos como internos. En algunos casos llegan hasta 10 puertos USB.

- Tarjeta de sonido.

Page 28: Curso de arquitectura

En la actualidad todas las placas base llevan incorporada la tarjeta de sonido, si bien esta puede ser de muy diferentes calidades. Desde placas con tarjetas de sonido básicas (en todo caso 6.1 como mínimo) a placas de gama media y alta con tarjetas de sonido 8.1 HD con salida digital S/PDIF.

- Conector interno para puerto serie. En el caso de no tener un puerto COM externo deben contar al menos con un conector interno para puerto serie y contar con su correspondiente plaquita de salida.

- Posibilidad de arranque remoto. Casi todas las placas base actuales soportan arranque remoto (WoL y WoR).

- Refrigeración del chipset. Es muy importante (sobre todo si le vamos a pedir un rendimiento alto o vamos a hacer Overclocking) que la placa base tenga un buen sistema de refrigeración del chipset. Con el aumento de las prestaciones son muchas las placas base que incorporan refrigeración del tipo Pipeline para estos chipsets, en algunos casos incluso apoyados por ventiladores.

- Conectores de alimentación en placa base para refrigeración (ventiladores). Todas las placas base tienen varios conectores de alimentación para ventiladores (CPU_FAN, CHASIS_FAN, POWER_FAN). Cuantos más conectores de este tipo tengan mejor, ya que a través de estos conectores podemos controlar varios parámetros relacionados con estos ventiladores (estado, velocidad de giro...).

Posibilidad de arranque desde diversos dispositivos. Cada vez son más las placas base que admiten arranque desde USB.

Las placas de gama alta suelen contar además con:

- Puertos IEEE1394. Normalmente uno interno y otro externo.

- Conector SATA2 externo. Cada vez son más las placas base que cuentan con un conector externo para SATA2 en el panel posterior.

Tarjeta de red WiFi. Es cada vez más frecuente que las placas base de gama alta incorporen entre sus posibilidades de conectividad tarjetas WiFi.

Como podéis observar en esta lista no aparecen ni los puertos paralelos ni los puertos serie externos. Esto de debe a que cada vez son más las placas que carecen de este tipo de puertos, sobre todo en las gamas altas. En el caso del puerto paralelo su mayor (y prácticamente único) uso es el de conector de impresoras, y estas ya van conectadas al puerto USB y en el caso del puerto serie son muy raros los dispositivos que utilizan este puerto en la actualidad, limitándose en la práctica a grabadoras de EPROM y enlace HyperTerminal para configuración de algún periférico determinado y muy poco más. En ambos casos hay en el mercado adaptadores a USB, tanto de puerto serie como de puerto paralelo.

Vista del panel posterior de una placa base de gama alta. En este caso son un puerto COM. Podemos ver la salida de audio S/PDFI, las dos

entradas RJ45, 4 entradas USB 2.0, el puerto IEEE1394 y el puerto SATA, así como las salidas de sonido 8.1.

A esto hay que añadir que cada fabricante puede montar una serie de herramientas específicas de este para controlar temas como el Overclocking, actualización de BIOS desde Windows, software de control de temperaturas y ventiladores, etc.

Uno de los factores determinantes en una placa base es el chipset que utiliza. Este chipset es el que se va a encargar de controlar el funcionamiento y el rendimiento de la placa base, siendo el chipset empleado uno de los determinantes para el precio de la placa base.

Los chipset más habituales en placas de calidad son los chipset NVIDIA, INTEL y VIA. Algunas placas económicas recurren a chipset SiS o ALi.

Page 29: Curso de arquitectura

Por su tipo de salida gráfica podemos dividir las placas base en tres grupos:

Gráfica integrada. Suele tratarse de placas económicas y por lo general de rendimiento bajo a medio (OJO, esto no implica que su calidad también sea baja o media). Este tipo de placa es ideal cuando buscamos un ordenador de costo bajo, al que no vamos a pedirle unas grandes prestaciones gráficas (juegos de última generación, programas CAD/CAM, renderizaciones). Suelen ser gráficas de 64Mb o de 128Mb, utilizando para ello memoria compartida (la placa base reserva esta memoria de la RAM instalada), por lo que a la RAM que tengamos debemos restarle la dedicada a la gráfica. En todo caso deben contar con un slot PCIe 16x para poder ponerle en cualquier momento una tarjeta gráfica independiente.

Placa base ASUS P5K-VM con gráfica OnBoard y slot PCIe.

Gráfica no integrada. Es el tipo más habitual de placa base. En este grupo se encuadra una gran variedad de placas base, con unos rendimientos que van de medio a los más altos. Su mayor particularidad es que cuentan con solo un slot PCIe 16x dedicado para gráfica (aunque pueden llevar un segundo slot PCIe 8x o 16x no soportan SLI).

Page 30: Curso de arquitectura

Placa base ASUS M2N-E. Se pueden ver los dos puertos PCIe, pero solo el azul es para gráfica.

Gráfica SLI o CrossFire. Las tecnologías SLI y CrossFire son dos tecnologías multi GPU (desarrolladas en el caso de SLI por Nvidia y en el caso de CrossFire por ATI), que permiten prestaciones tales como sumar la potencia de dos tarjetas gráficas en una sola salida o bien conectar varios monitores a un ordenador.

Pueden ver más información sobre este tipo de gráficas en el tutorial Qué es el sistema SLI y el sistema CrossFire.

Se trata en todo caso de placas base de gama alta, ya que el correcto funcionamiento de esta tecnología requiere unas altas prestaciones.

Son también placas base de precio alto, por lo que no es recomendable su compra si no vamos a utilizar esta tecnología, máxime si tenemos en cuenta que casi todos los fabricantes tienen dentro de sus respectivas gamas placas base de las mismas prestacionesy características, pero sin la tecnología SLI o CrossFire.

Las placas base del tipo SLI o CrossFire son recomendables tanto para jugadores que exijan un máximo rendimiento a los juegos de última generación como para profesionales del diseño. Solo señalar que si utilizamos una placa base de este tipo con solo una tarjeta gráfica no tendremos absolutamente ninguna ventaja sobre una placa base de idénticas características, pero sin soporte SLI o CrossFire.

Placa base ASUS A8N32-SLI con dos tarjetas gráficas Nvidia montadas en SLI.

Page 31: Curso de arquitectura

Ultimamente están saliendo al mercado una serie de placas base de gama alta con unas especificaciones concretas en dos campos:

Placas para Windows Vista. Se trata de placas de gama alta diseñadas para sacar el máximo rendimiento, tanto en prestaciones como en seguridad, a este sistema operativo. Estas placas incorporan un módulo de memoria Flash dedicado para ReadyBoost y una conexión para módulos TPM sobre los que ejecutar el sistema BitLocker de encriptación por hardware. Suelen traer también otros extras tales como mandos a distancia para controlar el Windows Media Center e incluso pequeños monitores.

Placa base ASUS M2N32-SLI Premium Vista Edition con sus complementos (incluidos con la placa base). A la derecha podemos ver un

detalle de la tarjeta Flash para ReadyBoost.

Placas para juegos. Son placas diseñadas para sacer el máximo partido a los juegos de última generación. Se trata de placas especiales de gama alta entre las que podemos destacar la serie Lanparty UP del fabricante DFI o la serie Striker de ASUS. En este tipo de placas suele estar especialmente potenciado todo lo relacionado con el Overclocking, así como con el soporte gráfico, tratandose en la practica totalidad de los casos de placas SLI o CrossFire.

Page 32: Curso de arquitectura

Imágenes de dos placas para juegos. A la izquierda una DFI Lanparti Up y a la derecha una ASUS Striker Extreme.

Visto esto es importante a la hora de decidirnos por una placa base u otra tener claro cual es el uso preferente que le vamos a dar. Comprarnos una placa base de gama alta para ofimática, Internet y de vez en cuando un juego u otro es desperdiciar el dinero.

También debemos pensar en el resto de componentes (procesador, tarjeta gráfica y memoria) que vamos a montar. Debemos pensar en el ordenador como en un todo en el que los componentes deben estar lo más equilibrados posible. ¿Se imaginan una placa base de gama alta con un Celeron y 512Mb de RAM?. ¿O un Core 2 Duo E6700 y 4Gb de RAM en una placa de 60 euros?.

Un tema a tener muy en cuenta a la hora de elegir nuestra placa base es su calidad, y placas base de calidad alta baratas simplemente no existen. Otra cosa es que tengan una mejor o peor relación calidad/precio, pero que una placa base (o cualquier otro producto) tenga una mejor relación calidad/precio no quiere decir que sea mejor que otro más caro, solo quiere decir que para sus prestaciones es lo mejor que se puede comprar por ese precio.

Muy importante es el soporte que la marca de la placa base ofrezca. Para ello tenemos que mirar tanto el soporte técnico (garantía, servicio) como soporte en el tema de controladores y actualizaciones vía Web.

También debemos mirar tanto la compatibilidad como el soporte existente para el sistema operativo que queramos instalar, ya sea este Windows, Linux, OS X o cualquier otro.

Todo lo expuesto hasta el momento se refiere a configurar un ordenador nuevo, pero ¿que pasa cuando se trata de una actualización de la placa base o una sustitución por avería de esta?.

Page 33: Curso de arquitectura

Pues en este último caso tenemos una palabra clave: COMPATIBILIDAD.

Con esto quiero decir que lo primero que tenemos que buscar es una placa base que sea lo más compatible posible con el resto del hardware que tengamos, sobre todo para evitar grandes gastos.

Aquí nos vamos a encontrar con una gama donde elegir bastante más reducida. Esta gama será menor cuanto más antiguo sea el equipo del que partamos, por lo que en muchos casos incluso nos tendremos que conformar con lo poco que encontremos.

Por poner un ejemplo de esto, actualmente no hay en producción ninguna placa base que soporte memorias SDRAM y cada vez hay menos que soporten tarjetas gráficas AGP.

Esto por no hablar de placas base para Intel 478 o para AMD 754, en donde la oferta real se limita a una o dos marcas.

Una de las marcas que sigue fabricando placas base para estos procesasores es Asrock. Se trata de una marca que sin ser de primera fila fabrica placas base con una buena calidad y una muy buena relación calidad/precio.

Imagenes de dos placas Asrock, la primera para AMD 754 y la segunda para INTEL 478.

En las imagenes superiores podemos ver dos placa Asrock, en ambos casos se trata de placas

Page 34: Curso de arquitectura

con gráfica OnBoard y memoria DDR.

La imagen de la izquierda corresponde al modelo K8NF6P-VSTA (AMD 754), con un puerto PCIe para gráfica y la de la derecha se trata de una P4VM800 (INTEL 478), en este caso con un puerto AGP para gráfica. Esta misma placa también la fabrican con puerto PCIe (P4VM890).

CAUSAS QUE PUEDEN ESTROPEAR UNA MEMORIA.

Para empezar hay que señalar que un módulo de memoria es muy difícil que se estropee, pero hay una serie de motivos por los que esto puede ocurrir.

Para evitar sorpresas es muy conveniente que cuando pongamos una memoria lo primero que hagamos (sobre todo si no se trata de una memoria de marca de calidad reconocida, como es el caso de Kingston, Buffalo, Corsair, Samsung, Elixir y otras) sea hacerle un test de memoria.

En Windows Vista la forma de hacerlo de describe en el tutorial Comprobar la memoria en Windows Vista. En otros Windows debemos recurrir a algún programa de testeo de memoria, como es el caso de Memtest86 3.3.

Este análisis lo debemos hacer de la forma más completa que nos sea posible.

¿Por que debemos hacer esto?. Pues porque la mayoría de las memorias que fallan se debe a que ya estaban mal cuando las compramos. El que tarde mas o menos en dar un fallo puede depender tan solo del tiempo que se tarde en utilizar ese área en concreto de la memoria.

Este riesgo es menor cuanta mayor sea la calidad de la memoria (claro que a mayor calidad mayor precio).

Los síntomas de avería en un módulo de memoria son muy variados, y van desde el típico pantallazo azul a fallos en la instalación de programas y en la ejecución de estos. Quizás el más típico de todos es el que surge al instalar el sistema operativo (sobre todo Windows XP y Windows Vista) de no permitir copiar una serie de archivos.

Los motivos por los que una memoria puede estropearse (descontando por supuesto que la avería no sea de la memoria en si misma, sino de la placa base) son tres:

Mala manipulación.

Un golpe, o mas bien que se nos caiga al suelo. Que pongamos el módulo de memoria sobre una superficie metálica haciendo contacto con los contactos del módulo. Que sufra una descarga de electricidad estática (debemos tener mucho cuidado al tocarla, asegurándonos de descargar la electricidad estática que tengamos en nuestro cuerpo antes de manipularla). Que le caiga un líquido encima (sobre todo refrescos). Descartados estos casos, los módulos de memoria son bastante resistentes.

También se puede estropear por colocarla mal, por lo que debemos asegurarnos al colocarla que queda perfectamente encajada.

Page 35: Curso de arquitectura

Suciedad.

La suciedad, más que estropear la memoria, nos causará un mal funcionamiento que se solucionará en cuanto la limpiemos.

Lo más normal suele ser que con el tiempo los contactos se ensucien, por lo que debemos quitarla y proceder de la siguiente forma:

Con una goma de borrar blanda limpiamos bien los contactos. A continuación les pasamos un trapo con un poco de alcohol (OJO, solo húmedo) y para terminar la secamos muy bien, asegurándonos antes de volver a colocarla de que está completamente seca y sin humedad.

Sobrecarga eléctrica.

Este es un motivo que se nos repite en todas las averías de nuestro ordenador. La calidad de la fuente de alimentación que tengamos es fundamental para evitar este tipo de averías, así como un medio de protección contra las sobrecargas, como puede ser la utilización de un SAI o de una regleta de enchufes con regulador.

Temperatura.

Esta si que es la causa más frecuente de que un módulo de memoria se estropee.

Solemos pensar en la temperatura refiriéndonos al procesador, a la tarjeta gráfica, a veces al disco duro... pero rara vez cuando pensamos en este problema pensamos en los módulos de memoria.

Pues bien, se trata de un elemento que puede llegar a coger una temperatura bastante alta. A la temperatura de funcionamiento lógica de todo elemento electrónico hay que añadirle en el caso de los módulos de memoria que no siempre se colocación es la más adecuada, estando en muchas ocasiones bastante cerca del disipador del procesador.

También es frecuente que queden practicamente ocultas por los cables y fajas de nuestro ordenador, lo que hace que su ventilación sea practicamente inexistente.

Para evitar esto debemos tomar una serie de precauciones, como por ejemplo:

- Asegurarnos de que el ordenador está perfectamente refrigerado en general. - Mantener los módulos de memoria siempre despejados y limpios. El polvo en sí mismo no suele causar averías, pero si que evita que el calor se disipe correctamente. - Si hacemos un uso de nuestro ordenador que requiera que este trabaje de forma intensiva o muy continuada, debemos poner en los módulos de memoria unos disipadores para ayudar a su refrigeración.

A la izquierda, memoria Kingston de la serie Hyper, que ya van refrigeradas. A continuación dos tipos diferentes de disipadores para

módulos de memoria.

Page 36: Curso de arquitectura

Contrariamente a lo que algunos pueden pensar, un virus no estropea un módulo de memoria (ni puede coger uno, tan solo se pueden alojar temporalmente en ella), ya que estos son de tipo RAM (Random Acces Memory) volátil y cada vez que apagamos el ordenador se descarga (elimina) toda la información que contienen.

Un módulo de memoria no se deteriora por el uso, ya que no sufre desgaste alguno.

DIFERENTES TIPOS DE SOCKET Y SLOT PARA CONECTAR EL PROCESADOR A LA PLACA BASE.

La primera pregunta a responder es la siguiente: ¿Que es un socket?.

Un socket es un zócalo con una serie de pequeños agujeros siguiendo una matriz determinada, donde encajan los pines de los procesadores para permitir la conexión entre estos elementos.

Dicha matriz recibe el nombre de PGA (Pin grid array), y es la que suele determinar la denominación del socket.

Las primeras placas base en incorporar un socket para la conexión del procesador (aunque no exactamente como los conocemos actualmente) fueron las dedicadas a la serie 80386 (tanto de Intel como de AMD y otros fabricantes).

Estos primeros sockets consistían tan solo en la matriz de conexión. Los PC anteriores tenían el procesador incorporado en la placa base, bien soldado o bien conectado en zócalos similares a los que se utilizar en la actualidad para colocar la BIOS.

Con la llegada de los procesadores del tipo 80486 se hizo patente la necesidad de un sistema que hiciera más facil la sustitución del procesador, y a raíz de esta necesidad salieron los socket, ya con la forma en la que han llegado hasta nuestros días.

Existen una gran variedad de socket, unas veces compatibles con todas las marcas de procesadores y otras (a partir de la expiración del acuerdo de fabricación entre INTEL y AMD) compatibles con tan solo una de estas.

Vamos a ver los diferentes topos de sockets que ha habido, así como los procesadores que soportaban, refiriéndonos a ordenadores de sobremesa basados en x86 y x64 y servidores basados en ellos.

Socket 1:

Socket de 169 pines (LIF/ZIF PGA (17x17), trabajando a 5v). Es el primer socket estandarizado

Page 37: Curso de arquitectura

para 80486. Era compatible con varios procesadores x86 de diferentes marcas.

Socket 2.

Socket de 238 pines (LIF/ZIF PGA (19x19)), trabajando a 5v). Es una evolución del socket 1, con soporte para los procesadores x86 de la serie 486SX, 486DX (en sus varias versiones) y 486DX Overdrive (antecesores de los Pentium).

Soportaba los procesadores 486 SX, 486 DX, 486 DX2, 486 DX4, DX4 Overdrive y Pentium Overdrive.

Socket 3.

Socket de 237 pines. Es el último socket diseñado para los 486. Tiene la particularidad de trabajar tanto a 5v como a 3.3v (se controlaba mediante un pin en la placa base).

Soportaba los procesadores 486DX, 486SX, 486DX2, 486DX4, AMD 5x86, Cyrix 5x86, Pentium OverDrive 63 y Pentium OverDrive 83.

Socket 4.

Page 38: Curso de arquitectura

Socket de 273 pines, trabajando a 5v (60 y 66Mhz).

Es el primer socket para procesadores Pentium. No tuvo mucha aceptación, ya que al poco tiempo Intel sacó al mercado los Pentium a 75Mhz y 3.3v, con 320 pines.

Soportaba los Pentium de primera generación (de entre 60Mhz y 66Mhz).

Socket 5

Socket de 320 pines, trabajando a 3.3v (entre 75Mhz y 133Mhz).

Fueron los primeros sockets en poder utilizar los Pentium I con bus de memoria 64 bits (por supuesto, los procesadores eran de 32 bits). Esto se lograba trabajando con dos módulos de memoria (de 32 bits) simultáneamente, por lo que los módulos de memoria tenían que ir siempre por pares. También soportaba la caché L2 en micro (hasta entonces esta caché iba en placa base).

En este socket aparecen por primera vez las pestañas en el socket para la instalación de un disipador. Hasta ese momento, los procesadores o bien incluían un disipador o bien se ponían sobre este (ya fuera solo disipador o disipador con ventilador) mediante unas pestañas, pero no sujetando el disipador al socket, sino al procesador.

Socket 7

Page 39: Curso de arquitectura

Podemos ver un socket 7 y a la derecha un procesador Cyrix.

Socket de 321 pines, trabajando entre 2.5 y 5v, con una frecuencia de entre 75Mhz y 233Mhz.

Desarrollado para soportar una amplia gama de procesadores x86 del tipo Pentium y de diferentes fabricantes, soportaba diferentes voltajes y frecuencias.

Procesadores soportados: Intel Pentium I, AMD K5 y K6 y Cyrix 6x86 (y MX) P120 - P233

Fue el último socket desarrollado para soportar tanto procesadores Intel como AMD.

A continución enumeraremos los distintos sockets dependiendo de la plataforma a utilizar.

INTEL

Socket 8.

Page 40: Curso de arquitectura

Imagen de un socket 8 y de un procesador Pentium Pro.

Socket de 387 pines, 66Mhz y 75Mhz y trabajando a 2.1v o 3.5v.

Es el primer socket desarrollado exclusivamente para los Intel Pentium Pro y Pentium II Overdrive (que no eran otra cosa que una evolución del Pentiun Pro).

En la practica fue muy poco utilizado, ya que el Pentium Pro tuvo una vida bastante corta y con la salida del Pentium II Intel comenzó a utilizar el Slot 1.

Slot 1.

Slot de 242 contactos, de entre 1.3v y 3.3v.

Con la salida al mercado de los Pentium II Intel cambió el sistema de conexión entre el procesador y la placa base del tipo socket a tipo Slot.

Se trata de una ranura similar a las PCI, pero con 242 contactos colocados en una sola de sus caras.

Este sistema fue utilizado solo en los Pentium II y, con un adaptador, en los primeros Pentium III.

Page 41: Curso de arquitectura

Imagen de un Pentiun II. A la derecha, un adaptador para poder usar prosesadores Pentun III Coppermine en Slot 1.

Soportaba los siguientes procesadores: Pentium II (entre 233Mhz y 450Mhz), Celeron (entre 266Mhz y 433Mhz), Pentiun III Katmai (entre 450Mhz y 600Mhz) y Pentium III coppermine (estos con un adaptador) de entre 450Mhz y 1.133Mhz).

Es más rápido que el socket 7, ya que permite una mayor frecuencia de reloj, pero tiene bastantes inconvenientes, entre los que destaca una cierta tendencia a descolocarse el procesador, debido sobre todo al peso del conjunto y a su ubicación.

Aunque de aspecto idéntico al Slot A (desarrollado por AMD), estos no son compatibles entre sí, ya que las características de los mismos son diferentes.

Socket 370.

Socket 370. A la derecha podemos ver dos tipos diferentes de Pentium III, a la izquierda un Coppermine y a la derecha un Taulatin.

Page 42: Curso de arquitectura

Socket de 370 pines, de entre 1.5v y 1.8v.

Este socket sustituyó al Slot 1 para la utilización de Pentium III, ya que no necesitaba un adaptador especial para conectarlo y además es más rápido que dicho Slot.

Fue desarrollado por VIA (que aún lo sigue produciendo para algunos procesadores que fabrica para este tipo de socket)

Procesadores que soporta: Celeron Mendocino entre 300Mhz y 500Mhz, Celeron y Pentium III Coppermine entre 533Mhz y 1.133Mhz, Celeron y Pentium III Tualatin entre 1.133Mh y 1.400Mh, así como los procesadores Cyrix III en sus diferentes modelos.

Socket 423.

Socket de 423 pines, trabajando entre 1.0v y 1.85v, con una frecuencia entre 1.4Gh y 2Ghz.

Fue el primer socket desarrollado para Pentium 4, pero pronto dejó de utilizarse (Intel fabricó procesadores P4 423 entre noviembre de 2000 y agosto de 2001) por las limitaciones que tenía, entre otras la de no soportar frecuencias de más de 2Ghz.

Se distingue fácilmente del 478 por su mayor tamaño.

Casi todas las placas de 423 utilizan los módulos de memoria del tipo del RIMM (Rambus Inline Memory Module), ya que cuando salieron al mercado Intel tenia una serie de acuerdos comerciales con Rambus.

Al igual que ocurrio con la salida del socket 360, cuando el socket 423 fue sustituido por el socket 478 salieron al mercado adaptadores para poder utilizar los nuevos procesadores 478 en placas con socket 423. Eso si, con la limitación de un máximo de 2Ghz.

Page 43: Curso de arquitectura

En la imagen de la izquierda se aprecia la diferencia de tamaño entre un P4 423 y un P4 478. En la imagen de la derecha podemos ver el

adaptador para poder usar un P4 478 en un socket 423.

Socket 478

Imagen de un socket 478 y de su caraterístico soporte del disipador.

Socket con 478 pines.

Quizás el más conocido de todos, es identificable, además de por su reducido tamaño, por su característico sistema de anclaje del disipador.

Soporta una amplísima gama de procesadores Intel de 32 bits, tanto Celeron como P4.

Junto con el socket 370 es el que más tiempo ha estado en uso. De hecho todavía se utiliza y sigue habiendo procesadores a la venta para el (aunque solo de la gama Celeron).

Socket 604

Page 44: Curso de arquitectura

Imagen que nos muestra un socket 604. A la derecha el empatillado de un Intel Xeon.

Socket de 604 pines, con un FSB de 400, 533, 667 y 800Mhz.

Se trata de un socket desarrollado exclusivamente para los procesadores de la gama Xeon (procesadores para servidores). Es muy frecuente que se trate de placas duales (es decir, con dos procesadores).

Socket 775.

Imagen de un socket 775 con sus contactos de tipo bola. A la derecha, sistema de contactos de un procesador P4 775.

Socket con 775 contactos (LGA).

Por primera vez se sustituye el sistema de pines (macho en el procesador y hembra en el socket) por el de contactos, bastante menos delicado que el anterior.

Page 45: Curso de arquitectura

Es el tipo de socket que Intel utiliza en la actualidad.

Soporta toda la gama Intel de procesadores de 64 bits (Intel 64), tanto de un solo núcleo como de doble núcleo y los novísimos Quad de cuatro núcleos.

AMD

Socket Super 7

Basado en el socket 7 de Intel, se desarrolló para soportar un mayor índice de ciclos de reloj, así como para poder usar el nuevo puerto AGP

Es el primer socket desarrollado exclusivamente para procesadores AMD.

Procesadores soportados: AMD K6-2 y K6-3

Slot A

Slot de 242 contactos, entre 1.3v y 2.05 v. Soportaba procesadores de entre 500Mhz y 1.000Mhz.

Desarrollado en un principio por Digital para sus procesadores Alpha (los mejores procesadores de su época), cuando fue abandonado este proyecto muchos de los ingenieros de Digital pasaron a AMD, desarrollando una serie de procesadores totalmente nuevos (los primeros K7), que utilizaron este slot con unos rendimientos sorprendentes para su época.

Page 46: Curso de arquitectura

Aunque de aspecto idéntico al Slot 1, estos no son compatibles entre si, ya que las características de los mismos son diferentes.

Socket A (o Socket 462)

Socket de 462 pines, entre 1.1v y 2.05v. Bus de 100Mhz, 133Mhz, 166Mhz y 200Mhz (correspondientes a un FSB de 200, 266, 333 y 400 con bus de doble velocidad DDR).

Socket muy utilizado por AMD, soportaba una gran variedad de procesadores

Los procesadores que soporta son: AMD Duron (800 MHz - 1800 MHz), AMD Sempron (2000+ - 3000+), AMD Athlon (650 MHz - 1400 MHz) y AMD Athlon XP (1500+ - 3200+).

Fue la primera plataforma que soportó un procesador de más de 1Ghz.

Socket 754.

Page 47: Curso de arquitectura

Socket con 754 pines, entre 0.80v y 1.55v, con un bus de 200Mhz y FSB de 800, soportando HyperTransport. Soporta módulos de memoria DDR, que es gestionada directamente por el procesador.

Sustituyó al socket A, a fin de agilizar el tráfico de datos y dar soporte a los nuevos procesadores AMD de 64 bits reales (AMD64), conocidos también como AMD K8.

A partir de este socket se abandonan las sujecciones del disipador directamente al socket, sustituyéndose estas por una estructora adosada a la placa base, como se puede observar en la imagen del socket AM2.

Soporta procesadores AMD Sempron (2500+ - 3000+) y AMD Athlon 64 (2800+ - 3700+).

Aun sigue utilizándose, sobre todo en equipos de bajo coste para algunos mercados, con procesadores Sempron.

Socket 940

Socket 940 y pines de un AMD Opteron.

Socket de 940 pines, entre 0.80v y 1.55v, con un bus de 200Mhz y FSB de 800 y 1Ghz, soportando HyperTransport. Soporta módulos de memoria DDR, que es gestionada directamente por el procesador.

Este socket fue desarrollado para los procesadores AMD Opteron (para servidores) y para los primeros AMD 64 FX (los primeros dual core de alto rendimiento)

Socket 939

Page 48: Curso de arquitectura

Socket 939. Se observa el pin de diferencia con el 940 (esquina inferior derecha).

Socket de 939 pines, entre 0.80v y 1.55v, con un bus de 200Mhz y FSB de 800 llegando a los 2Ghz, soportando HyperTransport. Soporta módulos de memoria DDR, que es gestionada directamente por el procesador.

Este socket soporta una amplia gama de procesadores, incluyendo ya toda la gama de procesadores de doble núcleo.

La gama de procesadores soportados es la siguiente:

AMD Sempron (a partir del 3000+), AMD Opteron (serie 1xxx), AMD 64, AMD 64 FX (FX 60) y AMD 64 X2.

Este socket está siendo sustituido (al igual que los procesadores que soporta) por el nuevo socket AM2.

Socket AM2.

Imagen de un socket AM2. Si lo comparamos con el 940 vemos claramente la diferente posición de los tetones de posicionamiento

(pontos son pines en el interior del socket). También podemos observar en esta imagen la estructura de sujección del disipador.

Socket de 940 pines, entre 0.80v y 1.55v, con un bus de 200Mhz y FSB de 800 llegando a los 2Ghz, soportando HyperTransport. Soporta módulos de memoria DDR2, que es gestionada directamente por el procesador.

Su rendimiento es similar al de los equipos basados en socket 939 (con procesadores AMD 64

Page 49: Curso de arquitectura

con núcleo Venice y a igualdad de velocidad de reloj), pero están diseñados para los módulos de memoria DDR2, teniendo además un consumo sensiblemente inferior.

Los procesadores soportados son: AMD Sempron (núcleo Manila, 3000+ en adelante), AMD 64 (núcleo Orleans, 3500+ en adelante), AMD 64 X2 (núcleo Windsor, 3800+ en adelante) y AMD 64 FX (núcleo Windsor, FX-62 en adelante).

OJO: A pesar de ser también de 940 pines, no hay que confundir este socket con el 940, ya que son totalmente incompatibles.

Socket F.

Socket de 1207 contactos (LGA).

Se trata de un socket desarrollado por AMD para la nueva generación de AMD Opteron (series 2000 (doble núcleo) y 8000 (de cuatro núcleos)) y FX (FX-7x) Quad (de cuatro núcleos).

Al igual que el socket 775 de Intel es del tipo LGA, es decir, con contactos tipo bola en el socket y lisos en el procesador.

COMO PODEMOS IDENTIFICAR EL TIPO DE MEMORIA QUE TENEMOS INSTALADA.

La identificación del tipo de memoria que utilizamos puede ser un problema de cuando menos laboriosa solución.

Quizás el mejor sistema sea valernos de un programa de análisis de componentes, como es el caso del Everest y otros.

Lo que suele ocurrir es que la información que necesitamos, que en el caso del Everest se encuentra en Placa base, y dentro de esta en SPD, es una información que solo está disponible en las versiones de pago, quedando para las versiones ''Free'' o en periodo de prueba solo la información rerferente a la cantidad de memoria y en algunos casos el tipo de esta (si se trata de SDRAM, DDR o DDR2)

En esta captura de pantalla podemos ver toda la información que podemos encontrar en la sección SPD sobre nuestra memoria (en este caso, en el Everest Ultimate 2006).

Page 50: Curso de arquitectura

Y en esta ampliación podemos ver más detalladamente la información referida a los módulos instalados, donde nos indica todos los datos que necesitamos.

Si no disponemos de un programa de este tipo nos quedan otras soluciones, pero ya pasan por abrir el ordenador y quitar el módulo.

Page 51: Curso de arquitectura

Una vez que tenemos el módulo quitado podemos ver las características de la memoria.

Lo primero (y lo más fácil) que tenemos que mirar es el tipo de memoria de que se trata.

Esto es fácil porque los tres tipos de memorias que hay en el mercado actualmente son fáciles de identificar:

SDRAM

Ya prácticamente en desuso, se distinguen fácilmente por tener dos muescas de posicionamiento, una a 2.5 cms del lateral izquierdo y el otro prácticamente en el centro. Su longitud es de 133 mm.

En cuanto al número de contactos, tienen 168 contactos

DDR y DDR2

En este caso ya podemos tener algo más de dificultad, pues si bien son diferentes, esa diferencia es algo más difícil de apreciar.

Ambos tipos de memoria tienen la misma longitud que las SDRAM, es decir, 133 mm. y ambas tienen una sola muesca prácticamente en el centro, aunque no exactamente en la misma posición. En cuanto al número de contactos, las del tipo DDR tienen 184 contactos y las del tipo DDR2 tienen 240 contactos.

En el gráfico y la imagen inferior podemos ver la forma de distinguirlas.

Los principales fabricantes de memorias etiquetan estas con sus características, pero en las

Page 52: Curso de arquitectura

memorias sin marca la cosa cambia y hay muchos que no ponen nada o solo ponen el tipo y la velocidad.

En esta imagen podemos ver una memoria correctamente etiquetada, donde vemos que se trata de un módulo de la marca Nanya, DDR, PC2100 (266Mhz) de 128Mb de capacidad, una latencia CAS 2 (CL2) y del tipo Umbuffered.

Otros fabricantes utilizan una serie de dígitos para indicar el tipo de memoria y características de esta, como es el caso de la información que suministra Kingston (en la imagen inferior).

La latencia CAS es un dato importante, que puede estar identificado de varias formas (CL, C o solo un número).

Hay un dato importante, pero fácil de saber, y se trata de si los chips de memoria están en una sola cara del módulo o en las dos.

Con esta información ya tenemos identificada nuestra memoria.

Es muy importante esta identificación no solo a la hora de comprar un módulo, sino también (y bastante más importante) a la hora de hacer una ampliación de memoria, sobre todo para evitar incompatibilidades.

Page 53: Curso de arquitectura

Añado una reseña de los principales tipos de módulos que existen en la actualidad.

SDRAM:

PC-133 133Mhz (ya descatalogada, aunque algunos fabricantes como Kingston la siguen produciendo en 256Mb y 512Mb).

DDR:

PC-1600 DDR-200 200Mhz (en varias capacidades, ya descatalogada). PC-2100 DDR-266 266Mhz (en varias capacidades, ya descatalogada). PC-2700 DDR-333 333Mhz (en varias capacidades, ya descatalogada, todavía se pueden encontrar, aunque con dificultad). PC-3200 DDR-400 400Mhz (en varias capacidades, continua a la venta).

DDR2:

PC-4200 DDR2-533 533Mhz (en varias capacidades). PC-4600 DDR2-667 667Mhz (en varias capacidades). PC-6400 DDR2-800 800Mhz (en varias capacidades).

LA IMPORTANCIA DE ELEGIR UNA BUENA FUENTE DE ALIMENTACION.

La fuente de alimentación es un componente vital dentro de un ordenador al que no se lo suele prestar la atención que se merece.

Cuando pensamos en una configuración de un ordenador siempre nos preocupamos por el procesador, memoria RAM, placa base, disco duro, dispositivos ópticos..., pero rara vez se piensa en la fuente de alimentación.

Esto es más notorio cuando se trata de actualizar un equipo, en el que rara vez preguntamos la conveniencia de sustituir la fuente de alimentación. Cuando mucho nos interesamos por su potencia, sobre todo si la fuente que tenemos es ya antigua.

Pero debemos considerar que estamos ante uno de los elementos más importantes, ya que es el encargado de suministrar la energía a nuestro sistema.

La misión de la fuente de alimentación en nuestro ordenador se puede dividir en tres funciones diferentes:

Rectificar la corriente que recibimos de la red (alterna) a corriente continua, que es la utilizada por el ordenador.

Transformar esa corriente de entrada, que normalmente es de entre 125 voltios y 240 voltios, siendo lo más habitual 220 voltios, en la que necesitamos para su uso en el ordenador. Normalmente esta es de 12, 5 y 3.3 voltios, a la que hay que añadir -12 y -5 voltios.

Estabilizar esa corriente de salida para que el voltaje que entrega por los diferentes canales sea siempre el mismo, independientemente de las fluctuaciones que pueda sufrir la corriente eléctrica de entrada.

Page 54: Curso de arquitectura

Vista interna de una fuente de alimentación.

Otro factor a tener en cuenta es la potencia que nos suministra en watios. Las necesidades de potencia pueden ser muy variables, dependiendo del consumo de nuestro equipo, pero lo que es realmente importante no solo es la potencia nominal en si, sino la potencia efectiva y sobre todo la calidad de esta potencia, es decir, que sea capaz de hacer una entrega de potencia constante y uniforme.

En cuanto a la potencia en si, esta ha variado bastante, creciendo constantemente a medida que han aumentado las prestaciones de los equipos, aumentando a la vez su consumo de energía. Si hace unos años era normal que una fuente tuviera una potencia de entre 250 y 350 watios, esa potencia es hoy en día totalmente insuficiente, estableciéndose el mínimo requerido en torno a los 450 watios para equipos que no sean excesivamente potentes. Son habituales las fuentes de alimentación de entre 500 y 650 watios, máxime si tenemos en cuenta los requerimientos de potencia de las tarjetas gráficas actuales, algunas de ellas incluso necesitando tomas independientes, no solo la que es capaz de suministrarle el puerto PCIe (en torno a los 150 watios máximo), a lo que hay que añadir que cada vez es necesario instalar más elementos refrigerantes (ventiladores), discos duros de más capacidad y mayor consumo y una gran cantidad de periféricos conectados por USB, que toman la alimentación de la placa base, y por tanto de la fuente de alimentación de nuestro ordenador. Paralelamente a este aumento de potencia han aumentado las necesidades de refrigeración de estas fuentes, siendo habitual en ellas los ventiladores de 12 cms. eso si, cada vez más silenciosos.

No nos engañemos. Fuentes de alimentación hay muchas en el mercado, pero evidentemente no tiene la misma calidad una fuente de alimentación de 500 w de 25 euros que una de 80 euros (y las hay bastante más caras). Debemos elegir una fuente de alimentación acorde con nuestras necesidades, pero que sea buena, ya que de ello va a depender en buena parte el rendimiento de nuestro ordenador y lo que es igual de importante o mas, que es la vida de este. De nada nos sirve instalar el micro y la gráfica más potente que encontremos si luego tenemos una fuente de alimentación que no es capaz de suministrar la potencia que necesitan con la calidad y la estabilidad necesarias.

La calidad de una fuente de alimentación viene detarminada por la estabilidad que tenga tanto en el mantenimiento de los voltajes como en la potencia entregada.

En cuanto a los tipos de fuentes de alimentación, existen dos tipos básicamente:

Fuentes AT, ya en desuso. Estas fuentes se caracterizan por el tipo de conector que va a la placa y por el sistema de encendido que utilizan.

Page 55: Curso de arquitectura

Imagen de fuente de alimentación AT

El suministro de corriente a la placa lo hacen mediante dos conectores planos de 6 pines cada uno. Esto entre otros representaba el problema de la posible colocación equivocada de estos, lo que podía llegar a producir averías. A esto hay que añadir las salidas timo molex para alimentación de discos duros y lectores de CD.

Conectores de alimentación AT y conectores de alimentación para los periféricos (a la derecha).

En cuanto al sistema de encendido, este es por interruptor, que corta la entrada de corriente a la fuente.

Estas fuentes se utilizaron en las placas AT, que eran las usadas hasta la llegada de los Pentium, aunque anteriormente se utilizaron algunas fuentes ATX, pero con los conectores de la placa del tipo AT.

Page 56: Curso de arquitectura

Esquema de conectores ATX y AT.

Fuentes ATX, que sustituyeron a las fuentes AT a partir de la salida de los procesadores Pentium, y que son las que se utilizan en la actualidad.

Fuente de alimentación ATX, en este caso de 700 w.

Estas fuentes no llevan interruptor como sistema de encendido (si acaso llevan uno para seguridad), correspondiendo la función de encendido a un contacto controlado por la placa base, que mediante un corto envía una señal que es la encargada de activar o desactivar la fuente. Las fuentes ATX siempre están suministrando un canal de 5 v a la placa base para mantener constante esta función. También permiten activarse mediante otros medios, como puede ser mediante la tarjeta de red o mediante el módem.

Page 57: Curso de arquitectura

Fuente de alimentación de gama alta. Los conectores de alimentación a los periféricos son independientes. A la derecha una vista de

como quedan conectados.

En cuanto a los conectores, estos pasaron de ser dos de 6 pines a uno de 20 pines (conocidos como conectores ATX), a los que con la salida de los P-4 se les añadió un conector independiente de 4 pines y 12 v.

Conector ATX de 20 pines y alimentación de 4 pines.

Posteriormente se han ido añadiendo salidas de alimentación. En primer lugar, con la salida de las placas para P-4 775 se actualizaron los conectores ATX, incorporando 4 pines más, uno de cada voltaje (12, 5 y 3.3 v.) más uno de masa. Posteriormente a los molex se les añadió unos conectores para alimentación para discos SATA y más recientemente, en las fuentes de gama alta, conectores de alimentación para tarjetas gráficas SLI.

Page 58: Curso de arquitectura

Esquema de conectores ATX de 24 y de 20 pines

Hay un tipo especial de fuentes de alimentación llamadas >b>Fuentes redundantes, que se trata de dos fuentes de alimentación en una. Estas fuentes tienen una sola entrada y un solo juego de cables de salida, pero internamente son dos fuentes, por lo que si una se estropea la otra sigue manteniendo la alimentación.

Imagen de una fuente de alimentación redundante

Su precio suele ser bastante alto, por lo que se utilizan más que nada en servidores y equipos profesionales.

REFRIGERACION DEL ORDENADOR: SU IMPORTANCIA Y TIPOS.

Un tema de suma importancia para el buen funcionamiento y conservación de nuestro ordenador es la refrigeración.

Todas las máquinas, ya sean mecánicas o electrónicas, tienen unos márgenes de temperatura para su utilización. Fuera de estos márgenes baja el rendimiento.

En el caso de los ordenadores esto es especialmente cierto cuando se sobrepasan estos márgenes hacia arriba, por lo que tenemos que poner los medios necesarios para que esto no ocurra. Hay que tener muy en cuenta que en los ordenadores no solo vamos a tener problemas de rendimiento, si no que además puede ser causa de averías de gran importancia, pudiendo llegar incluso a la inutilización de componentes o a la rotura del procesador y de la placa base.

Hay que considerar que el microprocesador no es la única fuente de calor dentro de nuestro PC, ni tan siquiera la que más temperatura produce. Prácticamente todos los elementos (chipset, memorias, disco duro, unidades ópticas y por supuesto la fuente de alimentación) son fuentes de

Page 59: Curso de arquitectura

calor, siendo el calor producido directamente proporcional al rendimiento de estos elementos (a mayor rendimiento, mayor temperatura).

Pues bien, disponemos de una importante cantidad de elementos para disipar esta temperatura. Los llamados disipadores.

Los disipadores pueden ser de dos tipos, que vamos a ver a continuación:

DISIPADORES PASIVOS:

Es el tipo más utilizado, aunque no sea el más eficaz. Generalmente consiste en un disipador de aluminio (y en muy raras ocasiones de cobre) en el que mediante la utilización de láminas se consigue una gran superficie.

Es más que suficiente para muchos de los elementos.

La placa base suele llevar este tipo de disipadores en bastantes elementos (chipset, componentes eléctricos, etc).

Placa base con el chipset refrigerado por disipador pasivo.

También se utilizan para las tarjetas gráficas de bajo rendimiento.

Gráfica Radeon 9250 con disipador pasivo.

En los procesadores, al generar estos una gran cantidad de calor, se utilizaron solo hasta la salida de los Pentium.

Hay en el mercado disipadores pasivos para elementos tales como los módulos de memoria.

Page 60: Curso de arquitectura

Dos tipos diferentes de disipadores para memorias.

DISIPADORES ACTIVOS:

Normalmente consisten en un disipador (de aluminio, de cobre o una mezcla de ambos) al que se le añade un ventilador.

Son los más utilizados para los procesadores y para las tarjetas gráficas.

Gráficas de alto rendimiento con refrigeración activa. Vease el caso de la Radeon, en la que la refrigeración ocupa dos ranuras de

expansión.

También se usan bastante para la refrigeración de los chipset (especialmente del Northbridge).

Page 61: Curso de arquitectura

Placa base GIGABYTE con refrigeración activa del chipset.

Aunque con los disipadores que vienen incluidos en los pack de los procesadores suele ser suficiente para un uso normal de estos, cuando se les da un uso muy exhaustivo o se practica el Overclocking es necesario aumentar el poder de refrigeración de estos.

Disipador de CPU INTEL para slot 775.

Hay en el mercado una muy extensa gama de disipadores diseñados para equipos de alto rendimiento. En muchos casos mezclan los tres sistemas, ya que añaden a un gran disipador un ventilador y un pequeño circuito cerrado de líquido (heatpipes).

Page 62: Curso de arquitectura

Dos disipadores activos para CPU. A la izquierda con láminas de cobre. A la derecha uno mixto (Pipeline) con circulación de aceite.

Page 63: Curso de arquitectura

Disipador para alto rendimiento.

También se utilizan para refrigerar los discos duros.

Disipador para discos duros de la marca Revoltec.

Por su característica principal (llevan incorporado uno o varios ventiladores) no son utilizables para elementos de pequeño tamaño, como puede ser el caso de los módulos de memoria.

Este tipo de disipadores necesita un buen mantenimiento, ya que en muchas ocasiones llevan ventiladores de muy pequeño tamaño girando a unas velocidades muy altas (en el caso de algunos chipset, por encima de las 5.000 rpm.) y que son muy propensos a estropearse, sobre todo debido a la suciedad.

Cada vez está más extendido el uso de los disipadores líquidos.

Es un tipo de disipador de alto rendimiento en el que el componente refrigerante principal es un líquido. Este liquido puede ser o bien un circuito con liquido refrigerante o bien aceite, siendo este el más utilizado por ser menos aparatoso que el de liquido refrigerante, que necesita bastante más instalación y espacio, ya que suelen constar del disipador propiamente dicho, al que hay que añadir el depósito del liquido, la bonba de circulación de este y el radiador de refrigeración..

Los hay tanto activos como pasivos y de muy diferentes tamaños (incluso los hay externos, es

Page 64: Curso de arquitectura

decir, que el elemento refrigerante se instala fuera de la caja o gabinete).

Disipador por refrigeración líquida de aceite de la casa Thermaltake, en este caso sin ventilador.

Impresionante sistema de refrigeración por circuito de líquido refrigerante y radiador externo.

Cada vez es mas habitual que las placas base de alto rendimiento recurran a este tipo de disipadores para los chipset.

Page 65: Curso de arquitectura

Placa base ASUS M2N con chipset por refrigeración lídida de aceite

Se emplean sobre todo para el procesador, pero también los hay para las tarjetas gráficas.

Tarjetas gráficas refrigeradas por líquido (aceite). A la izquierda una Radeon X1600 y a la derecha una Nvidia de ASUS.

FUENTE DE ALIMENTACION Y CAJA (GABINETE):

Una parte muy importante que atañe a la refrigeración es la fuente de alimentación. La fuente de alimentación es un gran generador de temperatura, no solo por las temperaturas que alcanza

Page 66: Curso de arquitectura

sino por el tamaño que tienen. Es fundamental para un buen funcionamiento del ordenador que esté perfectamente refrigerada, ya que además cada vez son más potentes y por lo tanto general más calor.

También es muy importante la refrigeración de la caja en sí, ya que de poco nos va a servir un buen sistema de disipadores si después no evacuamos el calor generado del interior de la caja.

Para ello disponemos de una muy amplia gama de ventiladores. Los hay di diferentes tamaños (8, 9 y 12 cms.), con velocidad variable, con luz, etc.

Ventiladores para cajas de 8 cm.

Normalmente se colocan en la parte trasera de la caja para extraer el aire caliente, aunque también podemos poner uno en la parte delantera para que fuerce la entrada de aire fresco del exterior..

También son de gran utilidad las toberas de salida, que encauzan el aire caliente proveniente del disipador del procesador directamente hacia el exterior de la caja.

No debemos olvidar la importancia que tiene el colocar la caja en un sitio que esté bien refrigerado de por si, evitando soluciones que si bien son buenas bajo el punto de vista estético son nefastas en cuanto a la refrigeración, como puede ser meter la caja en un hueco diseñado para ello o bien ocultarla dentro de un armarito sin la suficiente refrigeración.

También es de suma importancia el mantenimiento de estos elementos. Podemos ver la forma de hacerlo en el tutorial sobre Mantenimiento y limpieza del ordenador.

TIPOS Y CARACTERISTICAS DE LOS SLOT PARA TARJETAS GRAFICAS.

En estos tiempo en los que es normal hablar de tarjetas gráficas PCIexpress SLI con 512Mb de memoria DDR3 y en los que las gráficas AGP están tocando a su fin, a veces surgen problemas de compatibilidad a la hora de querer sustituir nuestra tarjeta gráfica por otra más moderna, sobre todo si se trata de gráficas AGP 4x.

Es este problema el que me lleva a escribir este tutorial, en el que vamos a repasar un poco la historia de las tarjetas gráficas a través de sus diferentes interfaces o slot de conexión.

No voy a hablar de las tarjetas gráficas en sí mismas, ya que este tema se trata convenientemente en el tutorial sobre ellas, titulado Guía de Tarjetas Gráficas (nivel básico), escrito por JoSeMi, sino que nos vamos a centrar en la clasificación de estas dependiendo de su tipo de conexión.

Coincidiendo en el tiempo con la aparición de los primeros ordenadores personales (PC) por el año 1.981, aparecen como parte integrante de estos las tarjetas gráficas.

Estas primeras tarjetas gráficas han usado en el tiempo diferentes interfaces para comunicarse con la CPU.

Las interfaces utilizadas, en lo que a los PC se refiere, podemos resumirlas como sigue:

ISA:

Page 67: Curso de arquitectura

Placa base ISA. Se trata de una 8088 XT de los primeros tiempos de los ordenadores personales.

Aparecidas en el año 1.981, se dividen en dos tipos diferentes;

ISA XT, con un bus de 8 bits, una frecuencia de 4.77 Mhz y un ancho de banda de 8 Mb/s. ISA AT, con un bus de 16 bits, una frecuencia de 8.33 Mhz y un ancho de banda de 16 Mb/s.

En ese mismo año aparecen las primeras gráficas monocromo MDA (Monochrome Graphics Adapter), con una memoria de 4Kb, capaces de mostrar 80x25 líneas en modo texto exclusivamente. Los monitores más utilizados eran los llamados de Fósforo verde.

También en 1.981 salen al mercado las tarjetas CGA, primeras en trabajar con color. Con una memoria de 16Kb, 80x25 líneas en modo texto y una resolución de 640x200 en modo gráfico, con un total de 4 colores.

Con posterioridad (1.982) salieron al mercado las tarjetas HGC, conocidas como Hércules, también monocromo, pero con una memoria de 64Kb, 80x25 líneas en modo texto y una resolución de 720x384 en modo gráfico.

Page 68: Curso de arquitectura

Gráfica HGC Hércules. Todo un avance en su época.

En 1.984 salen las tarjetas EGA, con una memoria de 256Kb, 80x25 líneas en modo texto y una resolución de 640x350 en modo gráfico, capaces de mostrar 16 colores.

Hay que esperar tres años (hasta 1.987) para que haya una evolución en el mundo de las tarjetas gráficas, con la salida de las tarjetas VGA. Estas son las primeras tarjetas que incorporan el conector de salida de vídeo de 15 pines que ha llegado hasta nuestros días. Con una memoria de 256Kb, 720x400 líneas en modo texto y una resolución de 640x480 en modo gráfico, con un total de 256 colores.

Tarjeta VGA ISA con contactos ISA AT. Se trata de una Trident. En su época se podía considerar como una gráfica de gama alta.

VESA:

Page 69: Curso de arquitectura

Placa base con dos slot VESA (a la derecha). Puede verse que ocupan prácticamente todo el ancho de la placa.

Con un bus de 32 bits, una frecuencia de 33 Mhz y un ancho de banda de 160 Mb/s.

Aparecido en 1.989, junto con los ordenadores 80486, solucionaban las restricciones de los 16 bits, y pronto se convirtieron en el estándar para gráficas, hasta la salida de los slot PCI.

Por esas fechas hacen su aparición las tarjetas SVGA. Con una memoria de hasta 2Mb, 80x25 líneas en modo texto y una resolución de hasta 1024x768 en modo gráfico, con un total de 256 colores.

gráfica VESA SVGA. Observese su gran longitud.

En 1.990 aparecen las tarjetas XGA, que son las que llegan hasta nuestros días. Con una memoria de hasta 1Mb, 80x25 líneas en modo texto y una resolución de hasta 1024x768 en modo gráfico, con un total de colores de 64k. Estas tarjetas han evolucionado con el tiempo, llegando a los valores actuales en lo referente a memoria, resolución y prestaciones, pero básicamente las tarjetas actuales siguen siendo tarjetas XGA.

PCI:

Page 70: Curso de arquitectura

Una de las primeras placas base con un slot PCI para gráficas. Se trata de un 80486DX4-100 a 100Mhz. Lo máximo en PC hasta la llegada

de los Pentium.

Las gráficas PCI tienen un bus de datos de 32 bits, una frecuencia de 33 Mhz y un ancho de banda de 132 Mb/s.

Con la aparición en 1.993 del bus PCI se abandona el uso de los slot VESA para gráficas.

Placa base para Pentium con 4 slots PCI y 3 slots ISA.

El bus PCI en realidad no supuso una mejora sobre VESA en cuanto a rendimiento, pero si en cuanto a tamaño (hay que recordar que las tarjetas VESA eran enormes), y sobre todo permitían una configuración dinámica, abandonándose la configuración mediante jumpers.

Page 71: Curso de arquitectura

Una de las primeras gráficas PCI

En 1.995 aparecen las primeras tarjetas 2D/3D, fabricadas por Matrox, Creative, S3 y ATI.

Pero es en el año 1.997 cuando, de la mano de fabricantes como 3dfx, con sus fabulosas tarjetas de alto rendimiento Voodoo y Voodoo 2, y Nvidia con sus TNT y TNT2, las tarjetas gráficas dan un salto cualitativo que hacen que cada vez sean más insuficientes las prestaciones ofrecidas por el bus PCI, provocando un cuello de botella.

Gráfica ATI 2D/3D PCI

AGP:

Page 72: Curso de arquitectura

Placa base con puerto AGP 4x 8x para Pentium 4 478.

El puerto AGP (Advanced Graphics Port, o Puerto de Gráficos Avanzado) es un puerto exclusivamente para gráficas.

En 1.996, para solucionar el cuello de botella provocado por el constante aumento de las prestaciones de las tarjetas gráficas y la imposibilidad del bus PCI para negociar la cantidad de datos generados, Intel desarrolla el puerto AGP. Se trata de un puerto de 32 bits, al igual que el bus PCI, pero con importantes diferencias sobre este destinadas a optimizar el rendimiento de las gráficas. El puerto AGP es exclusivo, por lo que solo puede haber uno en la placa base.

Para empezar cuenta con 8 canales adicionales de acceso a la memoria RAM, accediendo directamente a esta a través del Northbridge, lo que permite emular memoria de vídeo en la RAM.

En 1.997 salen al mercado las primeras placas base que cuentan con este puerto, aumentando sus prestaciones con el tiempo.

Las versiones que han salido de del puerto AGP son las siguientes:

AGP 1x.- Con un bus de 32 bits, una frecuencia de 66 Mhz, un ancho de banda de 256 Mb/s y un voltaje de 3.3 v. AGP 2x.- Con un bus de 32 bits, una frecuencia de 133 Mhz, un ancho de banda de 528 Mb/s y un voltaje de 3.3 v. AGP 4x.- Con un bus de 32 bits, una frecuencia de 266 Mhz, un ancho de banda de 1 Gb/s y un voltaje de 3.3 o 1.5v. AGP 8x.- Con un bus de 32 bits, una frecuencia de 533 Mhz, un ancho de banda de 2 Gb/s y un voltaje de 0.7 o 1.5v.

Este aumento tanto de frecuencia como de ancho de banda ha propiciado la escalada en prestaciones que han tenido las tarjetas gráficas.

Page 73: Curso de arquitectura

gráfica ATI Radeon 9550 AGP 8x.

Es precisamente el tema del voltaje de alimentación el causante de una serie de incompatibilidades. Vamos a explicar este tema: Entre AGP 1x, AGP 2x y AGP 4x a 3.3 v. no hay problemas. Entre AGP 4x y AGP 8x a 1.5 v tampoco hay problemas.

El problema surge cuando nos encontramos con una placa base antigua con puerto AGP compatible con AGP 2x y AGP 4x a 3.3 v. y una tarjeta gráfica moderna, compatible AGP 8x y AGP 4x, pero a 1.5 v.

Algunos fabricantes intentaron advertir de este problema mediante las muescas de posicionamiento de la tarjeta y del puerto, pero hay placas base con el puerto AGP sin pestaña de posicionamiento y tarjetas gráficas con las dos muescas. , por lo que en la práctica estas solo sirven para no poner una tarjeta AGP 4x en una placa base que solo admita tarjetas AGP 1x y AGP 2x, pero sin tener en cuenta el voltaje de alimentación de estas. Esto es más peligroso aun si tenemos en cuenta que no solo no va a funcionar el ordenador, sino que podemos estropear la tarjeta AGP.

Slot AGP 1x 2x. Observese que la pestaña de posicionamiento está en el extremo más cercano al borde de la placa base

Page 74: Curso de arquitectura

Slot AGP 4x 8x. Obsérvese que la pestaña de posicionamiento está en el extremo más alejado del borde de la placa base

Gráfica AGP 2x

Page 75: Curso de arquitectura

Gráfica AGP 4x. A peser de tener muescas de posicionamiento para los dos tipos de puertos AGP estas tarjetas trabajaban a 3.3 v.

PCIexpress:

Placa base con slot PCIe 16x para AMD AM2.

En el año 2.004 Intel desarrolla el bus PCIe con vistas a unificar en un solo interfaz los existentes hasta el momento (PCI y AGP). Se trata de un bus al híbrido serie/paralelo (hasta el momento, todos los bus y puertos utilizados son puertos paralelo), pensado para ser utilizado solo como bus local.

Hay varios tipos de bus PCIa (PCIe 1x, PCIe 4x, PCIe 8x, PCIe 16x), pero para su uso como slot para tarjetas gráficas se utiliza solo el bus PCIe 16x.

Con un bus a 32 bits, una frecuencia de hasta 200 Mhz y ancho de banda de hasta 3.2 Gb/s, las

Page 76: Curso de arquitectura

prestaciones de las tarjetas gráficas se han disparado. Pero mayores prestaciones representan también un mayor consumo. El puerto PCIe tiene un máximo de 150w, lo que es insuficiente para las tarjetas gráficas de gama alta de última generación, por lo que se ha recurrido por parte de los fabricantes a alimentar estas tarjetas directamente desde la fuente de alimentación, sin pasar por la placa base.

ATI Radeon X1600 PCIe

Está previsto que dentro del año 2.007 salga la versión PCIe 2.0, que doblará el ancho de banda de los actuales PCIe.

PUERTOS DE COMUNICACION: QUE SON Y PARA QUE SIRVEN.

Los puertos de comunicación, como su nombre indica, son una serie de puertos que sirven para comunicar nuestro ordenador con los periféricos u otros ordenadores. Se trata en definitiva de dispositivos I/O (Imput/Output, o Entrada/Salida).

En este tutorial nos vamos a referir a los principales puertos de comunicación. Estos son los más habituales y suelen estar presente en todos los PC, aunque alguno de ellos están empezando a desaparecer, siendo reemplazados por otros más eficaces.

Entre estos puertos tenemos:

PUERTO SERIE (RS-232).

Los puertos RS-232, también conocidos como puertos serie y como puertos COM son uno de los primeros puertos de comunicaciones incorporados a los PC, pero también uno de los más ineficaces.

El interface de este tipo de puerto suele ser de dos tipos, de 9 pines (normalmente señalado como COM1) y de 25 pines(normalmente señalado como COM2), siendo estos conectores de tipo MACHO en la parte del PC. En un principio todas las placas base contaban con ambos tipos de puerto serie. Posteriormente el puerto de 25 pines desapareció y las placas incorporaban 2 puertos de 9 pines (COM1 y COM2) y en la actualidad solo suelen tener un puerto COM de 9 pines, siendo cada vez mas frecuentes las placas que ni siquiera traen este o bien que lo traen en una chapita independiente.

La capacidad máxima que se alcanza en este tipo de puerto es de 20Kb/s.

En cuanto a la velocidad, en el caso de los puertos RS-232 la unidad de medida es el Baudio, en lugar de utilizar el más habitual hoy en día de bit por segundo, siendo el ratio de entre 75 baudios y 128000 baudios, aunque los más utilizados son 9600, 14400 y 19200 baudios.

En cuanto a la distancia permitida en este tipo de conexiones, en la práctica, dependiendo del dispositivo a conectar, permite distancias de hasta unos 40 metros, pero la velocidad permitida es inversamente proporcional a la distancia.

Page 77: Curso de arquitectura

A pesar de estar cayendo en desuso, este puerto sigue siendo muy utilizado en las comunicaciones de las cajas registradoras, visores, impresoras de tickets y unidades lectoras/grabadoras de EPROM y en general para las conexiones de configuración de numerosos dispositivos. Existen también adaptadores de COM 9 a COM 25.

En cuanto a los puertos COM hay que hacer una aclaración. Los PC reconocen como puerto COM a todo puerto que se crea destinado a comunicaciones (independientemente de su interface), como pueden ser los puertos de comunicación creados por un BlueTooth.

Puerto RS-232 (COM 9) y adaptador de COM 9 a COM 25.

PUERTO PARALELO.

El puerto paralelo más conocido es el puerto de impresora, también conocido como Puerto LPT. A veces se le denomina Centronic, que es el nombre que recibe el conector del extremo correspondiente a la impresora, siendo el conector de la parte del ordenador un conector de 25 pines del tipo HEMBRA.

El puerto paralelo envía un byte o más de datos a la vez por diferentes hilos, mas una serie de bits de control, creando un bus de datos. En este aspecto de comporta de forma diferente al puerto serie, que hace el envío bit a bit, y por el mismo hilo.

Hay en el ordenador otros puertos paralelo, aunque rara vez se piense en ellos como tales. Se trata de los puertos paralelos IDE, que también reciben el nombre de PATA (Paralell ATA) o el puerto SCSI, este último usado sobre todo en Macintosh y en servidores, mas que nada por su alto costo.

Page 78: Curso de arquitectura

Puerto paralelo en una placa base y terminales de cable paralelo. Observese la peculiar forma del Centronic.

PUERTOS USB.

Simbolo internacional de USB.

El puerto USB (Universal Serial Bus) fue creado en el año 1.996 por un grupo de 7 empresas (IBM, Intel, Compaq, Microsoft, NEC, Digital Equipment Corporation y Northern Telecom) para buscar una respuesta a los límites de conectividad de los ordenadores, así como al límite de velocidad que tienen los puertos RS-232 y los puertos paralelos LPT.

El puerto USB tiene entre sus ventajas, además de una mayor velocidad de transmisión, el que a través del mismo puerto se pueden alimentar periféricos de bajo consumo (incluso un escáner, un disco duro externo, etc.). También es posible conectar en teoría hasta 127 periféricos al mismo puerto (con concentradores alimentados intermedios), aunque en este caso hay que contar los concentradores como periféricos.

El tipo de conector estándar en el ordenador es el denominado tipo A con 4 contactos, dos para datos y dos para alimentación, pero en la conexión al periférico no hay ningún estándar, habiendo multitud de tipos diferentes de conectores, si bien el más utilizado es el tipo B. También son muy utilizados los tipos Mini USB y Micro USB, este último sobre todo en teléfonos móviles.

En cuanto a las capacidades y tipos, tenemos varios tipos diferentes de puertos USB:

USB 1.1:, ya prácticamente en desuso, que presentaba dos velocidades de transmisión diferentes, 1.5Mb/s para teclados, ratones y otros dispositivos que no necesitan mayores velocidades, y una velocidad máxima de 12Mb/s.

USB 2.0:, aparecido en abril de 2.000 ante la necesidad de una mayor velocidad de transmisión, llegando esta hasta los 480Mb/s teóricos (en la práctica es muy difícil alcanzar esa velocidad).

Page 79: Curso de arquitectura

Vista de placa base con 4 puertos USB

Conectores USB tipo A y tipo B.

PUERTOS IEEE 1394 O FIREWIRE.

Este tipo de puerto fue inventado por Apple a mediados de los años 90 para solucionar el problema de conectividad y velocidad que existía incluso con el USB 1.1.

Tiene la posibilidad de conectar en el mismo bus hasta 63 dispositivos y es totalmente compatible tanto con Mac como con PC, permitiendo incluso la interconexión de ambos.

El IEEE 1394 trabaja a una velocidad de 400Mb/s y permite la alimentación de dispositivos con un consumo superior al permitido por el USB 2.0 (hasta 45w).

Esta velocidad en teoría es inferior a la ofrecida por el USB 2.0, pero en la práctica es algo mayor, y sobre todo más estable, lo que hace del IEEE 1394 el puerto ideal para la conexión de dispositivos de vídeo al ordenador.

En cuanto a los conectores, existen dos versiones. Una de 6 contactos (4 de datos y 2 de alimentación) y otra de solo 4 contactos, en la que se han eliminado los contactos de alimentación. En lo referente a la forma de estos ocurre algo muy similar a lo que comentábamos en los puertos USB. Si bien el conector al PC está algo más estandarizado, en lo referente al conector de los dispositivos existen cientos de tipos diferentes, dependiendo el casi todos los casos del diseño que hayan querido darle el fabricante de este.

Page 80: Curso de arquitectura

Puerto Firewire en placa base.

PUERTO IrDA (INFRARROJOS).

Los puertos IrDA se utilizan para comunicación inalámbrica entre los dispositivos y el ordenador. Su creación de debe entre otros a HP, IBM y Sharp.

Soporta unas velocidades de entre 9600Bps y 4Mbps en modo bidireccional, por lo que su uso es bastante amplio, si bien el más extendido quizás sea la conexión entre teléfonos móviles, tanto entre sí como con ordenadores.

Su uso está siendo abandonado poco a poco en favor de los dispositivos BlueThooth, ya que los dispositivos IrDA presentan una serie de inconvenientes que se han superado con la tecnología BlueThooth.

Entre estos inconvenientes cabe destacar que ambos objetos (transmisor y receptor) deben estar viéndose, en un ángulo máximo de 30º y a una distancia no superior a un metro.

Este tipo de puertos es más habitual en ordenadores portátiles que en ordenadores de sobremesa, en los que se suelen usar adaptadores USB IrDA.

Page 81: Curso de arquitectura

Puerto IrDA en un portátil y adaptador IrDA - USB.

CONEXIONES ETHERNET (RJ-45).

Este tipo de conexión presente hoy en día en la práctica totalidad de las placas base a la venta, y por consiguiente en los ordenadores que se venden, siendo muy utilizado para las conexiones a Internet por router.

Este tipo de conexiones recibe el nombre de la tecnología empleada en este tipo de conexiones, cuyo uso principal son las conexiones de red, aunque también se pueden usar para conectar dispositivos que trabajen bajo el estándar IEEE 802.3. De entre estos dispositivos, quizás el que puede resultar más familiar son las impresoras con conexión de red.

Conectores Ethernet.

CONECTORES PS/2.

Los ordenadores suelen tener dos conectores PS/2 dedicados, uno para el teclado (comúnmente de color violeta claro) y otro para el ratón (que suele ser verde claro). Estos conectores fueron introducidas en el año 1.987 por IBM y se han convertido en los conectores estándar para este tipo de dispositivos, en sustitución de los conectores DIN para teclado y de los puerto serie para ratón.

Page 82: Curso de arquitectura

Conectores PS/2. Observen la diferencia de color.

AMD vs. INTEL. ¿David contra Goliat o simple cuestión de imagen?

En este artículo solo se pretende dar un repaso a lo que ofrecen ambas compañías en el mercado de los microprocesadores para ordenadores (hacerlo del todos sus productos sería una labor bastante ardua), no decidir cual es el mejor. Aclarar que el poner delante a AMD es solo por una cuestión de ordenamiento alfabético. Lo que si quiero decir es que en cuanto a calidad de fabricación ambas compañías son compañías de primer nivel, con una muy alta calidad en los dos casos, por lo que esto no puede ser motivo de elección entre una u otra.

Vamos a ver primero algo sobre ambas compañías:

AMD (Advanced Micro Devices) se fundó en 1.969 en Sunnyvale (California). Es la segunda empresa productora de microprocesadores para ordenadores, por detras de INTEL.

En el año 1.982 firma un acuerdo con INTEL que duraría hasta 1.986, y que le permitia fabricar microprocesadores basados en la tecnología INTEL. Este acuerdo se rompió con la irrupción en el mercado de los ordenadores ''clónicos'' y la cada vez menor dependencia de las exigencias de IBM en cuanto a las características que debían tener los microprocesadores. Esto llevó a ambas compañías a una larga lucha legal por la ruptura de este acuerdo, siendo esta favorable a AMD en la inmensa mayoría de las ocasiones, lo que le permitió seguir fabricando microprocesadores basados en x86. En 1.994 firman un nuevo acuerdo que permite a AMD fabricar microprocesadores basados en 285, 386 y 486. Hasta ese momento, AMD no es mas que un fabricante de microprocesadores con tecnología de terceros (en este caso INTEL), pero con unos costos menores, lo que la hizo popular en muchos mercados. En 1.995 saca al mercado la serie K (el K5), que es el primer microprocesador desarrollado íntegramente por AMD, para competir con los Pentium de INTEL. Posteriormente lanzaría los K6 (1.997) y K6-2 (1.999) para competir con los nuevos P-II y P-III de INTEL. Estos micros utilizan parte de la arquitectura RISC, lo que hace que a menor velocidad de reloj las prestaciones sean superiores a las de INTEL. En 2.000 lanza al mercado los K7 (Athlon), para entrar en competencia directa con los P4 de INTEL. AMD adoptó el sistema de nombrar a sus microprocesadores por su equivalente a INTEL P4, no por su velocidad real.

Una cuestión muy importante para considerar el rendimiento de los AMD es que no son compatibles con los chipset de INTEL. Esto hizo que al principio dieran muchos problemas (sobre todo los K5) tanto de rendimiento como de fiabilidad, dependiendo sobre todo de la calidad de la placa base utilizada. No obstante a medida que fabricantes de chipset como VIA y SiS fueron desarrollando chips para estos sistemas fue aumentando tanto su rendimiento final como su fiabilidad. De echo, VIA se ha convertido en el principal suministrador de chipset, tanto para placas basadas en AMD como en placas basadas en INTEL (despues, en este caso, de la propia INTEL).

Page 83: Curso de arquitectura

En el año 2.003 compró Geode (la antigua Cyrix), lo que propició que en 2.004 AMD sacara la gama GEODE de microprocesadores de bajo consumo para equipos integrados.

Es el mayor productor mundial de chips para TV, consolas y móviles

Tiene fábricas en Singapur y en Dresden (Alemania).

INTEL (Integrated Electronic) se fundó en 1.968 en Santa Clara (California). Es la primera empresa productora de microprocesadores para ordenadores del mundo, si bien sus diferencias han bajado en los últimos años (llegó a ser del 85% en 1.995) con respecto a AMD. Comparte el honor, junto con Texas Instruments (los expertos no se ponen totalmente de acuerdo sobre este punto) de ser el creador del primer microprocesador del tipo x86 para ordenadores, en 1.971. De todos es conocida la trayectoria de INTEL como creador y fabricante de microprocesadores. Hagamos una reseña de los principales micros.

1971.- Intel 4004. Fue el primer microprocesador comercial, salió al mercado el 15 de noviembre de 1971. 1974.- Intel 8008. 1978.- Intel 8086. 1979.- Intel 8088. 1982.- Intel 80286. 1985.- Intel 80386, AMD 386. 1989.- Intel 80486, AMD 486. 1993.- Intel Pentium, AMD K5. 1995.- Intel Pentium Pro. 1997.- Intel Pentium II, AMD K6. 1999.- Intel Pentium III, AMD K6-2. 2000.- Intel Pentium 4, Intel Itanium 2, AMD Athlon XP, AMD Duron. 2004.- Intel Pentium M. 2005.- Intel Pentium D, Intel Extreme Edition con hyper threading, Intel Core Duo, AMD Athlon 64, AMD Athlon FX. 2006.- Intel Core 2 Duo, Intel Core 2 Extreme, AMD Athlon 64 X2. 2007.- Intel Core 2 Quad, AMD Quad Core.

En el año 2.005 llegó a un acuerdo con Apple para suministrar microprocesadores P-4 para los nuevos Mac.

INTEL tiene registradas más de 300 patentes de componentes relacionadas con el mundo de los ordenadores, entre las que están el bus PCI, AGP, USB y PCIexpress.

INTEL tiene fábricas repartidas por el sudeste asiático y Filipinas.

SUS PRODUCTOS

Tanto AMD como INTEL tienen una gama lo suficientemente amplia como para satisfacer cualquier necesidad. Desde procesadores de bajo costo y un solo núcleo, aunque compatibles en ambos casos con 64bits y velocidades de mas de 3Ghz (Sempron de AMD y Celeron D en el caso de INTEL) hasta procesadores de doble núcleo y procesadores para servidores de doble núcleo y cuádruple nucleo (AMD Opteron e INTEL Xeon), pasando por la gama específica de bajo consumo para portátiles (Turion en AMD y serie M o Mobile en INTEL). En este tutorial nos vamos a centrar en los microprocesadores para ordenadores de sobremesa. Vamos a analizar las opciones que tenemos. Lo primero que vemos es un exceso de oferta (26 en el caso de AMD y 51 en el caso de INTEL), a lo que hay que añadir en el caso AMD 5 microprocesadores Sempron con socket 754 (para ensambladores de PC de bajo costo) y 4 Athlon XP64 con socket 939 y en el caso de INTEL un mayor número de series de producción (Celeron D, Pentium D, Extreme Edition, Core 2 Duo, Core 2 Duo Extreme Edition). Esto hace que la gama de posibilidades sea muy amplia en ambas marcas, pero también que sea cada vez más dificil para el usuario saber cual es el micro que necesita. Antes de continuar quisiera hablar de un mito que se mantiene y que en la actualidad no es real en absoluto, siendo además una de las razones que muchos argumentan en contra de AMD. Los micros de AMD se calientan mucho más que los de INTEL. Esto era muy cierto en los K5 y K6, hasta el punto de incorporar una chapa disipadora en el micro, y cierto en los primeros K7. Dejó de ser cierto con la salida de los Athlon XP, que trabajan prácticamente a la misma temperatura que los INTEL y es falso con los nuevos procesadores XP64 de un núcleo y de doble núcleo, que trabajan a las mismas temperaturas que los INTEL, con una temperatura de trabajo en el caso de los X2 de 65w de entre 28º y 35º, superando solo cuando se les exige un gran rendimiento (y consumo) los 40º-45º.

Page 84: Curso de arquitectura

CARACTERISTICAS PRINCIPALES DE CADA FABRICANTE.

AMD La principal característica de los procesadores AMD de un solo núcleo es que, gracias a su tecnología, consigue unos rendimientos similares a los de INTEL, pero con una velocidad de reloj bastante menor y con una memoria caché tambien menor. La proporción en el rendimiento y la velocidad de reloj esta aprox. en 1:1.60. Esto quiere decir que para obtener el rendimiento de un P4 a 3800Mhz, un Athlon XP64 3800+ trabaja a 2400Mhz. Esto ha motivado que, por razones comerciales, AMD denomine sus micros en relación a su rendimiento comparado con INTEL, no por su velocidad real de reloj. Tienen también una mayor velocidad FSB (entre los 1600Mhz de los Sempron y los 2000Mhz del resto de la gama, frente a los 1066Mhz de los INTEL de mayor velocidad) y una característica muy importante, y es que la memoria RAM está gestionada directamente por el microprocesador, y no por el NorthBridge, lo que hace que tanto la utilización como el acceso y la gestión de esta sea más rápido que en el caso de INTEL. Esto supone una cierta ventaja en los procesadores de un solo núcleo, pero... ¿lo es también para los de doble núcleo?. Pues la verdad es que no. En los procesadores del tipo Dual Core, AMD se ve penalizada por su menor memoria caché, sobre todo en aplicaciones que hacen mucho uso de esta. Al final veremos algunos resultados basados en tests Benchmark.

La gama de AMD consta de las siguientes famílias:** **Datos extraidos de la web de AMD (www.amd.com)

Athlon 64 (un núcleo). 3500+, 3800+ y 4000+, con una frecuencia de reloj de 2.2Ghz, 2.4Ghz y 2.6Ghz y una caché L1 de 128Kb (64Kb para instrucciones y 64Kb para datos) y L2 de 512 a 1Mb y 2000FSB

Athlon 64 x2 (doble núcleo). 3600+ a 6000+, con una frecuencia de relog de entre 1.9Ghz y 3.0Ghz x núcleo, y una caché L1 de 128Kb (64Kb para instrucciones y 64Kb para datos) y L2 de 512 a 1Mb x núcleo y 2000 FSB

Athlon 64 FX FX64.- 2 x 2.8Ghz, Caché L1 de 256Kb y L2 de 2Mb. y un banding al sistema de 8.0Gb/s a 2000Mhz y a la memoria de 12.8Gb/s a 800Mhz. FX70.- 4 x 2.6Ghz, Caché L1 de 512Kb (256Kb x procesador) y L2 de 4Mb (2Mb x procesador). y un banding al sistema de 8.0Gb/s a 2000Mhz y a la memoria de 12.8Gb/s a 800Mhz x procesador (un total de 33.6Gb/s). FX72.- 4 x 2.8Ghz, Caché L1 de 512Kb (256Kb x procesador) y L2 de 4Mb (2Mb x procesador). y un banding al sistema de 8.0Gb/s a 2000Mhz y a la memoria de 12.8Gb/s a 800Mhz x procesador (un total de 33.6Gb/s). FX74.- 4 x 3.0Ghz, Caché L1 de 512Kb (256Kb x procesador) y L2 de 4Mb (2Mb x procesador). y un banding al sistema de 8.0Gb/s a 2000Mhz y a la memoria de 12.8Gb/s a 800Mhz x procesador (un total de 33.6Gb/s). Los FX70, FX72 y FX74 utilizan el nuevo socket F (1207FX), exclusivo para estos procesadores. A diferencia de los Quad de INTEL, no se trata de un procesador con 4 núcleos, sino de la unión de 2 procesadores de doble núcleo, trabajando sincronizados.

Todos los procesadores AMD cuentan con HyperTransport de 2000Mhz full duplex, gestor integrado de memoria de 128bits + 16bits ECC, con un banding total al sistema de 18.6Gb/s. (20.8 en los Athlon 64 x2 Y FX64 y de de 33.6en los FX70, FX72 y FX74)), NorthBridge integrado, con una ruta de datos de 128 bits para la frecuencia del núcleo del procesador, Cool'n'Quiet, AMD64, instrucciones 3D y multimedia y protección mejorada antivirus. AMD se ha decantado por el socket AM2, de 940 pines, diseñados para el uso de memórias DDR2, y solo mantiene algunos Sempron de bajo precio en socket 754 y unos pocos en socket 939 (para memorias DDR), destinados a desaparecer.

Veamos algunas de estas tecnologías: Hypertransport.- Es un vínculo punto a punto de baja latencia y alta velocidad. Aumenta la velocidad de comunicación entre los diferentes circuitos del ordenador (NorthBridge, SouthBridge, memoria...), reduciendo el número de buses y cuellos de botella y dando un mayor ancho de banda. AMD64.- Permite la información simultanea en 32 y 64 bits sin pérdida de rendimiento. AMD Virtual.-Extensión para la ejecución de programas virtuales. Trabaja con programas tales como Microsoft Virtual PC y Microsoft Virtual Server. Cool 'n' Quiet.- Regula la frecuencia del microprocesador en relación a la potencia requerida. Reduce el consumo, la generación de calor y, por consiguiente, el ruido generado, al permitir que los ventiladores giren a menor velocidad cuando no sea necesario su máximo rendimiento. Protección mejorada antivirus.- Esta protección funciona solamente con Windows XP SP2, Linux, Solaris y BSD Unix. Separa parte de la memoria RAM, designando esas áreas separadas como ''solo datos'', haciendo que en esas áreas solo se pueda leer y escribir, pero NO ejecutar los códigos que contengan.

Page 85: Curso de arquitectura

Instrucciones 3D y multimedia.- Los procesadores ADM son compatibles con las instrucciones AMD 3DNow!, MMX, SSE, SSE2 y dependiendo del procesador SSE3.

INTEL No hay que olvidar que hablamos de la primera empresa fabricante de microprocesadores, con una gama de productos amplísima (quizás excesivamente amplia), sobre todo en denominaciones de familias, lo que ya de por si hace un poco dificil decidir cual es el microprocesador que deseamos o necesitamos. Son micros muy rápidos y con bastante memoria caché (el doble que los AMD). Además de procesadores, fabrica también chipset y placas base específicamente adaptados a sus productos. La unión de estos hace que sean conjuntos con un gran rendimiento. INTEL siempre a nombrado a sus micros por la velocidad de reloj, pero últimamente ha abandonado esta practica para nombrarlos por sus respectivas claves, lo que hace aun mas dificil su identificación.

En general podemos guiarnos por la siguiente tabla:** **Datos extraidos de la web de INTEL (www.intel.com/espanol/).

Procesadores P4 de un núcleo. 521 a 551.- Procesadores con Hyper Threading, entre 2.8Ghz y 3.4Ghz 630 a 670.- Procesadores con Hyper Threading y SpeedStep, entre 3.0Ghz y 3.8Ghz

Procesadores Pentium D (doble núcleo). 805.- Procesador con 800 FSB, sin SpeedStep, de 2.66Ghz, con 2x1Mb L2. Tec. 90 nm 820.- Procesador con 800 FSB, sin SpeedStep, de 2.80Ghz, con 2x1Mb L2. Tec. 90 nm 830 y 840.- Procesadores con 800 FSB, con SpeedStep, de 3.0Ghz y 3.2Ghz, con 2x1Mb L2. Tec. 90 nm 915 a 960.- Procesadores con 800 FSB, con SpeedStep, de 2.80Ghz a 3.60Ghz, con 2x2Mb L2. Tec. 65 nm

Procesadores Pentium Extreme (duble núcleo). 840.- Procesador con 800 FSB, con Hyper Threading, de 3.20Ghz, con 2x1Mb L2. 955 y 965.- Procesador con 1066 FSB, con Hyper Threading, de 3.46Ghz y 3.73Ghz, con 2x2Mb L2.

Procesadores Core 2 Duo (doble núcleo). T5500 y T5600.- Procesadores con 667 FSB, con SpeedStep mejorada, de 1.66Ghz y 1.83Ghz, con 2Mb L2 compartida. T7200 a T7600.- Procesadores con 667 FSB, con SpeedStep mejorada, de 2.00Ghz a 2.33Ghz, con 4Mb L2 compartida. E4300.- Procesador con 800 FSB, con SpeedStep mejorada, de 1.80Ghz, con 4Mb L2 compartida. E6300 a E6700.- Procesadores con 1066 FSB, con SpeedStep mejorada, de 1.86Ghz y 2.66Ghz, con 4Mb L2 compartida.

Procesador Core 2 Quad (cuádruple núcleo). Q6600.- Procesador con 1066 FSB, con SpeedStep mejorada, de 2.40Ghz x núcleo, con 2x4Mb L2 Inteligente.

Procesadores Core 2 Extreme. X6800.- Procesador con 1066 FSB, con SpeedStep mejorada, de 2.93Ghz x 2 núcleos, con 4Mb L2 compartida. Q6700.- Procesador con 1066 FSB, con SpeedStep mejorada, de 2.66Ghz x 4 núcleos, con 2x4Mb L2 Inteligente.

Al margen de que el Quaq y los Core 2 Extreme deben ser auténticas bombas, como puede observarse, tanto lo variado de la gama como el tener procesadores con similares velocidades de reloj en varias famílias y variedad de FSB puede llegar a hacer bastante complicada la labor de decantarnos por uno u otro procesador. A esto además hay que añadir que no siempre una aparente superioridad de un procesador sobre otro implica un mejor rendimiento. Como dato baste decir que un P4 478 a 3.0Ghz tenia un rendimiento superior a los P4 630 y 631, también de 3.0Ghz.

Los procesadores INTEL actuales van todos sobre socket LGA775 y soportan tanto memorias DDR como DDR2.

En cuanto a las tecnologías empleadas por INTEL, veamos unas cuantas. Hiper Threading.- Consiste en el uso de dos procesadores lógicos a partir de un solo procesador físico, permitiendo la ejecución de instrucciones en paralelo. Necesita tanto software como hardware diseñado para su uso. Consigue una mejora en el rendimiento de aprox. un 20-25% sobre el mismo procesador sin esta tecnologia.

Page 86: Curso de arquitectura

INTEL64.- Conjunto de extensiones de 64bits. Muy similar (casi identico) a AMD64. INTEL VT (Tegnología Intel de Virtualización)l.-Extensión para la ejecución de programas virtuales. Trabaja con programas tales como Microsoft Virtual PC y Microsoft Virtual Server. SpeedStep.- Regula la frecuencia del microprocesador en relación a la potencia requerida. Reduce el consumo, la generación de calor y, por consiguiente, el ruido generado, al permitir que los ventiladores giren a menor velocidad cuando no sea necesario su máximo rendimiento. Bit de desactivación de ejecución.- Protección contra ataques maliciosos. Funciona exactamente igual que la protección mejorada antivirus de AMD. Funciona con un SO compatible con esta tecnología (aunque INTEL no señala ninguno en concreto). Instrucciones 3D y multimedia.- Los procesadores INTEL son compatibles con las instrucciones MMX, SSE, SSE2 y dependiendo del procesador SSE3.

Bien. No debe extrañarnos las similitudes entre ambas marcas (caracteristicas con distinto nombre pero con identicos desempeños y resultados), lo que hace pensar en algún tipo de acuerdo de desarrollo entre ambas.

¿Por cual decidirnos?. La cuestión no tiene una facil respuesta, ya que en la practica no hay grandes diferencias en prestaciones ni en consumos (tanto AMD como INTEL estan sobre los 65w), ni en temperatura generada (y menos con las funciones Cool'n'Quiet y SpeedStep activadas). Gran parte de las diferencias en el rendimiento las vamos a encontrar principalmente más en la placa base y memorias que usemos, asi como en el resto de elementos, que en el procesador en si, y sobre todo, en las necesidades de memoria caché del software en cuestión.

En una prueba Benchmark realizada entre varios procesadores AMD e INTEL vamos a escoger el AMD5200+ (2.66Mhz x núcleo) y los INTEL E6600 (2.44Mhz x núcleo) y E6700 (2.66Mhz x núcleo), con una caché L2 en el caso de AMD de 1Mb x núcleo y de 4Mb compartida en el caso de INTEL. Estas pruebas toman como base 100 el procesador INTEL Pentium D 805 (2.66 Mhz, FSB 800Mhz y 2x1Mb de caché L2)

3D y renderización: AMD 5200+ - 150 INTEL E6600 - 178 INTEL E6700 - 195

CAD: AMD 5200+ - 152 INTEL E6600 - 148 INTEL E6700 - 162

Compilación: AMD 5200+ - 200 INTEL E6600 - 210 INTEL E6700 - 234

Procesos con muy poco requerimiento de caché: AMD 5200+ - 161 INTEL E6600 - 157 INTEL E6700 - 173

Procesamiento fotográfico: AMD 5200+ - 135 INTEL E6600 - 152 INTEL E6700 - 165

Compresión/descompresión: AMD 5200+ - 152 INTEL E6600 - 181 INTEL E6700 - 193

Procesamiento de audio: AMD 5200+ - 160 INTEL E6600 - 171 INTEL E6700 - 193

Procesamiento de vídeo: AMD 5200+ - 148 INTEL E6600 - 172 INTEL E6700 - 190

Page 87: Curso de arquitectura

Juegos 3D: AMD 5200+ - 168 INTEL E6600 - 181 INTEL E6700 - 196

Media uso profesional: AMD 5200+ - 164 INTEL E6600 - 176 INTEL E6700 - 195

Media uso doméstico: AMD 5200+ - 155 INTEL E6600 - 177 INTEL E6700 - 195

Media total (uso profesional y doméstico): AMD 5200+ - 160 INTEL E6600 - 167 INTEL E6700 - 195

Eficiencia x Mhz: AMD 5200+ - 57.14 INTEL E6600 - 73.75 INTEL E6700 - 73.31

De esto se deduce algo que ya se venía diciendo: Que INTEL es superior a AMD, mas que nada por la mayor caché de los procesadores INTEL, superando AMD a INTEL (E6600) en procesos CAD y procesos con muy poco requerimiento de caché. Observamos también que el E6600 supera en general al AMD 5200+ por muy poco (algo menos del 5%), yéndose este porcentaje a cerca del 22% en el caso del E6700. Resulta también curioso que el E6600 sea el más eficiente de los tres en relación a su velocidad de reloj, quedando muy penalizado el AMD por su baja caché. Aqui surge una pregunta. ¿Como quedaría esta comparativa con un 5200+ de igual caché a INTEL?. Pero quedan dos interrogantes mas fáciles de responder (al menos en teoría). La primera es si esta diferencia es apreciable para el usuario medio (no tanto en el caso del E6700 como en el del E6600). La segunda es quizás más importante: ¿Compensa esta diferencia de rendimiento (que conste que hablamos de unos rendimientos muy altos en ambos casos) una diferencia en precio en torno al 40% en el caso del E6600 y del 96% en el caso del E6700? Estamos hablando de 99.00 euros y de 236 euros de diferencia, lo que no es poco.

Conclusión Pues bien. Después de todo esto, seguimos con la misma duda ¿AMD o INTEL?. Los dos fabrican con la misma calidad, con un consumo prácticamente igual y unas temperaturas de funcionamiento también iguales. INTEL ofrece un mayor rendimiento comparando micros de igual velocidad (por supuesto nos referimos a los Core 2 Duo y superiores, en el resto de la gama es al contrario), pero solo cuando se le exige el máximo, ya que las diferencias en general no son demasiado altas y se salen de las prestaciones que va a necesitar el usuario medio. Lo cierto es que este extra de rendimiento nos cuesta un dinero (bastante), que es al final lo que debemos decidir, si para nuestras necesidades nos compensa ese desembolso extra.

INSTALACION DE UNA UNIDAD DE CD/DVD.

Este tutorial es válido para unidades ópticas, tanto lectoras como regrabadoras, ya que el proceso de montaje es el mismo. Las unidades lectores y regrabadoras de CD y DVD son unidades ópticas, normalmente ATAPI (las hay también SATA). En un principio las había también SCSI, pero a medida que el rendimiento de los ATA/ATAPI fue creciendo se dejaron de comercializar, al no salir rentables en cuanto a precio y no suponer ninguna mejora sobre las ATAPI.

Lo primero que debemos recordar es que CUALQUIER operación que efectuemos sobre el hardware de nuestro ordenador lo debemos hacer con este apagado y desenchufado de la toma eléctrica. Asimismo es conveniente desconectar también la clavija del monitor.

Page 88: Curso de arquitectura

Imagen de regrabadora de DVD.

Antes de colocar la unidad en la caja debemos hacer un par de comprobaciones y configuraciones. Si bien estas configuraciones se pueden hacer una vez puesta la unidad en la caja, es bastante mas fácil hacerlas antes. Habitualmente, las unidades lectoras y regrabadoras de CD/DVD son unidades ATAPI, conectadas a un puerto IDE, por lo que debemos tener en cuenta las características de estos. En la parte posterior de la unidad nos encontramos con varios conectores. Un conector de 4 pines anchos, que es el conector de alimentación, un conector IDE (de 40 pines, con el pin 20 quitado), uno o dos conectores de salida directa de sonido (normalmente una analógica y otra digital) y una batería de tres puentes (6 pines) de configuración de la unidad. Las opciones de esta batería de pines son las siguientes:

CS o Cable Selec (Selección Cable). SL o Slave (Esclavo). MA o Master (Maestro).

Vista de la parte posterior de una unidad DVD, donde se muestran los diferentes conectores y serie de Jumpers. A la derecha,

Page 89: Curso de arquitectura

configuración de los Jumpers.

Esta configuración es muy importante, ya que una característica de los puertos IDE es que solo admiten un Master y un Slave por puerto. Además, para un correcto rendimiento de la unidad también debemos recordar que los puertos IDE no pueden hacer simultáneamente nada mas que una operación (ya sea lectura o escritura). Esto quiere decir que con dos unidades en el mismo IDE, por ciclo de reloj hace una operación de lectura en una unidad y en el siguiente hace una operación de escritura en la otra. Las placas modernas si permiten efectuar dos operaciones simultáneamente, pero en IDE's diferentes (leer en el IDE1 y escribir en el IDE2 a la vez o viceversa). Dependiendo del número de unidades que pongamos en un mismo IDE podemos hacer varias combinaciones con estos pines. Partimos de la premisa de que el disco duro (IDE) que tiene el SO debe estar en el IDE1 como Master, a continuación vamos a ver algunos ejemplos.

Disco duro y unidad en el mismo IDE: En este caso debemos configurar la unidad como Slave. Unidad lectora y unidad regrabadora: En este caso es conveniente tener la unidad lectora como Slave en el IDE1, junto al disco duro, y la unidad regrabadora como Master en el IDE2. Una sola unidad en el IDE2: En este caso configuraremos la unidad como Master y la conectaremos al IDE2. Dos discos duros y dos unidades: La colocación en este caso puede ser la siguiente: En el IDE1 conectamos el disco duro que contenga el sistema (como Master) y la unidad lectora. En el IDE2 conectamos el otro disco duro y la unidad regrabadora. En este caso es indiferente cual sea el Master y cual el Slave.

Imagen de como queda una instalación con una sola unidad(en este caso, como slave en el IDE1) y con dos unidades (mastrer y slave en

el IDE2). Observar como queda el hilo de color junto al molex de conector de alimentación.

Casi todas las placas modernas permiten además la configuración como Cable Selec, a condición de que las dos unidades que estén conectadas al mismo IDE estén configuradas como CS.

Page 90: Curso de arquitectura

Esta es la teoría. En la practica, con las cajas actuales no encontramos con el problema de la distancia que suele haber entre la bahía interna de 3 1/2 para colocar el (los) disco(s) duro(s) y las bahías de 5 1/4. Esto en casi todos los casos nos obliga a colocar en el IDE1 el (los) disco(s) duro(s) y en el IDE2 las unidades lectora y regrabadora.

Bien, vamos ahora por las distintas posibilidades que nos podemos encontrar con los conectores IDE en la placa base:

A) Placa base con dos conectores IDE: Esta, hasta hace muy poco, era la configuración mas habitual. Para esta configuración es totalmente aplicable lo explicado anteriormente.

Imagen de placa base con dos conectores IDE.

B) Placa base SATA con tres conectores IDE: Algunas placas tienen tres conectores IDE, pero lo mas normal es que dos de ellos (IDE1 e IDE2) sean RAID dedicado, lo que significa que estos IDE NO admiten unidades ópticas (ATAPI), en cuyo caso debemos conectar las unidades ópticas en el tercer IDE.

Page 91: Curso de arquitectura

Imagen de placa base con tres conectores IDE (observar los IDE1 e IDE2 en rojo (RAID).

C) Placa base con un solo conector IDE: Esta viene siendo la configuración mas utilizada en la actualidad, por lo que si tenemos dos unidades ópticas deben ir evidentemente el ese IDE. La configuración puede ser una de ellas como Master y la otra como Slave o las dos como Cable Selec.

Imagen de placa base con un solo conector IDE.

La instalación física de la unidad en nuestro ordenador es fácil. Abrimos la caja, preparamos la bahía de 5 1/4 en la que vamos a colocar la unidad quitando el embellecedor de plástico y en algunas ocasiones la chapa interna metálica (en algunas cajas es necesario desmontar el frontal). Una vez realizada esta operación, metemos la unidad en la bahía y la atornillamos al chasis. Este es un elemento que suele soportar bastante velocidad de giro y vibraciones, por lo que es conveniente afianzarlo bien. Muchas cajas traen un sistema de guías para estos dispositivos. En esos casos ponemos las guías en la unidad y a continuación colocamos esta en el chasis.

Page 92: Curso de arquitectura

Imagen de dos cables IDE. En el de la izquierda se pueden ver los tres conectores de diferente color (azul a placa, gris en medio (slave) y

negro en el otro extrema (master). A la derecha, cable IDE redondo.

Page 93: Curso de arquitectura

Colocación de la unidad en su bahía y apriete de los tornillos.

Colocación del cable IDE en la placa base.

A continuación conectamos la faja de datos (es muy recomendable usar fajas de 80 hilos) a la(s) unidad(es). Debemos recordar que si hay un disco duro como Master, este debe situarse en el conector del extremo (no en el intermedio). En caso contrario es indiferente en que conector pongamos cada unidad. Las fajas IDE suelen traer una muesca de posicionamiento, así como el pin 20 ciego, por lo que solo nos permite insertarla en la posición correcta, pero caso de que nuestra faja carezca de estos elementos de posicionamiento, el hilo de color de la faja va al pin 1 (el primero superior justo al lado de la toma de alimentación. A continuación conectamos la faja al conector IDE correspondiente de la placa base. Una vez conectada la faja en las unidades conectamos la toma de alimentación. Esta tiene una sola postura, por lo que, salvo que la forcemos a lo bestia, es imposible que la coloquemos mal. En cuanto a la cuestión de drivers, las unidades lectoras y regrabadora NO llevan ningún controlador específico, ya que funciona con la controladora de IDE ATA/ATAPI. Esta controladora es estandar y viene integrada en Windows.

Page 94: Curso de arquitectura

Detalle del Administrador de dispositivos, donde puede verse la carga de la controladora IDE ATA/ATAPI.

Ya están en el mercado las regrabadoras SATA. La instalación de estas unidades tienen la ventaja de la facilidad de instalación en cuanto al cableado, tanto de datos como de alimentación, ya que SATA no tiene una configuración tipo Master/Slave. A esto hay que sumarle la mayor distancia posible en el cable de datos y el menor tamaño de los mismos, lo que hace que quede una instalación más limpia y más espacio libre dentro de nuestro ordenador, algo que siempre es conveniente.

COMO COLOCAR UN MICROPROCESADOR Y SU CORRESPONDIENTE DISIPADOR.

La colocación del microprocesador es una operación que si bien es muy fácil (quizás la que mas), también es muy delicada, por lo que debemos hacerla con muchisimo cuidado. Actualmente existen dos tipos diferentes de socket. SOCKET 775, que es el utilizado por INTEL y SOCKET AM2, que es el utilizado por AMD. También existe el SOCKET 939 de AMD, pero a efectos de colocación es exactamente igual que el AM2. También vamos a explicar la correcta colocación del disipador, ya que es fundamental para la instalación del microprocesador, puesto que sin este NO PODEMOS encender nuestro ordenador.

Como siempre, nos liberamos de cualquier carga estática que podamos tener (por el simple procedimiento de tocar un grifo) y tenemos sumo cuidado en no tocar ni los contactos del microprocesador ni los del zócalo.

SOCKET 775 (INTEL) A diferencia de los microprocesadores anteriores (y de los AMD), los microprocesadores INTEL actuales (para socket 775) no llevan las tradicionales patillas, sino que van con contactos, siendo el zócalo en la placa base del que tiene las patillas (en realidad no son patillas, sino otros contactos realzados que ajustan en los del microprocesador). Estos microprocesadores llevan unas muescas en los laterales que deben coincidir con las guias del zócalo.

Page 95: Curso de arquitectura

Imagen de un micro P4 775 y de su zócalo. Observar las muescas de posicionamiento

En primer lugar quitamos las protecciones del zócalo de la placa base y abrimos este.

Imagen de un zócalo de 775 abierto

A continuación hacemos lo mismo con el microprocesador, sacándolo de su estuche y quitando las alfombrillas de protección. Colocamos el microprocesador dentro del zócalo haciendo coincidir las muescas y cerramos en zócalo con la palanquita que tiene, asegurando esta en su soporte. Ya tenemos colocado el microprocesador, ahora vamos a colocar el disipador.

Page 96: Curso de arquitectura

Micro P4 775 ya colocado. Podemos observar los orificios para colocar el disipador. A la derecha podemos ver la parte inferior de un

disipador para 775 con sus enganches.

También a diferencia de otros sistemas, las placas para 775 no tienen un soporte para el disipador, sino que traen cuatro orificios donde se fija el disipador mediante unos enganches que traen estos. Quitamos en protector de plástico del disipador y comprobamos que tenga la pasta térmica. Normalmente vienen con una capa de pasta térmica que suele ser suficiente para la función que esta debe hacer, que no es otra que asegurar un correcto contacto entre la superficie del microprocesador y la del disipador. Si no tuviera pasta térmica debemos aplicársela nosotros. La cantidad que debemos poner es la señalada en la jeringuilla para una aplicación. Debemos tener cuidado con esto, ya que al contrario de lo que se pudiera creer un esceso de pasta térmica no ayuda a la refrigeración, sino todo lo contrario.

Podemos ver un disipador con su capa de pasta térmica. A la derecha, varios tubos de pasta térmica.

Page 97: Curso de arquitectura

Aplicación correcta de pasta térmica.

Visto lo anterior, ponemos el disipador sobre el microprocesador haciendo coincidir los enganches y apretamos estos hacia abajo hasta que escuchemos un clic, que indica que ha quedado enganchado. Debemos apretar estos enganches en cruz (1 - 4 - 2 - 3) para no forzar ni el disipador ni el microprocesador.

Page 98: Curso de arquitectura

Ventilador de 775 montado donde podemos ver bien los enganches del mismo.

Una vez enganchado, comprobamos que ha quedado bien sujeto y conectamos el cable del ventilador en su conector, marcado en la placa base como cpu_fam. Estos conectores pueden ser de 3 o de 4 pines, pero siempre vienen señalados los tres que debemos conectar. El cuarto es solo de control y no es imprescindible, por lo que se pueden poner tanto ventiladores con 3 pines en conectores con 4 como ventiladores con 4 pines en conectores con 3 pines.

Vista de un conector CPU_FAN y de su colocación.

SOCKET AM2 Y 939 (AMD) los microprocesadores de ADM, de momento, siguen empleando los tradicionales pines. Este sistema ha sido el empleado por todos hasta que INTEL sacó contactos en sus 775 Este sistema no es mejor ni peor, solo algo mas delicados de manipular por la posibilidad de doblar o romper un pin. Estos zócalos llevan una de sus esquinas diferenciadas para la correcta colocación del microprocesador. Una vez abierto el seguro (palanquita) del zócalo, sacamos con mucho cuidado el microprocesador de su estuche, sujetándolo por los bordes, y lo colocamos en el zócalo. Debe entrar sin hacer ninguna presión ni, por supuesto, forzarlo. Una vez en su correcta posición,

Page 99: Curso de arquitectura

ejercemos una ligera presión sobre el microprocesador y cerramos la palanquita.

Imágenes de un micro AM2 y de su zócalo. Marcada la esquina de control de posicionamiento.

Colocado el microprocesador, procedemos a la colocación del disipador. Los disipadores para AM2 y 939 tienen un enganche bastante robusto, con una palanca de fijación.

Disipador para AM2. Se aprecia la palanquita de afianciamiento.

Cogemos en disipador y le quitamos la protección que trae. Al igual que con los disipadores para 775, comprobamos que tenga la capa de pasta térmica, y caso de no tenerla aplicamos esta sobre el microprocesador. Las placas base traen un soporte específico para estos disipadores. Lo colocamos en su correcta posición, sujetamos el enganche que no trae la palanquita y a continuación el que trae esta. Una vez correctamente fijado el disipador, procedemos a afianzarlo colocando la palanquita en su posición de cierre y a conectar el ventilador en la placa base.

Page 100: Curso de arquitectura

Micro AM2 colocado. A su alrededor se observa el soporte para el disipador.

SOCKET ANTERIORES (S-A, 754, 478, ETC.) Los zócalos anteriores a los 775 y AM2 son todos del tipo de pines en el micro, por lo que el sistema de colocación el el mismo que en el caso de los AM2. Dependiendo del tipo de socket, todos tienen una forma de identificar la correcta posición del microprocesador (normalmente una o dos esquinas sin pines o en el caso de los 478 una esquina con dos pines menos). Una vez liberado el seguro del zócalo (subir la la palanquita), debemos colocar el microprocesador el microprocesador en su correcta postura SIEMPRE SIN FORZARLO, ejerciendo una vez que esté en su correcta posición una ligera presión sobre este y cerrando la palanquita. A continuación ponemos el disipador. Aquí podemos distinguir dos tipos diferentes de sujeciones. Las placas para INTEL 478 llevan un soporte específico para los disipadores con cuatro enganches. Como siempre, quitamos la protección del disipador y comprobamos que tenga la capa de pasta térmica. Si no la trae, colocamos una dosis de esta y colocamos el disipador en su correcta posición, colocando y afianzando los enganches de sujeción.

Page 101: Curso de arquitectura

Micro y zócalo P4-478. Vean el soporte para el disipador.

Disipador para zócalo 478. Se aprecian las palancas de fijación. A la derecha, este disipador por su parte inferior.

Page 102: Curso de arquitectura

El resto de los zócalos (y microprocesadores) tienen claramente señalada una o dos de las esquinas para el correcto posicionamiento de estos en el zócalo. En el resto de los zócalos la colocación del disipador es algo mas delicada, ya que los enganches de estos están integrados en el mismo zócalo. Los disipadores para estos zócalos tienen dos enganches en una placa metálica que atraviesa el disipador. uno de los extremos es fijo y el otro puede ser fijo o una pieza móvil, en ambos casos normalmente con una muesca para ayudarnos en su colocación con un destornillador de punta plana. Una vez comprobado el tema de la pasta térmica, colocamos el disipador en su correcta posición y afianzamos la sujeción fija. A continuación hacemos presión sobre la otra sujeción, ayudándonos si es necesario con un destornillador de punta plana, hasta que quede correctamente enganchada en su sitio. Debemos tener mucho cuidado de no romper las pestañas de sujeción del zócalo y de que no se nos escape el destornillador de su emplazamiento y dañemos la placa base. Como siempre, una vez comprobado que el disipador está correctamente colocado procedemos a conectar ventilador a la placa base.

Imagen de un AMD K7 y su correspondiente zócalo.

Page 103: Curso de arquitectura

Dos disipadores para zócalos del tipo anterior, en los que los enganches del disipador están en el propio zócalo. Podemos observar la

muesca para ayudarnos con el destornillador.

Page 104: Curso de arquitectura

Disipadores para socket tipo 7/A y similares. Vean el rebaje en uno de los lados para ajustar en la parte superior del zócalo.

INSTALACION DE UNA PLACA BASE:

La placa base (o placa madre, como se la designa en muchos países) es, como su nombre indica, la base a la que van conectados los demás elementos del ordenador. El sistema de placa base utilizado en la actualidad es el ATX, con sus diferentes versiones en cuanto a tamaño, que no en cuanto a prestaciones. ATX (Advanced Technology Extended) fue introducido por INTEL en 1.995 para solucionar algunos de los problemas que hasta esa fecha se presentaban. Tiene un formato estandarizado en cuanto a tamaño (305 mm de lado x 228 mm o 244 mm de fondo) y en el agrupamiento en un panel trasero de formato estandarizado de 158.75 mm x 44.45 mm, en el que se concentran los componentes I/O de la placa base (conectores PS2 para teclado y ratón, puertos USB, puertos RS-232, puerto paralelo, etc.). También sigue un patrón en la colocación de los elementos tales como micro, memorias, northbridge y southbridge. Las versiones miniATX (284mm x 208mm) y microATX (244mm x 244mm) solo se diferencian por las medidas. También está estandarizada la situación de los orificios de sujeción y el sistema de alimentación. La versión actual es la 2.2, que incluye entre otras novedades la adopción del formato de alimentación de 24 pines, en sustitución del anterior de 20 pines, así como la inclusión en todas las placas de la toma de alimentación extra de 4 pines (anteriormente solo utilizada en las placas para INTEL P4) y la incorporación de los slot PCIx 16x para tarjetas gráficas. Aun a pesar de parecer reiterativo, a la hora de colocar una placa base lo primero que debemos hacer es comprobar que trae todos los elementos que indique en la sección ''Contenido'' del manual y LEER MUY ATENTAMENTE EL MANUAL DE LA PLACA.

Imagen de placa base.

Colocación

Todas estas operaciones las haremos siempre con la caja TOTALMENTE desconectada de la

Page 105: Curso de arquitectura

electricidad. Una vez descargada la electricidad estática que pudiéramos tener (para ello basta con tocar cualquier grifo), procedemos a sacar la placa base de su embalaje y a examinarla. La colocación física de la misma en la caja no es nada complicado. Debemos poner en esta los soportes que trae para sujetar la placa base (recordar que la tornillería viene con la caja o gabinete, NO con la placa base) en los orificios correspondientes (normalmente vienen marcados).

Obsérvense los soportes para la placa base.

A continuación debemos sustituir el panel posterior de la caja por el que trae la nueva placa base.

La sujeción del panel posterior varia de una caja a otra. En este caso va atornillada, pero normalmente va troquelada.

Page 106: Curso de arquitectura

Vista de la parte posterior, ya con su correspondiente panel.

La finalidad de estos soportes (unos tornillos octogonales macho/hembra que normalmente son de latón, aunque también pueden ser de otro material) es la de sujetar la placa base a la altura indicada para las características de la caja que tengamos y evitar que la parte inferior de la placa base pudiera hacer contacto con la superficie metálica de esta en algún punto no preparado, pudiendo en ese caso ocasionar cortocircuitos con efectos no deseados, que pueden ir desde simplemente que no arranque el ordenador hasta que estropeemos la placa base. Para una mayor comodidad y seguridad, ponemos en la placa base los principales elementos (microprocesador, memorias y disipador del microprocesador) antes de introducir la placa base en la caja. Una vez montados estos elementos, procedemos a colocar la placa base en la caja. Para ello, una forma fácil de cogerla es por el disipador del microprocesador.

Instalación de la memoria.

Page 107: Curso de arquitectura

Observese la forma de cojer la placa por el disipador.

Una vez dentro, comprobamos que coinciden los orificios de sujeción con los soportes que hemos puesto y apuntamos los tornillos. A continuación procedemos a apretarlos (por supuesto sin forzarlos, pero dejándolos firmes).

Page 108: Curso de arquitectura

Apriete de la tornilleria de fijación.

Bien. Ya tenemos la placa base colocada en la caja. Ahora debemos conectarla. Para ello, y siempre guiándonos por las indicaciones del Manual de la placa base, conectamos los cables de encendido (Pwr sw), Reset, indicador de encendido (Pwr led), disco duro (HDD led) y altavoz del sistema (Speaker). Este altavoz suele ir incorporado en la caja, pero hay algunas placas que lo traen incorporado en la placa base o como un elemento auxiliar.

Colocación del cable IDE y de la grafica.

A continuación colocamos el resto de conectores que necesitemos, tales como conectores USB de la caja, cables de sonido delanteros (si la caja dispone de ellos), las fajas de la disquetera, de los IDE (tanto discos duros como unidades de DVD) y de los discos SATA (si este es el tipo de disco duro que tenemos), tarjeta gráfica y demás tarjetas que deseemos instalar. Por ultimo conectamos las clavijas de alimentación (tanto la de 24 pines como la de 4) y con esto ya tenemos instalada nuestra placa base. Solo nos queda enchufar la caja a la electricidad y probar el correcto funcionamiento de nuestro ordenador.

Page 109: Curso de arquitectura

Repito la necesidad de leer atentamente el manual de la placa base, ya que en este se indica la colocación exacta de todos estos elementos. Terminada la instalación física de la placa base, comprobamos que el SETUP nos reconoce todos nuestros discos duros, unidades ópticas y disquetera. Normalmente no hay necesidad de hacer ninguna configuración en el SETUP, salvo en ocasiones cambiar la hora por la actual, ya que suelen traer la hora del sudeste asiático. Para ello, consultamos en el Manual la forma exacta de entrar en el SETUP y la disposición del mismo. También debemos consultar, en el caso de que nuestros discos duros sean SATA, cual es la configuración que debemos darle a estos en el SETUP. Bien, si todo está correcto, ya podemos proceder a instalarle el SO (sistema operativo). En el caso de Windows, debemos configurar en el SETUP la secuencia de arranque para que en primer lugar esté el lector de DVD. Arrancamos desde este y seguimos las instrucciones de instalación. Una vez instalado nuestro SO, ejecutaremos el CD que viene con la placa base para cargar los controladores que no hayan sido reconocidos. Procederemos del mismo modo con el resto de componentes, tales como tarjeta gráfica y otros que necesiten controladores y software adicional (recordad que este hardware trae sus discos de instalación).

Sustitución de una placa base por otra.

Puede darse el caso de que necesitemos sustituir nuestra placa base actual por una nueva (bien por avería de la anterior o por querer ampliarla). El proceso es el mismo que se describe anteriormente (salvo, claro esta, que en primer lugar debemos quitar la que ya tenemos). Para quitar la que tenemos, procederemos a retirar todos los cables que estén conectados a la placa base, así como las tarjetas de expansión (gráfica, etc). que tengamos. Quitaremos los tornillos de sujeción y sacaremos la placa base con mucho cuidado de la caja. Una vez fuera, quitaremos los módulos de memoria, el disipador del microprocesador (aprovechando para hacerle una buena limpieza) y por ultimo el microprocesador. Este debemos quitarlo con sumo cuidado, procurando no tocar los pines del mismo y colocándolo sobre algún material no conductor (plástico, papel de cocina...). Podemos aprovechar para limpiar la superficie del microprocesador con mucho cuidado y retirar los restos de pasta térmica que tenga. Hay una serie de factores a tener muy en cuenta a la hora de sustituir una placa base y que debemos comprobar antes de comprarla.

Formato: Debemos comprobar que el formato cabe en nuestra caja. En una caja ATX no tendremos problemas, pero si en formato de la caja es MiniATX o MicroATX, si que no vamos a poder instalar una placa ATX (por simple problema de tamaño).

Microprocesador: Tenemos que asegurarnos de que la nueva placa base es compatible con el microprocesador que ya tenemos, tanto en formato en marca (INTEL o AMD) como en tipo de slot y velocidad.

Memoria: Ver que la nueva placa base soporte el tipo de memorias que tenemos. A este respecto, recordar que ya no hay en el mercado placas base para módulos SDRAM, por lo que si nuestra memoria es de ese tipo, muy probablemente un cambio de placa suponga también un cambio de memorias.

COMO INSTALAR UN MODULO DE MEMORIA

Vamos a ver como se instala un modulo de memoria, así como lo que tenemos que considerar al ampliar la memoria y los problemas que nos podemos encontrar.

Para empezar, vamos a ver los diferente tipos de módulos de memoria que nos podemos encontrar.

MODULOS SIMM

Page 110: Curso de arquitectura

Imagen de los dos tipos de módulos SIMM. Observese la muesca junto a los contactos para su correcta colocación.

Los módulos de memoria SIMM (Single In-line Memory Module) fueron la respuesta al problema de los chip de memoria insertados directamente en la placa base, lo que hacia muy difícil por no decir imposible el poder aumentar la memoria de un ordenador. Estos SIMM tenían 30 contactos y posteriormente 72 contactos (OJO; no confundir con los módulos DIMM de 72 contactos). Estuvieron en uso hasta la aparición de los módulos DIMM, coincidiendo estos con la aparición de los primeros Pentium de Intel y los K6 de AMD. Estos módulos tenían los contactos solo en una cara. En 30 contactos la capacidad era de 256 Kb, 1 Mb, 4 Mb y 16 Mb, con un bus de datos de 8 bits. En 72 contactos la capacidad era de 1 Mb, 2 Mb, 4 Mb, 8 Mb, 16 Mb, 43 Mb y 64 Mb, con un bus de datos de 32 bits.

MODULOS DIMM

Los módulos DIMM (Dual In-line Memory Module) son los sucesores de los SIMM. Trabajan a 64 bits y algunos a 72 bits, son memorias mucho mas rapidas que los SIMM y de mas capacidad. Todos los módulos posteriores son evoluciones de los DIMM, y por lo tanto son módulos DIMM. Hay varios tipos de módulos DIMM: Paridad. Sistema de deteccion de errores. Las memorias con paridad trabajan a 9 bits (8 de datos mas 1 de paridad). ECC (Error Correcting Code o Codigo de correccion de errores). Los módulos pueden ser ECC o Non ECC, dependiendo de que tengan este codigo o no. Este sistema ha sustituido a la paridad. Single side. Tienen los chips de memoria en una sola de sus caras Double side. Tienen los chips de memporia en las dos caras. Unbuffered. La memoria unbuffered (tambien conocida como Unregistered) se comunica directamentecon el Northbridge de la placa base, en vez de usar un sistema store-and-forward como hace la memoria Registered. Esto hace que la memoria sea mas rápida, aunque menos segura que la registered. Buffered. Los módulos del tipo buffered (tambien conocidos como registered) tienen registros incorporados en sus líneas de dirección y del control. Un registro es un área de accion temporal muy pequeña (generalmente de 64 bits) para los datos. Estos registros actúan como almacenadores intermedios entre la CPU y la memoria. El uso de la memoria registered aumenta la fiabilidad del sistema, pero también retarda mismo . Este tipo de memoria se suele usar sobre todo en servidores. No todas las placas suelen soportar estos módulos.

Los módulos SDRAM, DDR y DDR2 los podemos encontrar tanto con los chips de memoria vistos como encapsulados. Este encapsulado sirve tanto de protección como de refrigeración.

MODULOS SDRAM

Page 111: Curso de arquitectura

Imagen de un módulo SDRAM.

Los módulos SDRAM tienen 168 contactos y como puede verse en la imagen dos ranuras de posicionamiento. Se fabricaron con una frecuencia de reloj de 66, 100 y 133 Mhz y unas capacidades de entre 16 Mb y 512 Mb. Entre las principales mejoras con respecto a los módulos DIMM de 72 contactos, cabe destacar que permiten una transferencia de E/S por ciclo de reloj, sin estado de espera, contando además con la función Interleaving, que permite que 1/2 módulo empiece un acceso mientras el otro 1/2 termina el anterior.

MODULOS DDR

Imagen de dos módulos DDR. El primero es un módulo ECC, es decir, con control de errores y el segundo es un módulo Non ECC.

Los módulos DDR tienen 184 contactos. Son de la misma longitud que los SDRAM, pero como puede verse, ademas de un mayor número de contactos, tienen una sola ranura de posicionamiento.

Los tìpos de DDR son: PC-1600 DDR200 PC-2100 DDR266 PC-2700 DDR333 PC-3200 DDR400

MODULOS DDR2

Imagen de un módulo DDR2.

Los módulos DDR2 tienen 240 contactos y son un poco mas largos que los DDR. Suponen una mejora sobre DDR, multiplicando el buffer de E/S por 2 en la frecuencia del núcleo, permitiendo 4 transferencias por ciclo de reloj. Tienen un consumo de entre 0 y 1.8 voltios (mas bajo que las DDR), pero en su contra esta que tienen una latencia de casi el doble de una DDR.

Los tipos de DDR2, al día de hoy, son: PC2-3200 DDR2-400 PC2-4200 DDR2-533 PC2-5300 DDR2-667 PC2-6400 DDR2-800

MODULOS RIMM

Page 112: Curso de arquitectura

Imagen de un módulo RIMM. Observese el encapsulado de este formato..

Los módulos RIMM (Rambus Inline Memory Module) salieron al mercado como el tipo de memoria diseñado para Pentium 4. Utilizan una tegnologia denominada RDRAM, desarrollada a mediados de los 90 por Rambus Inc. Tienen 184 pines y un bus de datos de 16 bit para unas velocidades de 300MHz (PC-600), 356 Mhz (PC-700), 400 Mhz (PC-800) y 533 Mhz (PC-1066). Generaban unas muy altas temperaturas, por lo que siempre iban con difusor de temperatura (como puede observarse en la imagen). Estas velocidades eran muy superiores a los 100Mhz y 133Mhz de las SDRAM y los 200Mhz de las primeras DDR, aunque al tener un bus de solo 16 bit y unos tiempos de latencia muy altos las hace 4 veces mas lentas que una DDR actual. Rambus Inc. solo dio licencia de fabricación a algunas empresas, siendo la mas importante Samsung. A esto hay que añadir unos precios muy altos, por lo que Intel dejo de fabricar placas para estos módulos, volviendo a los SDRAM y DDR.

INSTALACION DE LA MEMORIA

Veamos ahora como instalar un módulo de memoria. El módulo de las imagenes es un DDR, pero el proceso y forma es el mismo para SDRAM, DDR y DDR2. Lo primero que tenemos que hacer, y esto es valido para cualquier componente que toquemos, es descargar la posible electricidad estática que tengamos. Para esto, lo mas facil es tocar algo metálico que tenga contacto con tierra, como por ejemplo un grifo. Debemos evitar tocar los contactos del módulo. Colocamos el dódulo en el slot correspondiente y empujamos hacia abajo con firmeza hasta comprobar que los clips de sujeccion se cierran. Comprobamos que estos clips están bien cerrados y ya tenemos el módulo colocado. Es muy impoortante hacer esta operación con mucho cuidado, ya que los slot son bastante frágiles y si desviamos el módulo hacia adelante o hacia atras corremos el riesgo de romper el slot. Es importantísimo seguir las instrcciones del manual de la placa base a la hora de poner los módulos, ya que en muchas placas el slot que debemos usar depende de la memoria que queramos poner. Esto es mas importante si cabe cuando se trata de añadir memoria a nuestro ordenador.

Observar como se afianza el módulo.

Page 113: Curso de arquitectura

Imagen de como queda una placa con dos módulos DDR puestos.

Imagen de dos pares de bancos de memorias DDR2 para Dual Channel.

Imagen de la colocación de un módulo DDR2

Consideraciones a seguir

- Como ya hemos dicho, eliminar antes de nada la electricidad estática de nuestro cuerpo. - Antes de hacer ninguna operación en nuestro ordenador, desconectarlo de la corriente. - Nunca tocar un módulo de memoria con un objeto metálico. - No colocar el modulo sobre una superficie metálica. - No forzar nunca un módulo. - Despejar bien el area de trabajo. Se tarda menos en quitar los cables que puedan estorbar que en solucionar una averia por haber forzado otro componente al intentar apartar ese mismo cable.

-Apretar con firmeza no es lo mismo que apretar fuerte. Se trata de colocar el módulo en el slot,

Page 114: Curso de arquitectura

no de incrustarlo. - Tener mucho cuidado con los componentes que haya cerca de los slot. - Es conveniente que instalemos memorias de marca. Las genericas salen bastante mas baratas, pero tambien dan mas problemas.

Incompatibilidades

Uno de los problemas con los que nos solemos encontrar cuando ampliamos la memoria es con las incompatibilidades. Estas producen efectos tales como que no arranque el ordenador, bloqueos, que no reconozca uno de los módulos o bien que solo reconozca la mitad de la memória de un modulo. - Hay placas que admiten dos tipos diferentes de módulos (SDRAM y DDR o DDR y DDR2). Esto quiere decir que podemos poner en esa placa un tipo u otro, pero lo que no podemos hacer es mezclarlos. - Siempre que sea posible debemos evitar mezclar memorias de diferentes velocidades, entre otras cosas porque las placas base tienden a ajustar la velocidad del bus de memoria la velocidad a la del módulo mas lento. - El ordenador trabajara mejor con modulos iguales en velocidad y capacidad (y a ser posible misma marca y tipo). - En el caso de necesitar mezclar memorias de diferentes capacidades debemos consultar el manual de la placa base para ver en que slot tenemos que colocar cada modulo. - No se pueden mezclar módulos ECC con Non ECC, ademas, las placas base especifican el tipo que necesitan. - En el caso de memorias en Dual Channel, los dos módulos que forman el par deben ser exactamente iguales. - No se pueden mezclar módulos Buffered con Unbuffered. - Las memorias de tipo generico (sin marca) suelen dar mas problemas de compatibilidad. Muchas veces lo barato a la larga sale caro. - Las memorias SDRAM, sobre todo las PC100, suelen dar bastantes problemas de incompatibilidad. Eso es debido a la falta de estandarizacion en las normativas y falta de controles de calidad existentes en esa epoca. Cuanto mas rapida es la memoria, mas calidad necesita (tanto en la memoria como en la placa base).

PROCESO PARA INSTALAR UN 2º DISCO DURO

Vamos a ver en este tutorial la forma de instalar un segundo disco duro, dependiendo del tipo de disco.

Para una correcta colocación de un segundo disco duro es muy importante leerse el manual de la placa base.

En primer lugar veremos como se configura un disco duro ATA/PATA (IDE). La configuración de un disco duro ATA/PATA se realiza mediante unos jumpers dispuestos en la parte frontal del disco, normalmente entre el conector de datos y el de alimentación. Este juego de jumpers tiene varias posiciones: Master, Cable Selec y un ultimo puente Limit to 32Gb, que se usa para limitar la capacidad del disco a 32Gb y poderlo usar en placas antiguas que no reconocen discos de mas capacidad. Normalmente la configuración esclavo se hace dejando todos los puentes abiertos (salvo si usamos el limitador de capacidad, en cuyo caso este debera permanecer cerrado). Esta distribución puede cambiar según la marca del disco, por lo que debemos mirar muy bien las indicaciones que ponga (suelen estar junto a los datos del disco). Debemos colocar con mucho cuidado el puente que trae en la modalidad que deseemos utilizar.

Page 115: Curso de arquitectura

Observese la leyenda de configuración de los jumpers

Los discos ATA/PATA se conectan mediante una faja de 80 hilos, en la que está marcado el hilo 1 en color. Este hilo 1 va en la posición mas cercana al conector de alimentación del disco y en la placa base en el pin del conector IDE señalado como 1 (a veces con un pequeño triángulo a modo de flecha). En general, el disco duro que actúe como Master debe ir conectado al conector del extremo opuesto de la faja al que va conectado en la placa base, quedando el dispositivo Slave en el conector intermedio. Los discos SATA tienen un cable de datos de solo 7 hilos, bastante mas estrecho.

Page 116: Curso de arquitectura

Imagenes de conectores de datos de disco duro. A la izquierda conectos IDE, donde podemos ver los terminales de diferentes colores.

Azul a placa base, gris a esclavo y negro a master. A la derecha conector de datos SATA.

Aqui podemos apreciar la diferencia entre en conector IDE y un conector SATA

Page 117: Curso de arquitectura

Conversor de alimentación molex a SATA y viosta de un conector de laimentación SATA.

Imagen de conector SATA en una placa base .

El caso de los discos SATA es diferente. Mientras que con un disco ATA/PATA el orden lo determina el puente que hagamos, en un disco SATA solo indicamos en el setup cual es el disco de arranque, pero no debemos realizar ninguna configuración en el disco. No confundir con los pines que traen los discos SATA2. Estos pines son para configurar un SATA2 (3Gb/s) como SATA1 (1.5Gb/s).

Esquema de configuración de un disco SATA

Page 118: Curso de arquitectura

Debemos colocar siempre las discos duros de forma que tengan una buena ventilación, ya que se calientan bastante, y sujetarlos firmemente al chasis de la caja (utilizar los 4 tornillos) para evitar vibraciones. Una de las causas de fallos en los discos duros es el desajuste de estos debido al esceso de vibraciones y escesos de temperatura por una mala colocación.

DISCO PRINCIPAL IDE, 2º DISCO TAMBIEN IDE

Lo primero que debemos tener en cuenta es que en un conector IDE solo puede haber dos unidades. Estas dos unidades pueden ser dos discos duros (ATA/PATA), un disco duro y un dispositivo óptico (ATAPI) o dos dispositivos ópticos. La forma correcta de instalar un segundo disco duro seria ponerlo como master en el IDE2, ya que los IDE no pueden realizar dos procesos de lectura/escritura simultáneos dentro del mismo canal. De esta forma, si además tenemos un lector de DVD y una regrabadora de DVD, quedaría de la siguiente forma: IDE1 con el disco duro principal (el que contiene el SO) como master y el lector como esclavo y el IDE2 con el nuevo disco duro como master y la regrabadora como esclavo. Esta seria la colocación ideal, pero hay que tener en cuenta que muchas veces vamos a estar limitados por la distribución física dentro de la caja de los diferentes elementos (discos duros y unidades ópticas), por lo que otra colocación serie la siguiente: IDE1 con el disco principal como master y el nuevo como esclavo y el IDE2 con la regrabadora como master y el lector como esclavo. La mayoría de las placas modernas permiten también instalar todos los dispositivos como Cable Selec y es la propia controladora a que asigna el orden de los dispositivos, teniendo en cuenta que en ese caso los dos dispositivos tienen que estar en modo Cable Selec. En este caso debemos establecer el orden de arranque en el setup. En caso de que necesitemos mas unidades IDE conectadas internamente podemos recurrir a una controladora IDE-PCI. Hay una cosa que debemos tener muy en cuenta. Si el segundo disco que queremos poner es antiguo es mas conveniente conectarlo mediante un adaptados USB (caja externa), ya que se puede ver afectado el rendimiento del ordenador.

DISCO PRINCIPAL SATA, 2º DISCO IDE

En este caso seguiremos el mismo esquema que en el caso anterior. El orden de arranque lo debemos establecer en el setup de la placa base. No todas las placas reconocen los discos SATA del mismo modo, por lo que debemos leer muy atentamente el manual de la placa base.

DISCO PRINCIPAL IDE, 2º DISCO SATA

En este caso colocaremos el disco duro principal como master en el IDE1, el lector como esclavo en el IDE1 y la regrabadora como master en el IDE2. Como en el caso anterior, el orden de arranque lo establecemos en el setup de la placa base.

DISCO PRINCIPAL SATA, 2º DISCO SATA

En este caso, dado que los discos SATA no llevan configuración física, conectaremos el disco 2º al conector SATA correspondiente y estableceremos en orden de arranque en el setup. Dado que las placas que soportan SATA suelen ser también RAID, es muy importante, si no vamos a utilizar este servicio, deshabilitarlo en el setup.

Hay varias cuestiones a tener en cuenta: - Los discos duros actuales son bastante grandes y muchas placas antiguas no los soportan (ni tan siquiera los reconocen), por lo que hay que restringirlos a 32Gb. - En placas que no soporten discos de 48 bits solo van a reconocer bien discos de hasta 127Gb. - Muchas placas actuales no soportar dispositivos ATA/PATA. El conector IDE que traen solo soporta dispositivos ATAPI (ópticos). En estas placas si deseamos colocar un 2º disco ATA/PATA debemos recurrir a una controladora IDE-PCI. - Hay bastantes placas que solo soportan discos ATA/PATA como RAID, no siendo posible conectar discos ATA/PATA como 2º disco sin este servicio. Estos conectores a su vez no suelen soportar dispositivos ATAPI. Estas placas llevan varios conectores SATA, dos conectores IDE juntos y un tercer conector IDE para los dispositivos ATAPI.

SCSI Y TIPOS DE RAID.

Page 119: Curso de arquitectura

 

            Este tutorial trata sobre la importancia del sistema SCSI, así como de que es exactamente un sistema RAID, sus tipos y para que sirven realmente.

En una época en la que estamos acostumbrados a discos duros de 350 Gb o mas, velocidades de transferencia de 300 Mb/s, discos SATA, conexiones USB, etc., olvidamos lo que era la informática hace solo unos años. Es por eso por lo que debemos recordar algunos datos para que nos sirvan de referencia.

Hasta hace tan solo unos años (bien pocos, además) un ordenador tenia pocas opciones para comunicarse con los dispositivos de almacenamiento, así como con dispositivos externos, ya sea de almacenamiento o de captura de datos. Por supuesto, ni pensar en cosas tan comunes hoy en día como puede ser un MP3 o un lápiz de memoria.

Las formas de comunicarse eran:

Para discos duros y lectores de CD internos, los conectores IDE en estándar ATA y ATAPI.

Para discos duros externos y otros periféricos se tenía que recurrir al puerto SERIE (RS-232) y al puerto PARARELO (CENTRONIC), mas conocido como puerto de impresora.

El puerto RS-232 es muy lento, por lo que prácticamente se limito su uso a la conexión del ratón, impresoras, MODEM y algún que otro periférico de uso profesional con un trafico muy pequeño de datos, tales como scanner de mano, lectores de códigos de barra, grabadoras de EPROM y poco mas.

Por otro lado, los puertos paralelos tienen una tasa de transferencia en su versión mas desarrollada (IEEE-1284, del año 1.994) de 1 Mb/s., poco incluso para un scanner de sobremesa, y no digamos para un disco duro.

En cuanto a los conectores IDE, permiten solo dos unidades por conector, no pudiendo además acceder a los dos a la vez, por lo que cuando lee en uno el otro debe permanecer inactivo. A esto hay que sumarle unas velocidades de transferencia no demasiado altas, que han ido evolucionando con el tiempo de la siguiente forma:

ATA-4, año 1.998, 33 Mb/s.

ATA-5, año 2.000, 66 Mb/s.

ATA-6, año 2.002, 100 Mb/s.

ATA-7, año 2.005, 133 Mb/s.

Tampoco la velocidad de giro y lectura de los discos duros era excepcional, ya que lo normal era una velocidad de giro de entre 4.200 rpm. Y excepcionalmente 5.400 rpm. (hace solo un par de años que están disponibles los discos IDE a 7.500 rpm. y menos aun los discos de 10.000 rpm., reservados aun a SATA y a SCSI o los rapidísimos SCSI de 15.000 rpm.). A esto debemos añadir que la distancia máxima de un cable IDE no debe superar los 46 cm.

Por todos estos motivos, y sobre todo pensando en los SERVIDORES y en estaciones de trabajo de alto rendimiento, se creo en 1.986 el estándar SCSI (Small Computer System Interface). Esta tabla explica el desarrollo de SCSI a través del tiempo.

 

TIPO                      AÑO            BUS  TRANSF. MAX.            LOG. CABLE          DISPOSITIVOS

 

SCSI 1                  1.986          8 bits              5 Mb/s.                     6 mts.                        8 disp.

FAST SCSI            1.989          8 bits            10 Mb/s.             1.5 / 3 mts.                        8 disp.

WIDE SCSI            1.989         16 bits            20 Mb/s.             1.5 / 3 mts.                      16 disp.

Page 120: Curso de arquitectura

ULTRA SCSI          1.992          8 bits            20 Mb/s.             1.5 / 3 mts.                  5 – 8 disp.

ULTRA WIDE          1.992         16 bits            40 Mb/s.             1.5 / 3 mts.                  5 – 8 disp.

ULTRA2 SCSI         1.997          8 bits            40 Mb/s.                   12 mts.                        8 disp.

ULTRA2 WIDE        1.997         16 bits            80 Mb/s.                   12 mts.                      16 disp.

ULTRA3 SCSI         1.999         16 bits          160 Mb/s.                   12 mts.                      16 disp.           

ULTRA 320             2.003         16 bits          320 Mb/s.                   12 mts.                      16 disp.           

 

            Está prevista la salida de un SCSI 620 para dentro de muy poco tiempo.

Como puede observarse, las ventajas de SCSI sobre IDE son (o al menos lo eran) enormes, teniendo en cuenta que hasta 1.998 no nos encontramos con dispositivos IDE que tengan una tasa de transferencia de 33 Mb/s., cuando en ese mismo año los dispositivos SCSI estaban sobre los 40 – 80 Mb/s. A esto hay que añadir el mayor número de dispositivos que podemos conectar y la mayor longitud del cable que podemos usar. Esto, aunque en ordenadores de sobremesa es de poca importancia, en servidores llega a ser fundamental, máxime si consideramos que hasta hace poco mas de 4 años el tamaño máximo de un disco duro era de 20 Gb. A esto hay que sumar la versatilidad en cuanto a dispositivos SCSI se refiere (discos duros, lectores y grabadoras de CD y DVD, scanner de sobremesa, impresoras) y la posibilidad de conectarlo todo en el mismo cable.

            Otra propiedad de gran interés en los dispositivos SCSI es que las tarjetas SCSI hacen un direccionamiento lógico de los discos, y no físico, por lo que eliminan las limitaciones del BIOS en cuanto a tamaño y rendimiento del disco, pasando a depender de la capacidad de la tarjeta SCSI y del slot PCI. Las nuevas tarjetas SCSI ya vienen para PCI Express.

            Las tarjetas SCSI suelen permitir conexiones tanto externas como internas, siendo las mas comunes las de 50 hilos, tanto en formato HD como en formato CENTRONIC, para SCSI 1, la Micro 68, para WIDE y SCSI 3 y la Micro D50 y micro cinta de 60 hilos para SCSI 2.

            En cuanto a la configuración de los dispositivos, no existe una configuración maestro/esclavo, tal y como la conocemos en los dispositivos IDE, sino que se le asigna a cada dispositivo una ID SCSI. Esta configuración puede ser mediante pines, mediante pulsador o automática (depende del dispositivo, marca, modelo, etc. En los sistemas antiguos, el disco de arranque debía estar configurado como ID0, pero en los sistemas modernos ya no es necesario esto. Es necesario un terminador que corte la búsqueda de dispositivos. Este puede ser independiente (se conecta a la faja) o bien estar implementado en un dispositivo. El orden entre dispositivos se establece mediante una BIOS y setup que llevan las placas SCSI.

           

                      

 

Faja SCSI                                                     Diferentes tipos de conectores SCSI                     Esquemas de conectores SCSI

 

Page 121: Curso de arquitectura

    

Controladora SCSI.                                                       Controladora PCI – SCSI 320

 

 

¿Si todo son ventajas, por qué cada vez está menos extendido, salvo para grandes servidores y sistemas RAID y por qué no se estandarizó en ordenadores de sobremesa?.

            Pues bien, existen varios motivos. En primer lugar, el costo de instalación es muy superior, así como el costo de los periféricos. Muy pocas placas base soportan SCSI de forma nativa (tan solo placas base para servidores), por lo que hay que instalar una tarjeta PCI-SCSI, que suele tener un costo bastante alto, y además un disco duro SCSI o una grabadora SCSI es bastante más cara que una IDE. Esto, con los precios actuales, nos puede parecer poco importante, pero debemos recordar que en el año 2.000 una grabadora de CD superaba las 40.000 ptas. de costo (unos 240 euros) y que un disco duro de 6 Gb. estaba sobre las 60.000 ptas. (unos 360 euros).

            Además, gran parte de las ventajas de SCSI se han superado con la tecnología actual (los discos duros SATA tienen una tasa de transferencia cuando menos igual a los SCSI), son comunes discos duros de 7.500 rpm, hasta hace poco reservados a los SCSI,  y a todos nos suena eso de poder conectar varios dispositivos externos en un solo puerto, con una tasa de transferencia bastante alta (USB 2.0, FIREWIRE), pudiendo además poner cables SATA de hasta 1 mt. de longitud, lo que es mas que suficiente para la inmensa mayoría de los ordenadores de sobremesa. La practica totalidad de las placas base actuales incorporan SATA (entro 2 y 6, dependiendo de la placa base), soportan RAID (de los tipos 0, 1, 5 y JBOD, dependiendo de la placa base), incorporan USB 2.0 y, en la gama media-alta – alta, puertos Firewire. Es por estos motivos por los que, salvo para grandes servidores, se justifica cada vez menos el empleo de discos SCSI, que si bien es cierto que son algo (muy poco) mas rápidos, son bastante mas caros.  Incluso la ventaja que supone para un servidor la posibilidad de conectar o desconectar en caliente (sin apagar el sistema) un dispositivo (que es soportado por las placas SCSI de gama alta) es algo común, tanto en USB como en SATA. Si a esto le sumamos que son ya habituales los discos de mas de 300 Gb, a unos precios mas que asequibles, tenemos los motivos por los que SCSI se ha visto relegado a su uso en servidores de alto rendimiento, sobre todo cuando queremos montar un sistema RAID con mas de 6 discos duros (no es raro en servidores que no pueden parar por una avería en un disco). Ni que decir tiene que el costo de un equipo con dispositivos SCSI y RAID de alto rendimiento es bastante alto. Una buena placa SCSI-RAID puede rondar los 650 euros (solo la placa controladora).

            Antes de seguir, para que tengamos un concepto claro de lo que en términos SCSI y RAID es caro o barato, vayan algunos ejemplos.

            Un disco duro SCSI 320 de 10.000 rpm. de 73 Gb sale por unos 210 euros aprox.. Ese mismo disco, pero de 300 Gb sale por “solo” unos 825 euros. Una controladora SCSI + RAID baratita sale por unos 300 euros, llegando en una controladora de gama mas alta, que soporte RAID de varios tipos, a los 700 euros (esto sin irnos por las mejores). Una simple faja SCSI para 6 dispositivos sale por unos 35 euros (un cable IDE 80 sale por menos de 3 euros), y por ultimo, pero no menos importante, el terminador sale por otros 38 euros aprox.

 

RAID:

 

 

Page 122: Curso de arquitectura

Controladora RAID SCSI PCI

 

 

 

            Para comprender bien la finalidad de algunos RAID debemos tener en cuenta dos datos. El primero, que RAID no se concibió como un sistema para su uso en ordenadores domésticos, sino para un entorno profesional y sobre todo para servidores. El segundo y no menos importante es le fecha en que se concibió y el material que en esa época había disponible.  Por poner un ejemplo (mas adelante explicare los diferentes tipos de RAID que hay), en el año 1.988, si necesitabas dispones de 2 Gb. de capacidad, la única forma de hacerlo era recurrir a un RAID de tipo 0 con varios discos.

RAID (Redundant Array of Inexpensive Disks, actualmente conocido como Redundant Array of Independent Disk) fue diseñado en 1.986 (aunque la idea surgio ya en 1.978) y publicado en su forma actual en 1.988. Debemos pensar que en ese año la capacidad máxima de un disco duro randota los 320 Mb. (hasta 1.992 no aparecieron los primeros discos de 1 Gb), salvo los discos duros especiales de IBM para grandes sistemas, discos de 10.8” con una capacidad de hasta 2.8 Gb, pero con un precio que superaba el millón de las antiguas pesetas y destinados además a sistemas especiales. Esto implica que en esos años, cualquier empresa que necesitara una gran capacidad de almacenamiento de datos tenia que recurrir por fuerza a sistemas RAID. Actualmente un sistema RAID se entiende como un sistema de seguridad y de integridad en sistemas informáticos (sobre todo en servidores), salvo RAID 0 y JBOD, que tan solo cumple con la finalidad ya explicada de aumentar la capacidad de almacenamiento.

Hay dos formas de implementar un sistema RAID, bien por software o bien por hardware. Un sistema RAID por software es mucho mas económico que por Hardware, pero obtendremos un rendimiento menor. En cuanto a RAID por hardware, evidentemente es mucho más costoso, pero obtendremos una mejora en el rendimiento, al descargar al sistema de buena parte de la gestión de los datos en los discos. Los RAID por hardware se suelen montar con discos SCSI, si bien están saliendo al mercado controladora RAID de alto rendimiento con discos SATA. Solo en controladoras antiguas o de bajo rendimiento encontramos RAID sobre discos IDE. El único inconveniente de un sistema RAID por hardware es (aparte del costo) que añadimos un elemento mas de riesgo al sistema (la tarjeta RAID), pero esto se subsana creando un sistema con varias tarjetas. Con esto, además de ganar en seguridad, también lo hacemos en rendimiento, y no debemos perder de vista que son sistemas pensados para su uso PROFESIONAL, en el que el costo queda relegado a un segundo plano.

La mayoría de las placas base actuales soportan RAID (bien sobre discos SATA o sobre discos IDE), pero este suele ser vía Software, encargándose la BIOS de la placa base de gestionarlo. Hay placas base de gama media-alta y alta que incorporan RAID vía Hardware incorporado en la placa base.

Los principales tipos de RAID son los siguientes:

 

RAID 0:

RAID 0 (conjunto dividido) Es el más básico de los RAID (aunque en realidad no se puede considerar como tal). No tiene control de paridad ni es tolerante a fallos, lo que no lo hace utilizable como sistema de copia de seguridad. Este sistema multiplica la capacidad del menor de los discos por el número de discos instalados (aunque con algunas controladoras de gama alta se consigue que la capacidad total sea igual a la suma de la capacidad de los discos), creando una capacidad de almacenamiento equivalente al resultado de esta operación, utilizable como una sola unidad. A la hora de usar estos discos, divide los datos en bloques y escribe un bloque en cada disco, lo que agiliza bastante el trabajo de escritura/lectura de los discos, dándose el mayor incremento de ganancia en velocidad cuando esta instalado con varias controladoras RAID y un solo disco por controladora. Estas ventajas, utilísimas hace 10 años, hoy en día son menos importantes, primero porque la velocidad de transferencia de los discos actuales (sobre todo los SATA) es lo suficientemente alta, segundo porque es mucho mas barato un disco de 300Gb que dos de 160Gb y tercero porque el mayor inconveniente de este sistema es que un error en uno de los discos hace que falle todo el sistema.

 

Page 123: Curso de arquitectura

 

Diagrama de distribución de datos en RAID 0

 

JBOD:

Al igual que RAID 0, JBOD (Just a Buch Or Drives, o solo un montón de discos) no es un RAID en el puro sentido. JBOD nos crea una sola partición en varios discos (o una sola partición a partir de varias particiones), comportándose como si fuera una sola partición. Al contrario que RAID 0 los datos no se dividen entre los discos, sino que se comporta exactamente igual que si de un solo disco se tratara, siendo el tamaño de este el resultado de la suma de los tamaños de los discos. Una ventaja de JBOD sobre RAID 0 es que si falla un disco, solo se pierde la información que contenga este, mientras que con RAID 0 el fallo en un disco supone la perdida total de datos. Al contrario que RAID 0, JBOD no aporta ninguna mejora en el rendimiento del sistema

Tanto RAID 0 como JBOD se pueden hacer con un solo disco duro o con varios, siendo una solución muy interesante cuando tenemos varios discos de poca capacidad y queremos hacer con ellos un solo disco de gran capacidad o bien cuando el sistema operativo no soporta gestionar discos de gran capacidad. En cuanto obtener una mejora significativa en el rendimiento con los discos duros actuales, tendríamos que montar un RAID por Hardware, a ser posible con una tarjeta para cada disco, por lo que el costo de esto se dispararia.

 

RAID 1:

RAID 1 (conjunto espejo) es el primer nivel de RAID autentico. Para que sea efectivo es necesario que la tarjeta RAID permita dos lecturas duplicadas por cada par duplicado y dos escrituras concurrentes separadas por cada par duplicado. En la practica esto crea discos espejo (contienen exactamente la misma información), dando una tasa de escritura igual a la de un solo disco y una tasa de lectura igual al doble de la de un disco. En el caso de fallo en uno de los discos, podemos seguir trabajando con el otro y sustituir el dañado. Además, al ser un disco espejo, igual al otro y conteniendo todos los datos, en la practica se puede utilizar este disco en un sistema sin ningún tipo de RAID. La mayor desventaja es que, debido a la alta carga de trabajo, es el más ineficaz de todos los tipos de RAID.

Page 124: Curso de arquitectura

 

 

Diagrama de distribución de datos en RAID 1

 

 

RAID 2:

Es el único  nivel de RAID que no se usa actualmente. Divide los datos a nivel de bits en lugar de a nivel de bloques, usando el código de Hamming (que permite detectar errores en uno o dos bits y corregirlos) en lugar de la paridad (que permite detectar errores en un bit, sin corregirlo) para la corrección de errores. Permite unas tasas de transferencia altísimas, pero, en teoría, en un sistema moderno necesitaría 39 discos para funcionar. 32 para almacenar los datos (código de 32 bits, 1 bit en cada disco) más 7 para la corrección de errores.

 

RAID 3:

Prácticamente no se usa. Usa una división a nivel de Bytes (1 byte = 8 bits), mas un disco de paridad.

Uno de los efectos que esto supone es que no puede atender más de una petición de información a la vez, ya que un bloque se divide entre todos los discos en la misma dirección, teniendo que activar todos los discos para escribir o leer esta información, no pudiendo atender a otra petición hasta que no termine con la anterior.

Son necesarios al menos 3 discos para implementar RAID 3.

 

Page 125: Curso de arquitectura

 

Diagrama de distribución de datos en RAID 3

 

RAID 4:

Prácticamente igual al RAID 3, pero con los datos divididos a nivel de bloque, mas un disco de paridad. Esto supone que se active un solo disco si pedimos una información que ocupe un solo bloque (o tantos discos como bloques compongan dicha información). Con controladoras que lo permitan, puede atender varias operaciones de lectura simultáneamente. También podría hacer varias operaciones de escritura a la vez, pero al existir un solo disco de paridad, esto supondría un cuello de botella.

Son necesarios, al igual que en RAID 3, al menos 3 discos duros.

 

RAID 5:

Es el mas versátil (y quizás el mas completo) de los tipos de RAID, a la vez que uno de los mas utilizados, si no el que mas. También es el nivel más eficaz, ofreciendo una gran tolerancia a fallos y una buena optimización del sistema.

Graba la información en bloques de forma alternativa, distribuida entre todos los discos. A diferencia de RAID 4, no asigna un disco para la paridad, sino que distribuye esta en bloques entre los discos, eliminando el cuello de botella que el tener un disco para la paridad supone. Si tenemos el número suficiente de discos, el rendimiento se aproxima al de RAID 0.

Son necesarios un mínimo de 3 discos para implementar RAID 5, si bien el rendimiento óptimo se alcanza con 7 discos.

 

Page 126: Curso de arquitectura

 

Diagrama de distribución de datos en RAID 5

 

RAID 6:

Similar al RAID 5, pero con un Segundo esquema de paridad distribuido entre los discos. Ofrece una tolerancia extremadamente alta tanto a fallos como a caídas de disco, reemplazando los datos prácticamente en tiempo real, pero tiene el inconveniente de que necesita unas controladoras RAID que soporten esta doble paridad, bastante complejas y muy caras, por lo que no se suele usar comercialmente.

 

RAID 0+1:

No es uno de los tipos de RAID originales, sino una mezcla de dos. Crea dos líneas de RAID 0 y un disco espejo (RAID 1). Tiene todas las ventajas de RAID 0 mas las de RAID 1, pero también los problemas de este ultimo. No tolera dos fallos simultáneos de discos.

 

RAID 1+0 o RAID 10:

Al igual que RAID 0+1, tampoco es uno de los tipos originales. Se crean múltiples discos espejo y una línea de RAID 0 sobre ellos. Es tolerante a múltiples fallos de discos, mientras uno de cada par permanezca en funcionamiento. Este sistema requiere un mínimo de dos canales RAID con dos discos cada uno. Crea una distribución de los datos igual a RAID 0 más un espejo de cada disco. Tiene las mismas ventajas y desventajas que RAID 1.

 

Page 127: Curso de arquitectura

Todas las tarjetas RAID SCSI permiten el cambio de discos “en caliente”, es decir, sin necesidad de apagar el sistema, reconstruyéndose la información del disco dañado a partir de los demás discos.

Como norma general, el mejor rendimiento en cualquier configuración RAID se consigue con discos iguales (de la misma velocidad, tasa de transferencia y capacidad).

En sistemas RAID grandes es común incorporar uno o mas discos “dormidos”, que permanecen desactivados (pero conectados al sistema), entrando en funcionamiento en el caso de fallar un disco (en la mayoría de los casos automáticamente) y reconstruyendo la información de este, así como montar el sistema RAID en una torre RAID independiente, conectada al host mediante un cable SCSI.

Como puede verse por lo expuesto, un sistema RAID a partir de nivel 3 puede llegar a ser muy costoso, pero es el precio de la seguridad en los datos.

 

Imagen de un servidor RAID para 6 discos.

                                                     

Vista de una placa base ASUS para P4 775

 

            Estamos ante el elemento más importante, junto con el microprocesador, de un ordenador y a la vez ante el que a veces le damos menor importancia. Cuando configuramos nuestro ordenador siempre nos preguntamos ¿Qué micro pondré? ¿Qué VGA? ¿Qué memoria?, incluso nos preguntamos que caja vamos a poner, pero pocas veces nos preguntamos que placa base vamos a poner, cuando de esta depende en gran medida el rendimiento posterior de nuestro ordenador.

            En este tutorial trataremos de explicar un poco los principales componentes de una placa base, así como su función.

            Cuando elegimos nuestra placa base (también llamada Placa Madre, MainBoard o MotherBoard) nos encontramos con infinidad de marcas y modelos (sin tener en cuenta, además, los diferentes sockets). Pero… ¿son iguales una a otra?. ¿Es mejor la más cara?. ¿Son iguales todas las marcas?. La respuesta a estas dudas no es tan sencilla. En principio seria NO. En las placas base si que hay una escala de precios que se corresponde con calidades y rendimientos. Usando un viejo refrán español, nadie da duros a cuatro pesetas. Este refrán es totalmente aplicable al tema que nos ocupa. 

            El formato actual de las placas base es el ATX, en sus dos versiones más extendidas. ATX (de 305 mm x 244 mm) y Mini ATX (de 284 mm x 208 mm). Ambos formatos tienen un panel trasero de formato estandarizado de 158.75 mm x 44.45 mm, en el que se concentran los componentes I/O de la placa base (teclado, ratón, puertos USB, puertos RS-232, puerto paralelo, etc.). También sigue un patrón en la colocación de los elementos tales como micro, memorias, conectores IDE, etc. que hace que queda mas

Page 128: Curso de arquitectura

despejada una vez montada que los formatos anteriores, siendo mucho mas fácil acceder a los mismos que en una placa AT.

            El formato AT (ya en desuso) tenia dos conectores de corriente de 6 pines cada uno para alimentar a la placa base, en los que se distribuían las siguientes tomas: 1 de +12v, 1 de -12v, 5 de +5v, 1 de -5v y 4 de masa, siendo la propia placa la encargada de suministrar las tensiones inferiores (3.3v, 1.5v, etc.). Este formato no permitía otro sistema de encendido y apagado del ordenador que no fuera mediante un interruptor que conectara y desconectara la fuente de alimentación.

            El formato ATX (Advanced Technology Extended) fue introducido por INTEL en 1.995 y supuso un gran avance con respecto al formato AT. Este formato tiene una toma de corriente de 20 pines, que se distribuyen de la siguiente forma: 4 de +5vdc, 1 de -5vdc, 1 de +12vdc, 1 de -12vdc, 3 de +3.3vdc y 7 de masa. Además, para las funciones ATX, tiene 1 de +5vsb, que suministra continuamente 5 voltios a la placa base (esté el ordenador encendido o apagado), 1 de PS_ON (que es el que controla el apagado y el encendido) y otro de PWR_ON, que es el que comunica a la fuente que esta encendido el ordenador. Estos tres pines son los que permiten el encendido y apagado mediante pulsador en vez de interruptor, así como mediante medios externos, como tarjeta de red, teléfono, teclado, etc. También permiten el apagado mediante software. Además tienen otra toma de corriente de 4 pines, 2 de 12v y otros 2 de masa, y en las de P4 775 y las mas recientes de AMD64, el conector es de 24 pines en vez de 20 pines, añadiendo dos pines mas de 12v y otros dos de masa.

 

 

     

Conector ATX de 20 hilos.                            Conector ATX de 24 hilos + 4 hilos

 

            La placa base tiene una serie de elementos que veremos a continuación:

 

BASE:

 

            La base propiamente dicha es una plancha de material sintético en la que están incrustados los circuitos en varias capas y los demás elementos que forman la placa base.

 

PARTE ELECTRICA:

 

            Es una parte muy importante de la placa base, y de la calidad de sus elementos va a depender en gran medida la vida de nuestro ordenador. Está formado por una serie de elementos (condensadores, transformadores, diodos, estabilizadores, etc.) y es la encargada de asegurar el suministro justo de tensión a cada parte integrante de la placa base. Esa tensión cubre un amplio abanico de voltajes, y va desde los 0.25v a los 5v.

 

BIOS:

Page 129: Curso de arquitectura

 

Chip de BIOS Award

 

            Contrariamente a lo muchos piensan, la BIOS (Basic Inpuy-Output System), o mas propiamente dicho el BIOS, no es un componente, sino un software muy básico de comunicación de bajo nivel, normalmente programado en lenguaje ensamblador (es como el firmware de la placa base), almacenado en un módulo de memoria tipo ROM (Read Only Memory – Memoria de solo lectura), que actualmente suele ser una EEPROM o una FLASH, con el fin de que pueda ser modificada mediante un programa especial por el usuario. Esta memoria no se borra si se queda sin corriente, por lo que el BIOS siempre esta en el ordenador. Algunos virus atacan el BIOS y, además, este se puede corromper por otras causas, por lo que algunas placas base de gama alta incorporan dos EEPROM conteniendo el BIOS, uno se puede modificar, pero el otro contiene el BIOS original de la placa base, a fin de poder restaurarlo fácilmente.

            Su función es la de chequear los distintos componentes en el arranque, dar manejo al teclado y hacer posible la salida de datos por pantalla y pitidos codificados por el altavoz del sistema, caso de que ocurra algún error en el chequeo de los componentes. Al encender el equipo, se carga en la RAM (aunque también se puede ejecutar directamente. Una vez realizado el chequeo de los componentes (POST – Power On Seft Test), busca el código de inicio del sistema operativo, lo carga en la memoria y transfiere el control del ordenador a este. Una vez realizada esta transferencia, ya ha cumplido su función hasta la próxima vez que encendamos el ordenador.

 

Vista del SETUP de una placa base.

 

En el mismo chip que contiene el BIOS se almacena un programa de configuración (este si modificable por el usuario dentro de una serie de opciones ya programadas) llamado SETUP o también CMOS - SETUP, que es el encargado de comunicar al BIOS los elementos que tenemos en nuestra placa base y su configuración básica. Entre los datos guardados en el SETUP se encuentran la fecha y la hora, la configuración de los dispositivos de entrada, como discos duros, lectores de cd, dvd, tipo y cantidad de memoria, orden en el que la BIOS debe buscar el código de inicio del sistema operativo, configuración basica de algunos componentes de la placa base, disponibilidad de los mismos, etc. Los datos de este programa sí se borran si la placa base se queda sin corriente, y es por ello por lo que las placas base llevan una pequeña pila tipo botón, cuya única misión es la de mantener la corriente necesaria para que no se borren estos datos cuando el ordenador esta desconectado de la corriente. En la mayoría de las placas, los condensadores se encargan también de mantener la tensión necesaria durante unos minutos en el caso de que necesitemos sustituir dicha pila

            Entre las principales marcas de BIOS se encuentran American Megatrade (AMI), Phoenix Technologies y Award Software Internacional.l.

 

CHIPSET:

Page 130: Curso de arquitectura

 

            Si definimos el microprocesador como el cerebro de un ordenador, el chipset es su corazón.

Es el conjunto de chips encargados de controlar las funciones de la placa base, así como de interconectar los demás elementos de la misma.

            Hay varios fabricantes de chipset, siendo los principales INTEL, VIA y SiS.

También NVidia está desarrollando chipset NorthBridge de altas prestaciones en el manejo de la VGA SLI, sobre todo para placas base de gama alta.

            Los principales elementos del chipset son:

NORTHBRIDGE

 

NorthBridge con disipador

           

Aparecido junto con las placas ATX (las placas AT carecían de este chip), debe su nombre a la colocación inicial del mismo, en la parte norte (superior) de la placa base. Es el chip mas importante, encargado de controlar y comunicar el microprocesador, la entrada de video AGP y la memoria RAM, estando a su vez conectado con el SouthBridge. AMD ha desarrollado en sus micros una función que controla la memoria directamente desde el micro, descargando de este trabajo al NorthBridge y aumentando significativamente el rendimiento de esta.

            Actualmente tienen un bus de datos de 64 bit y unas frecuencias de entre 400 Mhz y 1 Ghz (en las placas para AMD64). Dado este alto rendimiento, generan una alta temperatura, por lo que suelen tener un disipador y en muchos casos un ventilador.

SOUTHBRIDGE

 

SouthBridge

 

            Es el encargado de conectar y controlar los dispositivos de Entrada / Salida, tales como los slot PCI, teclado, ratón, discos duros, lectores de DVD, lectores de tarjetas, puertos USB, etc. Se conecta con el microprocesador a través de NorthBridge.

            VIA ha desarrollado en colaboración con AMD interfaces mejorados de transmisión de datos entre el SouthBridge y el NorthBridge, como el HYPER TRANSPORT, que son interfaces de alto rendimiento, de entre 200 Mhz y 1400 Mhz (el bus PCI trabaja entre 33 Mhz y 66 Mhz), con bus DDR, lo que permite una doble tasa de transferencia de datos, es decir, transferir datos por dos canales simultáneamente por

Page 131: Curso de arquitectura

cada ciclo de reloj, evitando con ello el cuello de botella que se forma en este tipo de comunicaciones, y en colaboración con INTEL el sistema V-Link, que permite la transmisión de datos entre el SouthBridge y el NorthBridge a 1.066 Mhz.

MEMORIA CACHE

 

Chip de Memoria Caché

 

            Es una memoria tipo L2, ultrarrápida, en la que se almacenan los comandos mas usados por el SO, con el fin de agilizar el acceso a estos. En la actualidad casi todos los microprocesadores llevan la memoria caché integrada.

 

SLOT Y SOCKET:

 

SOCKET

Es el slot donde se inserta el microprocesador. Dependiendo de para que microprocesador estos slot son de los siguientes tipos:

 

Socket 775 para P4 y Celaron (INTEL)

 

Para la gama INTEL (Celaron y P4), del tipo 775, con 775 contactos.

 

Page 132: Curso de arquitectura

Socket AM2

 

Para AMD con memorias DDR, del tipo 939, con 939 pines.

Para AMD con memorias DDR2, del tipo AM2, con 940 pines.

Para AMD Opteron, del tipo 940, con 940 pines y memorias DDR. Estas placas no son compatibles con AM2, ya que la distribución de los pines es diferente y están desarrolladas para memoria DDR, no para memoria DDR2.

 

BANCOS DE MEMORIA

 

Bancos de memoria DUAL CHANNEL

 

            Son los bancos donde van insertados los módulos de memoria. Su número varía entre 2 y 6 bancos y pueden ser del tipo DDR, de 184 contactos o DDR2, de 240 contactos.

            En muchas placas se emplea la tecnología Dual Channel, que consiste en un segundo controlador de memoria en el NorthBrige, lo que permite acceder a dos bancos de memoria a la vez, incrementando notablemente la velocidad de comunicación de la memoria. Para que esto funcione, además de estar implementados en la placa base, los módulos deben ser iguales, tanto en capacidad como en diseño y a ser posible en marca. Se distinguen porque, para 4 slot, el 1 y el 3 son del mismo color y el 2 y el 4 de otro color, debiéndose cubrir los bancos del mismo color. Una particularidad de las placas con Dual Channel es que, a pesar de tener 4 bancos, se pueden ocupar uno, dos o los cuatro bancos, pero no tres bancos.

 

SLOT DE EXPANSION

            Son los utilizados para colocar placas de expansión. Pueden ser de varios tipos.

 

SLOT PARA VIDEO (VGA).

            Estos slot van conectados al NorthBrige, pudiendo ser de dos tipos diferentes.

 

Page 133: Curso de arquitectura

Slot AGP para VGA

 

AGP, cada vez menos usado. Con una tasa de transferencia de hasta 2 Gbps (8x) y 533 Mhz, ha sido hasta ahora el estándar para la comunicación de la placa VGA con el NorthBridge.

 

En la parte izquierda, slot PCIe 16x para VGA.

 

PCIe, que por sus ventajas esta siendo el mas usado y es el próximo estándar VGA. Con una tasa de transferencia de 4 Gbps y 2128 Mhz en su versión 16x, que es la empleada para VGA.

            Cada vez hay más placas en el mercado que incorporan la tecnología SLI, desarrollada por NVidia, que consiste en dos slot de video PCIe, lo que permite conectar dos placas VGA para trabajar simultáneamente, bien con un monitor o con un máximo de hasta 4 monitores simultáneamente. Esta tecnología es muy útil para trabajar con software implementado para usarla, ye que supone trabajar con dos GPU simultáneamente, pero encarece bastante el costo de las placas base (pueden llegar al doble, en comparación con otra placa de las mismas características, pero sin SLI).

SLOT DE EXPANSION PARA TARJETAS

            Los slot de expansión para tarjetas pueden ser de tres tipos diferentes:

 

 

Slot PCI

 

            PCI.- Los PCI (Periferical Componet Interconect) usados en la actualidad son los PCI 3.0, con una tasa de transferencia de 503 Mbps a 66 Mhz y soporte de 5v. Su número varia, dependiendo del tipo de placa, normalmente entre 5 slot (ATX) y 3 slot (Mini ATX).

 

Page 134: Curso de arquitectura

Diferentes formatos de slot PCIe. El inferior es un PCI.

 

PCIe.- Estándar que poco a poco se ve imponiendo, con una tasa de transferencia de 250 Mbs por canal, con un máximo actual de 16 canales (utilizadas para VGA). Suelen tener 1 ó 2 slot de este tipo.

            PCI-X.- Utilizados sobre todo en placas para servidores, a base de incrementar la frecuencia llegan hasta una transferencia de 2035 Mbs (PCIx 2.0), con una frecuencia de 266 Mhz. Un problema que presentan los PCIx es que dividen tanto la velocidad como el ancho de banda entre los slot montados, por lo que se suele montar uno solo, generalmente pensado para la conexión de placas RAID de alto rendimiento.

 

CONECTORES:

 

SATA

En negro, conectores SATA

 

Es una conexión de alta velocidad para discos duros (aunque ya están saliendo al mercado otros periféricos con esta conexión, como grabadoras de DVD). Hay dos tipos de SATA:

SATA1, con una tasa de transferencia de 1.5 Gbps

SATA2, con una tasa de transferencia de 3 Gbps

            Los discos duros SATA2 suelen llevar un jumper para configurarlos como SATA1. Además, SATA permite una mayor longitud del conector (hasta 1 m), conector mas fino, de 7 hilos y menor voltaje, de 0.25v, frente a los 5v de los discos IDE.

IDE

 

Page 135: Curso de arquitectura

Dos conectores IDE mas un FDD

 

            Es la conexión utilizada para los discos duros, con una tasa de transferencia máxima de 133 Mbps, lectores de CD, de DVD, regrabadoras de DVD y algún que otro periférico, como los lectores IOMEGA ZIP. Consisten en unos slot con 40 pines (normalmente 39 mas uno libre de control de posición de la faja) en los que se insertan las fajas que comunican la placa base con estos periféricos. Admiten solo dos periféricos por conector, teniendo que estar estos configurados uno como Master o maestro y otro como Slave  o esclavo. Para esta configuración, los periféricos que se conectas a estos slot tienen unos pines con puentes de configuración. Lo normal es que las placas tengan dos conectores IDE, pero hay placas que traen tres, siendo dos de ellos exclusivos para discos duros, con función RAID (no soportan dispositivos ATAPI) y el tercero para dispositivos ATAPI (cd, dvd, regrabadoras).

            Las placas base modernas soportan tanto RAID 0 como RAID 1 en SATA.

FDD

Slot con 34 pines (normalmente 33 mas uno libre de control de posición de la faja), que es el utilizado mediante una faja para conectar la disquetera.

USB

 

Conectores internos para USB

 

            Consiste en una conexión de cuatro pines (aunque suelen ir por pares) para conectar dispositivos de expansión por USB a la placa base, tales como placas adicionales de USB, lectores de tarjetas, puertos USB frontales, etc.  Las placas base cada vez traen mas conectores USB, siendo ya habitual que tengan cuatro puertos traseros y otros cuatro conectores internos.        Las placas actuales incorporan USB 2.0, con una tasa de transferencia de hasta 480 Mbps (teóricos, en la practica raramente se pasan de 300 Mbps). Actualmente hay una amplísima gama de periféricos conectados por USB, que van desde teclados y ratones hasta modem, cámaras Web, lectores de memoria, MP3, discos y dvd externos, impresoras, etc. Es la conexión mas utilizada en la actualidad, siendo pocos los periféricos que no usan o tienen una versión USB. Una de las grandes ventajas de los puertos USB es que nos permiten conectar y desconectar periféricos “en caliente”, esto es, sin necesidad de apagar el ordenador

 

            CONECTORES PARA FAN (VENTILADORES)

 

 

Page 136: Curso de arquitectura

Conector para ventilador

 

            Son unos conectores, normalmente de 3 pines, encargados de suministrar corriente a los ventiladores, tanto del disipador del microprocesador como ventiladores auxiliares de la caja. Suelen traer tres conectores, CPU_FAN, CHASIS_FAN y un tercero para otro ventilador. Además de suministrar corriente para los ventiladores, también controlan las rpm de estos, permitiendo a la placa base (cuando cuenta con esta tecnología) ajustar la velocidad del ventilador a las necesidades de refrigeración del momento.

 

CONEXIONES I/O:

 

            Situadas en la parte superior trasera de la placa base (en el panel trasero que comentábamos en la descripción física de la placa base), son las encargadas de comunicar el PC con el usuario, así como con algunos periféricos externos.

            Estos conectores, en el formato estándar, son:

            PS2, dos conectores del tipo PS2, de 6 pines, uno para el teclado y otro para el ratón, normalmente diferenciados por colores (verde para ratón y malva para teclado).

            USB, dos o cuatro conectores USB 2.0.

            RS-232, conocidos también como puertos serie. Suelen traer uno o dos (aunque cada vez son mas las placas que traen solo uno, ya que es un dispositivo que cada vez se utiliza menos).

            PARALELO, que es un puerto cuya principal misión es la conexión de impresoras. Si bien lo traen todas las placas base, dado que las impresoras vienen con puerto USB cada vez se utiliza menos.

 

OTROS ELEMENTOS:

 

Vista trasera de una placa base

 

            En la actualidad hay otras conexiones que suelen venir con las placas base, algunas de ellas ya si no en todas si en el 99% de las placas.

Page 137: Curso de arquitectura

            RED - Prácticamente todas las placas base vienen con tarjeta de red tipo Ethernet, con velocidades 10/100, llegando a 10/100/1000 en las placas de gama media-alta y alta. Algunos modelos de gama alta incorporan dos tarjetas Ethernet.

 

Chip Realteck AC’97

 

SONIDO - Igual que en el caso anterior. La calidad del sonido en placa base es cada vez mejor, lo que ha hecho que los principales fabricantes de tarjetas de sonido abandonen las gamas bajas de estas, centrándose en gamas media-alta y alta. El sonido que incorporan las placas base va desde el 5.1 de las placas de gama baja hasta las 8.1 de algunas de gama media-alta y alta. Utilizan el estándar AC’97 (Audio Codec 97) de alta calidad y 16 ó 20 bit. Los principales fabricantes de chip de sonido son Intel, Realtech, Via, SiS y Creative.

            IEEE 1394 (FIREWIRE) – Introducido por Appel en colaboración con Sony. De uso común en las placas de gama alta y algunas de gama media-alta, es un puerto diseñado para comunicaciones de alta velocidad mantenida, sobre todo para periféricos de multimedia digital y discos duros externos. Su velocidad de transferencia es de 400 Mbps. Reales a una distancia de 4.5 m, pudiéndose conectar un máximo de 63 periféricos. Si bien en teoría un USB 2.0 tiene una tasa de transferencia mayor (480 Mbps), en la practica no es así, existiendo además otros inconvenientes con USB que hacen que para comunicaciones con cámaras de video digitales el estándar de conexión sea IEEE 1394. Suelen tener una conexión exterior y una toma interior, de aspecto similar a las USB.

            WIFI 802.11b/g – Algunas placas de gama alta, además de la tarjeta de red ethernet, tienen otra tarjeta de red WIFI que cumple los estándar 802.11b/g.

            VGA – Las placas Mini ATX suelen llevar incorporada la tarjeta VGA en placa base. Esto se hace para adaptar estas placas a ordenadores de pequeño tamaño y de bajo coste. Estas VGA pueden llegar a los 256 Mb, pero se debe tener en cuenta que, al contrario de lo que ocurre con las VGA no integradas, utilizan la memoria la de la RAM del ordenador en forma reservada (se configura en el SETUP la cantidad de memoria que queremos usar en la VGA), por lo que un ordenador con 1Gb de RAM y VGA integrada de 128 Mb solo dispone de 896 Mb de RAM., además, son VGA de menos prestaciones. Normalmente son VGA basadas en chip Intel o SiS.

 

            En cuanto a la calidad de las placas base, va ligada a la calidad de sus componentes, a la tecnología que desarrollen y a la calidad de su terminación y ensamblado. Evidentemente en un mercado tan competitivo como es el de la informática, si una placa base de marca X es más cara que otra de la marca Z con las mismas prestaciones (en teoría), no es porque si, es porque detrás de la marca X hay un diseño y una calidad que respaldan esta diferencia. Esto no quiere decir que no haya en el mercado placas económicas de gran calidad, solo que esta diferencia esta justificada. Por poner un ejemplo dentro de marcas del mismo grupo, aunque en teoría tenga el mismo rendimiento y prestaciones, no es lo mismo una placa basa ASUS que una ASROCK.

DIFERENTES TIPOS DE MEDIOS DE ALMACENAMIENTO Y SUS USOS MAS FRECUENTES.

Una parte fundamental de un ordenador es su capacidad de leer y almacenar datos.

De leer datos porque sin leer datos ni tan siquiera podría ponerse en marcha y de archivar datos porque si no podemos guardar nuestro trabajo ¿para que queremos el ordenador?.

En este tutorial repasaremos los diferentes sistemas de almacenamiento con los que cuenta un ordenador.

Antes de continuar, quiero reseñar que el tamaño (físico) de muchos de estos sistemas de almacenamiento se miden en pulgadas ('') y su capacidad en bytes. Un byte es igual a 8 bits. La

Page 138: Curso de arquitectura

progresión natural de estos es 8, 16, 32, 64, 128, 256, 512 y 1.024, por lo que un kilobyte (Kb) no son 1.000 bytes, sino 1.024 bytes.

Igualmente, un Megabyte (Mb) es igual a 1.024 Kb y un Gigabyte es igual a 1.024 Kb. Este es el motivo de que, entre otras cosas, los discos duros nunca coincidan con el tamaño que nos dice el fabricante.

Este tutorial se va a centrar en los estándares para DOS, Windows.   DISQUETES

  Es el primer sistema de almacenamiento extraible que se instaló en un PC.

Los primeros disquetes salieron al mercado en 1.967 como dispositivos de solo lectura. Posteriormente, en el año 1.976, salieron al mercado los primeros disquetes aplicados a PC, de 5.25'', que consistían en un estuche de cartón y en su interior un disco de plástico recubierto de material magnetizado, con una capacidad en los últimos modelos de 1.2 Mb.

En el año 1.984 aparecen los primeros disquetes de 3.5”, con un estuche de plástico rígido y un disco de plástico de mayor densidad, lo que a pesar de la reducción de tamaño permitió incrementar la capacidad.

Con una capacidad en principio de 360 Kb (una sola cara) pasó en 1.986 al formato DS o Double Side (2 caras x 360 Kb.) y posteriormente, en el año 1.987, a los disquetes de alta densidad (HD o High Density), de 1.44 Mb. (2 caras x 720 Kb.).

Estos son los mismos que utilizamos hoy en día, convirtiendo a las disqueteras de 3.5'' en el elemento que menos ha evolucionado en la historia del PC, ya que no ha cambiado en nada en los últimos 20 años (de hecho, una disquetera de 1.987 es exactamente igual a una de 2.006 y funciona perfectamente en cualquier ordenador actual, por potente y avanzado que sea, al igual que el disquete correspondiente).

Posteriormente salieron unos disquetes de EHD (2.88 Mb), que no tuvieron ningún éxito en el mercado.

Los disquetes, aunque cada vez se usan menos, siguen siendo útiles como medio de arranque del PC y para transportar archivos de pequeño tamaño (hasta 1.4 megas).

En el año 1.995,  Sony sacó al mercado unos discos ópticos denominados LS-120, en formato 3 ½'', con una capacidad de 120 Mb, que debido a la lentitud de lectura y al alto precio tanto de los disquetes como de las disqueteras (estas ultimas también podían leer los disquetes de 3 ½'' normales) y a que eran bastante sensibles al medio (temperatura, polvo, humedad), tampoco tuvieron demasiado éxito.

DISCOS DUROS

Page 139: Curso de arquitectura

Es el medio de almacenamiento por excelencia. Desde que en 1.955 saliera el primer disco duro hasta nuestros días, el disco duro o HDD ha tenido un gran desarrollo.

El disco duro esta compuesto básicamente de:

- Varios discos de metal magnetizado, que es donde se guardan los datos. - Un motor que hace girar los discos. - Un conjunto de cabezales, que son los que leen la información guardada en los discos. - Un electroimán que mueve los cabezales. - Un circuito electrónico de control, que incluye el interface con el ordenador y la memoria caché.

- Una caja hermética (aunque no al vacío), que protege el conjunto.

Normalmente usan un sistema de grabación magnética analógica.

El número de discos depende de la capacidad del HDD y el de cabezales del numero de discos x 2, ya que llevan un cabezal por cada cara de cada disco (4 discos = 8 caras = 8 cabezales).

Actualmente el tamaño estándar es de 3.5'' de ancho para los HDD de pc’s y de 2.5'' para los discos de ordenadores portátiles.

Por el tipo de interface o conexión, los discos duros pueden ser IDE (ATA), Serial ATA y SCSI, pudiendo ir estos conectados bien directamente al ordenador o utilizarse como medios externos, mediante una caja con conexiónUSB, SCSI o FireWire.

Las principales diferencias entre estos tipos de conexiones son:

IDE (ATA / PATA) Son los más extendidos. A partir del estándar ATA/133, con una velocidad de hasta 133 MBps y una velocidad de giro de 7.200 rpm, entraron en competencia directa con los HDD SCSI, con la ventaja de una mayor capacidad y un costo mucho menor.

Serial ATA (SATA) Es el nuevo estándar  para HDD. Hay dos tipos. SATA1, con transferencia de hasta 150 MBps y SATA2 (o SATA 3Gb), con transferencia de hasta 300 MBps.

La velocidad de giro de los discos duros actuales es de 7.200 rpm, llegando a las 10.000 rpm en algunas series de discos duros de alta velocidad. En cuanto a los discos duros para portátiles, la velocidad de giro es de 5.400 rpm, si bien están saliendo al mercado algunos modelos a 7.200 rpm.

SCSI

Page 140: Curso de arquitectura

Estos discos deben estar conectados a una controladora SCSI. Han sido mas rápidos que los IDE y de mayor capacidad hasta la aparición del ATA/100, permitiendo una velocidad de trasmisión de hasta 80 MBps, y discos con una velocidad de giro de unas 10.000 rpm.

El estandar SCSI ha evolucionado en velocidad a través del tiempo, pero también lo ha hecho la velocidad de los discos duros SATA, relegando a los discos SCSI practicamente al sector de grandes servidores.

Básicamente, el disco duro se divide en:

PISTAS Que son un conjunto de circunferencias concéntricas dentro de cada cara.    CILINDROS Que es un conjunto de pistas de todas las caras (2 por disco), alineadas verticalmente.

SECTORES Que son cada una de las divisiones de las pistas. Actualmente tienen un tamaño fijo de 512 bytes. Antiguamente, el numero de sectores por pista era fijo, con lo que al ser estas circunferencias, se desperdiciaba mucho espacio. Con la aparición de la tecnología ZBR (Zone Bit Recording, o grabación de bits por zona) se solucionó este problema, al hacer que cada pista tenga mas sectores que la anterior. Esto hace por un lado que la capacidad de los discos, a igual tamaño físico, sea mayor y por otro que la velocidad de lectura se incremente según las pistas se alejan del centro, al leer el cabezal más información en cada giro del disco.

Naturalmente, esta información hay que direccionarlo. Hay dos sistemas de direccionamiento. El CHS (Cilindro, Cabeza, Sector), con el que se puede localizar cualquier punto del HDD, pero con el inconveniente de la limitación física para discos de gran capacidad y el LBA (direccionamiento Lógico de Bloques), que consiste en dividir el HDD entero en sectores y asignarle un único número a cada uno. Este es el sistema que se usa actualmente.

Así mismo, el HDD tiene que estar estructurado. Esta estructura consta de:

MASTER BOOT RECORD (MBR) Es un sector de 512 bytes al principio del disco (cilindro 0, cabeza 0, sector1), que contiene información del disco, tal como el sector de arranque, que contiene una secuencia de comandos para cargar el sistema operativo.

TABLA DE PARTICIONES Alojada en el MBR, a partir del byte 446. Consta de 4 particiones de 16 bytes, llamadas particiones primarias, en las que se guarda toda la información de las particiones.

PARTICIONES Son las partes en que dividimos el disco duro. El tema de las particiones es bastante largo de explicar, por lo que baste decir que un disco solo puede tener 4 particiones, una extendida y 3 primarias, si bien dentro de la extendida se pueden hacer particiones lógicas, que son las que el HDD necesita para que se pueda dar un formato lógico del Sistema Operativo.

También existen unos SISTEMAS DE FICHEROS, que para DOS y WINDOWS pueden ser de tres tipos:

FAT16 (o simplemente FAT) Guarda las direcciones en clúster de 16 bits, estando limitado a 2 Gb en DOS y a 4 Gb en Windows NT. Para los archivos debe usar la convención 8.3 (nombres de hasta 8 dígitos + extensión de 3, separados por punto), Todos los nombres deben crearse con caracteres ASCII. Deben empezar pon una letra o numero y no pueden contener los caracteres (. '' [ ] : ; | = ni ,). Este sistema de ficheros, por su sencillez y compatibilidad, es el utilizado por todos los medios extraibles de almacenamiento, a excepción de los cd’s y dvd’s.

FAT32 Guarda las direcciones en clúster de 32 bits, por lo que permite discos de hasta 32 Gb,  aunque con herramientas externas a Microsoft puede leer particiones mayores, con un límite en el tamaño de archivo de 4 Gb, lo que lo hace poco apto sobre todo para trabajos multimedia. Apareció con Windows 95 OSR2 y para pasar un HDD de FAT a FAT32 era necesario formatear el HDD hasta que Windows 98 incorporó una herramienta que permitía pasar de FAT16 a FAC32 sin necesidad de formatear.

NTFS Diseñado para Windows NT, esta basado en el sistema de archivos HPFS de IBM/Microsoft,

Page 141: Curso de arquitectura

usado por el sistema operativo OS/2 de IBM. Permite definir clúster de 512 bytes, que es lo mínimo en lo que se puede dividir un disco duro, por lo que a diferencia de FAT y FAT32 desperdicia poquísimo espacio. Debemos tener en cuanta que la unidad básica de almacenamiento es el clúster, y que en FAT32 el clúster es de 4 Kb, por lo que un archivo de 1 Kb ocupará un clúster, del que se estarán desperdiciando 3 Kb. Además, NTFS admite tanto compresión nativa de ficheros como encriptación (esto a partir de Windows 2000). NTFS tiene algunos inconvenientes, como que necesita reservarse mucho espacio del disco para su uso, por lo que no se debe usar en discos de menos de 400 Mb, no es es accesible desde MS-DOS ni con sistemas operativos basados en el y es unidireccional, es decir, se puede convertir una partición FAT32 a NTFS sin formatear ni perder datos, pero no se puede convertir una partición NTFS a FAT32.

Reseñar que el programa Fdisk, utilizado para crear las particiones, al estar basado en DOS, reconoce las particiones NTFS como Non-DOS.   LAPICES DE MEMORIA

  Creados por IBM en 1.998 para sustituir a los disquetes en las IBM Think Pad, los lápices de memoria (también llamados Memory Pen y Pendrive) funcionan bajo el Estándar USB Mass Storage (almacenamiento masivo USB). Los actuales Pendrive usan el estándar USB 2.0, con una transferencia de hasta 480 Mbit/s, aunque en la práctica trabajan a 160 Mbit/s.

Están compuestos básicamente por:

- Un conector USB macho - Un controlador USB, que incorpora un pequeño micro RISC y mini memorias RAM y ROM - Uno o varios chips de memoria Flash NAND - Un cristal oscilador a 12 Mh para el control de flujo de salida de datos   Dependiendo de su capacidad (pueden llegar hasta los 60 Gb), se puede trabajar con ellos como si de un disco duro se tratase, incluso (si la placa base del ordenador lo permite) arrancando desde ellos.

Tienen grandes ventajas sobre otros sistemas de almacenamiento, como su rapidez, resistencia al polvo, golpes, humedad, etc. (dependiendo de la carcasa que contenga el Pendrive) y estabilidad de los datos. Como inconveniente, resaltar que por la propia naturaleza de las memorias Flash, tienen una vida útil limitada (aunque esta es bastante larga, de millones de ciclos), por lo que con el paso del tiempo se van volviendo mas lentos. Su bajo coste actual los convierten en el 3er sistema de almacenaje más económico en relación capacidad/precio (por detrás de los discos duros y de los cd,s y dvd,s, aunque con grandísimas ventajas sobre estos últimos).   Actualmente quizás sea la forma más cómoda y compatible de transportar datos. Puede tener diferentes formas y tamaños, por lo que es bastante fácil de llevar, son bastante seguros, con capacidades de hasta 4 Gb en los formatos más habituales, aunque en continuo crecimiento, y al ir conectadas por puerto USB y reconocerse como unidad de almacenamiento masivo, en los ordenadores con SO actuales (Windows XP) no necesita drivers especiales, por lo que se puede conectar a cualquier ordenador sin problemas.

Una variante de los lápices de memoria son los reproductores de MP3 y MP4. Estos no son más que lápices de memoria a los que se les ha incorporado una pila, una pantallita, una salida de audio y un chip programado para leer y reproducir ciertos archivos, de música en el caso de los MP3 y de música y video en los MP4, y controlar las demás funciones. Evidentemente, un MP3 también nos puede servir para transportar datos de un ordenador a otro, ya que, en la inmensa mayoría de los casos, los ordenadores lo reconocen como sistema de almacenamiento masivo.

TARJETAS DE MEMORIA

Page 142: Curso de arquitectura

Basadas en memorias del tipo flash, pero, a diferencia de los lápices de memoria, sin controladores, por lo que necesitan de unidades lectoras para poder funcionar.

Los tipos más comunes son:    Secure Digital (SD) Con una capacidad de hasta 4 Gb, son las mas empleadas. Basadas en las MMC, algo anteriores en su creación, son físicamente del mismo tamaño, aunque algo mas gruesas las SD. También son mas rápidas que las MMC y tienen una pestaña anti sobre escritura en un lateral.

  TransFlash o Micro SD Usadas en telefonía Móvil. Con adaptador para lectores de tarjetas  

        Compact Flash (CF) Con una capacidad de hasta 8 Gb.

         Multimedia Card (MMC) Con una capacidad de hasta 1 gb

    Mini MMC

Page 143: Curso de arquitectura

Usadas sobre todo en telefonía móvil. Con adaptador para lectores de tarjetas.

      Smart Media (SM) Con una capacidad de hasta 256 Mb.  

         XD Tarjeta propietaria de Olympus y Fujitsu, con una capacidad de hasta 1 Gb.  

Este medio esta en plena evolución, por lo que las capacidades son solo orientativas. Entre ellas existen diferencias, tanto de velocidad de transmisión de datos (incluso entre tarjetas del mismo tipo) como, sobre todo, de forma y tamaño.

Es un medio practico de transportar iuformación debido a su tamaño y capacidad, pero tiene la desventaja sobles los lápices de memoria de que es necesario un adaptador para poder leerlas.

UNIDADES ZIP

 

En el año 1.994, la empresa Iomega saca al mercado un sistema de almacenamiento denominado ZIP, con un formato de 3 ½”, pero bastante más gruesos (casi el doble) que un disquete. Con una capacidad en principio de 100 Mb y posteriormente de 250 Mb, pronto se convirtió en una excelente solución para el trasporte de archivos y copias de seguridad, al ser mucho mas rápidos que los disquetes, mas resistentes y mucho mas estables en las grabaciones. En la actualidad, en su formato domestico, hay ZIP de hasta 1.44 Gb (750 Mb sin comprimir). La salida de los ZIP, en buena parte, impidió el desarrollo de los LS-120, ya que eran mas económicos, mucho mas rápidos y menos sensibles al medio que estos. El ZIP, al igual que el disquete, se puede usar como si fuero un disco mas, pudiéndose ejecutar programas desde el (incluso SO, arrancando desde el ZIP), trabajar con los datos almacenados en el, etc.

El ZIP esta formado por un estuche de plástico rígido y en su interior un disco de materias plástico magnetizado, mucho mas denso que el utilizado en los disquetes. Necesitan unas unidades lectoras especiales, que pueden ser tanto internas (conectadas a IDE o SCSI) como externas (tanto paralelo como USB), lo que las hace mas interesantes aun. Estas unidades, en el

Page 144: Curso de arquitectura

ámbito profesional, son de una gran importancia, ya que unen a una excelente velocidad de acceso una gran capacidad de almacenamiento (hay sistemas ZIP con una capacidad de hasta 1.6 Tb (1 Terabyte (TB) = 1 Gb x 1024), lo que las hace ideales para copias de seguridad masivas, sustituyendo a los sistemas STREAMER de cinta, que si bien tienen una gran capacidad, son extremadamente lentos (comparados con los discos duros y con las unidades ZIP) y, al ser cintas magnéticas, bastante propensas a dañarse (al igual que una cinta de casete o de video, basta con que estén cerca de una fuente imantada, como un altavoz, para que se puedan dañar los datos que contengan).

Si bien para su uso profesional son sumamente interesantes, para el uso domestico nunca han tenido una gran difusión, debido a la aparición en el mercado de los cd’s grabables y, posteriormente, de los dvd´s.

CD’s

  Desde su aparición para uso en ordenadores en 1.985 han evolucionado bastante poco. Algo en capacidad (los más usados son los de 80 minutos / 700 Mb), aunque bastante en velocidad de grabación, desde las primeras grabadoras a 1x (150 Kb/s) hasta las grabadoras actuales, que graban a una velocidad de 52x (7.800 Kb/s). Los cd’s se han convertido en el medio estándar tanto para distribuir programas como para hacer copias de seguridad, grabaciones multimedia, etc., debido a su capacidad relativamente alta (hay cd’s de 800 mb y de 900 Mb) y, sobre todo, a su bajo coste. Es el medio idóneo para difundir programas y datos que no queramos que se alteren, ya que una vez cerrada su grabación, esta no se puede alterar, salvo en los cd’s del tipo regrabable, que nos permiten borrarlos para volver a utilizarlos, con una vida útil (según el fabricante) de unas 1.000 grabaciones. Dado el sistema de grabación por láser, el cual detecta tanto tamaño como forma, hay en el marcado gran variedad de formatos. Desde el estándar redondo de 12 cm y los de 8 cm, de 180 mb de capacidad, hasta sofisticados cd’s de diversas formas, empleados sobre todo en publicidad. Si bien los cd’s tienen de momento un buen futuro, no pasa lo mismo con las grabadoras de cd’s, que con la aparición de las grabadoras de dvd’s y la compatibilidad de estas para grabar cd’s han ido desapareciendo poco a poco.

DVD’s  

  Por su mayor capacidad (de 4.5 Gb en los normales y de 8,5 Gb en los de doble capa) y mayor calidad en la grabación, es el medio ideal para multimedia de gran formato y copias de seguridad de gran capacidad.

Existen dos tipos diferentes de e DVD: DVD –R y DVD +R. Ambos tipos son compatibles en un 90% de los lectores y su diferencia se debe mas a temas de patentes que a temas técnicos (aunque existen algunas pequeñas diferencias).

En cuanto a los grabadores de DVD, si bien en un principio salieron a unos precios altísimos, en muy poco tiempo son totalmente asequibles, y al poder grabar también cd’s han desplazado al tradicional grabador de cd’s.

Al igual que ocurre con los cd’s, una vez cerrada su grabación, esta no se puede alterar, pero también existen DVD’s regrabables, tanto +R como –R. Hay también DVD de 8 cm. que son usados por algunas videocámaras digitales en sustitución de la tradicional cinta de 8 mm.

Mención especial en este apartado merecen los DVD-RAM, muy poco difundidos, pero que permiten trabajar con ellos como si de una unidad más de disco se tratara (leer, modificar, grabar...).

Page 145: Curso de arquitectura

Tutorial relacionado: ¿Que medio de almacenamiento es mejor?..

Firewire se le denomina al modelo de interfaz que inventó la compañía Apple, la referencia real de esta interfaz es la IEE 1394, FireWire es una tecnología para la entrada/salida de datos en serie a alta velocidad y la conexión de dispositivos digitales.

Esta interfaz se caracteriza principalmente por:

- Su gran rapidez, siendo ideal para su utilización en aplicaciones multimedia y almacenamiento, como cámaras de fotos, videocámaras, discos duros, impresoras, etc...- Alcanzan una velocidad de 400 megabits por segundo.- flexibilidad de la conexión y la capacidad de conectar un máximo de 63 dispositivos.- Acepta longitudes de cable de hasta 425 cm.- Respuesta en el momento, FireWire puede garantizar una distribución de los datos en perfecta sincronía.- Alimentación por el bus. Mientras el USB 2.0 permite la alimentación de dispositivos sencillos y lentos que consumen un máximo de 2,5W, como un ratón, los dispositivos FireWire pueden proporcionar o consumir hasta 45W, más que suficiente para discos duros de alto rendimiento y baterías de carga rápida.- Conexiones de enchufar y listo, conocidas como plug & play. No tenemos más que enchufar un dispositivo para que funcione. - Conexión en caliente (permite conectar dispositivos con el PC encendido sin ningún riesgo de rotura).

El exceso de calor en un PC, se traduce en una perdida de rendimiento, en el bloqueo de la actividad, e incluso en temperaturas muy elevadas en la destrucción de los componentes que se exponen a temperaturas excesivas, por ello, vamos a tratar de poner una serie de sugerencias para mejorar y evitar que el calor pueda causar cualquiera de estos inconvenientes anteriormente citados.

Lo más importante para empezar, es colocar la CPU en un lugar en el que tenga espacio para que circule el aire, no colocandola en lugares en los que el aire no pueda circular correctamente.

Veamos que componentes se calientan más en un PC y que medidas se pueden llevar a cabo para disminuir el calor que estos producen, pues aunque algunos pueden funcionar sin problemas a esa temperatura, también es cierto que ese calor que producen hacen aumentar la temperatura total que hay en el interior de la caja y afecta a otros componentes que deben de funcionar a una temperatura determinada.

Mejorar la ventilación en el Procesador: Debemos disponer de un buen radiador de calor para el procesador, y un buen ventilador que mantenga una temperatura optima en el micro, como alternativa, comentar que existen Kist de refrigeración líquida, que refrigeran el procesador por medio de un circuito de agua, es similar al sistema que tiene un coche, este tipo de refrigeración hace que el agua que pasa a una

Page 146: Curso de arquitectura

temperatura más baja, enfrie el procesador y manteniéndolo frio a una temperatura más o menos constante, estos Kist los hay en el mercado desde 70€. En la figura siguiente vemos un ejemplo de un Kits de los mencionados, en este caso también se está enfriando el Chipset.

Mejorar la ventilación en la Memoria Ram: Existen en el Mercado disipadores de calor de Aluminio, que ayudan a disipar el calor que desprenden los integrados que forman la memoria, también existen pequeños ventiladores que le adaptan y que reducen el calor de una forma más eficaz.

Mejorar la ventilación en el Disco Duro: Los Discos duros también suelen calentarse bastante, por lo que hay kits de refrigeración de tipo pasivo, y otros de tipo activo, la temperatura que se puede llegar a alcanzar en estos componentes es muy elevada, conviene bajarla todo lo posible para alargar la vida del disco duro, y para reducir el calor general en el interior de la caja.

Mejorar la ventilación en el Chipset: Se puede utilizar el típico radiador, o añadirle a éste un pequeño ventilador, eso mejora considerablemente el rendimiento de éste.

Mejorar la ventilación de la tarjeta Gráfica: A aquellas que no disponen ventilador, se les puede adaptar uno, y a aquellas que ya lo traen se les podría sustituir por otro de más potencia. Existen también carcasas que cubren totalmente las tarjetas (normalmente fabricadas en aluminio) y que en muchos modelos llevan ventilador, las aletas de estas carcasas radian de una forma eficaz el calor que se produce en el chip de las tarjetas, mejorando el rendimiento.

Hay también otras formas, con lo que se puede reducir el calor en general, son una serie de sugerencias que si se ponen en práctica harán que obtengamos resultados positivos, enuemramos algunas de ellas:

- Colocar dos ventiladores en la caja, uno de ellos en la parte inferior metiendo aire desde fuera hacia dentro, y otro en la parte superior extrayéndolo de la caja (el calor se suele concentrar en las partes altas).

- Intentar agrupar todos los cables de forma que el flujo de aire pueda circular perfectamente por el interor de la caja, los cables IDE, y otros suelen dificultar el paso del aire, deben de agruparse mediante correillas (existen en el mercado cables IDE en el que el cable viene en forma redonda para mejorar la ventilación).

Estas sugerencias harán que tu equipo tenga una temperatura menor en su interior, en muchos casos el hecho de tener un equipo que trabaje a una temperatura idónea, se traduce en tener un equipo más estable en su funcionamiento.

Page 147: Curso de arquitectura

Como configurar un Microprocesador.

Cuando se instala un microprocesador en una placa base, es necesario configurar algunos parámetros como la frecuencia base del microprocesador y el multiplicador (en placas más antiguas era necesario configurar los niveles de voltaje).

El multiplicador es el factor por el que una vez multiplicada la frecuencia base nos permitirá obtener la frecuencia real de funcionamiento del multiplicador.

Para configurar estos valores, las placas solian disponer de un jumpers o microrruptores (generalmente tres o cuatro para la frecuencia, y uno para el multiplicador).

Para configurar de forma correcta el micro, debemos de ayudarnos del manual de la placa base para saber exactamente la combinación correspondiente.

En muchas ocasiones, en la misma placa base viene serigrafiada las combinaciones de los puentes.

En la actualidad, no se suele utilizar los jumpers para estas operaciones, en algunos casos se usan microrruptores, pero en la mayoría de los casos, se hace configurando estos valores accediendo a la Bios y modificando ahí mismo los valores necesarios.

CPU Soft Menú

CPU Soft Menú

Desde esta opción ajustaremos todos los parámetros de nuestro microprocesador (voltajes, multiplicador y bus).

CPU Operating Speed: En "User Define" controlaremos todos los parámetros referentes al procesador. También podemos seleccionar directamente una velocidad, aunque en ese caso las siguientes opciones no se encuentran activas.

Turbo Frecuency: Permite forzar la velocidad del reloj externo a un 2,5x. En principio sólo existe para realizar control de calidad y comprobar que un sistema funciona correctamente por encima de sus especificaciones.

Ext. Clock (PCI): Indica la velocidad del bus externo. Entre paréntesis se nos indica la relación a la que trabajará nuestro bus PCI.

Multiplier Factor: Ajusta el factor de multiplicación. Por ejemplo, con un Pentium III a 550 Mhz obtendremos la frecuencia multiplicando el bus por el factor multiplicador.

AGPCLK/CPUCLK: Señala la relación entre la velocidad del bus AGP y la del "microprocesador". con una CPU de 66 Mhz de bus, ha de estar a 1/1, con una de 100 Mhz, el valor ha de ser 2/3.

L2 Cache Latency: Ajusta la velocidad de la cache de segundo nivel integrada en el microprocesador. Cuanto mayor sea el valor, más rápido trabajará la citada memoria. Una velocidad demasiado alta puede provocar fallos.

Speed Error Hold: Este campo hace referencia al comportamiento que tomará la máquina en caso de que seleccionemos una velocidad errónea.

CPU Power Supply: Permite regular el voltaje del microprocesador. Debe dejarse siempre en "CPU Default", dado que un voltaje incorrecto generará errores  y

Page 148: Curso de arquitectura

problemas.

Core Voltage: Nos marca el voltaje actual del procesador, admitiendo modificaciones.

 

Standard CMOS Setup

Dentro de esta sección están las variables más básicas, t ales como discos duros, fecha y hora,  tipos de disqueteras....

La fecha y hora: En esta sección podemos cambiar los datos relativos a fecha y hora de la BIOS.

Los discos duros IDE: Aquí configuramos los distintos discos duros conectados a la controladora IDE de nuestra placa base. Es importante tener en cuenta esto para no caer en el error de intentar configurar desde aquí los discos duros SCSI o los IDE conectados a una controladora adicional. Hallamos varios valores como "Type", "Cyls" y otros. La opción "Type" ofrece los valores "Auto", "User" o "None". Con el primero de ellos lograremos que cada disco pueda ser detectado automáticamente cada vez que iniciamos el ordenador. Es la opción por defecto, aunque ralentiza bastante el proceso de arranque.

Por su parte, "User" se usa cuando deseamos introducir nosotros mismos cada uno de los valores de configuración, o bien hemos pasado por la opción IDE HARD DISK DETECTION, que, tras detectar nuestros discos, habrá almacenado su configuración en esta pantalla. En este modo, el arranque resultará más rápido. Por último en "None" se indicará la inexistencia de un disco duro.

Respecto a "Mode", podremos elegir entre los modos "LBA", "Normal" y "Large", aunque la opción correcta para los discos actuales será LBA.

Las disqueteras: Aquí podemos seleccionar el tipo de disquetera instalada en nuestro PC.

Floppy 3 Mode Support: Esta es una opción a activar en caso de contar con disqueteras capaces de usar discos de 1,2 Kbytes (utilizados normalmente en Japón).

La tarjeta de Video: Debemos elegir VGA para todos los equipos actuales.

Halt On: Se utilizará si queremos que la BIOS ignore ciertos errores. Sus opciones son "No errors", para no detectarse ningún error; "All Errors" para pararse en todos; "All, But Keyboard" para exceptuar los de teclado; "All, But Diskette" para obviar los de la disquetera; y "All, But Disk/Key", para no atender a los de la disquetera o teclado.

Memoria: Es un breve resumen informativo de la cantidad y tipo de memoria instalada en nuestro sistema.

 

BIOS Features Setup

Page 149: Curso de arquitectura

En este apartado se sitúan las opciones de configuración de la propia BIOS, así como del proceso y configuración de arranque.

Virus Warning: Cuando se encuentra en posición "Enabled" genera un mensaje de aviso en caso de que algún programa intente escribir en el sector de arranque del disco duro. Sin embargo, es necesario desactivarlo para poder llevar a cabo la instalación de Windows 95/98, ya que en caso contrario, el programa de instalación no será capaz de efectuar la instalación de los archivos de arranque.

CPU Level 1 Cache: Activa o desactiva la cache de primer nivel integrada en el núcleo de los actuales procesadores. En caso de que se nos pase por la cabeza desactivarlo, veremos cómo las prestaciones de nuestro equipo disminuyen considerablemente. Es muy recomendable tenerlo activado.

CPU Level 2 Cache: Lo mismo que en el caso anterior, pero referido a la memoria cache de segundo nivel. Igualmente la opción debe estar activada para conseguir un rendimiento óptimo.

CPU L2 Cache ECC Checking: A partir de ciertas unidades de Pentium II a 300 Mhz, se comenzó a integrar una cache de segundo nivel con un sistema ECC para la corrección y control de errores. Esto proporciona mayor seguridad en el trabajo con los datos delicados, aunque resta prestaciones. Si esta opción se coloca en "Enabled", activaremos dicha característica.

Quick Power On Self Test: Permite omitir ciertos tests llevados a cabo durante el arranque, lo que produce en consecuencia un inicio más rápido. Lo más seguro sería colocarlo en modo "Enabled".

Boot Sequence: Indica el orden de búsqueda de la unidad en la que arrancará el sistema operativo. Podemos señalar varias opciones, de tal forma que siempre la primera de ellas (las situada más a la izquierda) será la que se chequeará primero. Si no hubiera dispositivo "arrancable" pasaría a la opción central, y así sucesivamente. Como lo normal es que arranquemos siempre de un disco duro, deberíamos poner la unidad C como primera unidad.

Boot Sequence EXT Means: Desde aquí le indicamos a la BIOS a qué se refiere el parámetro "EXT" que encontramos en la opción anterior. En este sentido podemos indicar un disco SCSI o una unidad LS-120. Esta opción no se suele encontrar a menudo ya que las unidades se incluyen directamente en el parámetro anterior.

Swap Floppy Drive: Muy útil en el caso de que contemos con 2 disqueteras. Nos permiten intercambiar la A por la B y viceversa.

Boot Up Floppy Seek: Esta opción activa el testeo de la unidad de disquetes durante el proceso de arranque. Era necesaria en las antiguas disqueteras de 5,25 pulgadas para detectar la existencia de 40 u 80 pistas. En las de 3,5 pulgadas tiene poca utilidad, por ello lo dejaremos en "Disabled" para ahorrar tiempo.

Boot Up NumLock Status: En caso de estar en "ON", la BIOS activa automáticamente la tecla "NumLock" del teclado numérico en el proceso de arranque.

IDE HDD Block Mode:

Page 150: Curso de arquitectura

Activa el modo de múltiples comandos de lectura/escritura en múltiples sectores. La gran mayoría de los discos actuales soportan el modo de transferencia en bloques, por esta razón debe estar activado.

Typematic Rate Setting: Si se encuentra activo, podremos, mediante los valores que veremos a continuación, ajustar los parámetros de retraso y repetición de pulsación de nuestro teclado.

Typematic Rate (Chars/Sec): Indicará el número de veces que se repetirá la tecla pulsada por segundo.

Typematic Delay (Msec): Señalará el tiempo que tenemos que tener pulsada una tecla para que esta se empiece a repetir. Su valor se da en milisegundos.

Security Option: Aquí podemos señalar si el equipo nos pedirá una password de entrada a la BIOS y/o al sistema.

PCI/VGA Palette Snoop:Este parámetro únicamente ha de estar operativo si tenemos instalada una antigua tarjeta de vídeo ISA en nuestro sistema, cosa muy poco probable.

OS Select For DRAM > 64MB: Esta opción sólo debe activarse si tenemos al menos 64Mbytes de memoria y el sistema operativo es OS/2 de IBM.

Report No FDD for Win 95: En caso de que nuestro equipo no tenga disquetera se puede activar esta opción, liberando de esta forma la IRQ 6. Como es lógico, también desactivaremos la controladora de disquetes dentro del apartado "INTEGRATED PERIPHERALS" como veremos más adelante.

Delay IDE Initial (Sec): Permite especificar los segundos que la BIOS ha de esperar durante el proceso de arranque para identificar el disco duro. Esto es necesario en determinados modelos de discos duros, aunque ralentiza el proceso de arranque.

Processor Number Feature: Esta característica es propia y exclusiva de los PENTIUM III. Con ella tenemos la oportunidad de activar o desactivar la posibilidad de acceder a la función del número de serie universal integrada en estos procesadores.

Video BIOS Shadow: Mediante esta función y las siguientes se activa la opción de copiar el firmware de la BIOS de la tarjeta de video a la memoria RAM, de manera que se pueda acceder a ellas mucho más rápido.

 

 

Chipset Features Setup

Desde aquí accedemos a los parámetros del chipset y la memoria RAM. En las placas en las que se incluye un chip de monitorización, encontraremos también información de los voltajes, temperaturas y RPMs de los ventiladores.

 

Page 151: Curso de arquitectura

SDRAM CAS-to-CAS Delay: Sirve para introducir un ciclo de espera entre las señales STROBE de CAS y RAS al escribir o refrescar la memoria. A menor valor mayores prestaciones, mientras que a mayor, más estabilidad.

En el campo de la memoria, una STROBE es una señal enviada con el fin de validar datos o direcciones de memoria. Así, cuando hablamos de CAS (Column Address Strobe), nos referimos a una señal enviada a la RAM que asigna una determinada posición de memoria con una columna de direcciones. El otro parámetro, que está ligado a CAS, es RAS, (Row Address Strobe), que es igualmente una señal encargada de asignar una determinada posición de memoria a una fila de direcciones.

SDRAM CAS Latency Time: Indica el número de ciclos de reloj de la latencia CAS, que depende directamente de la velocidad de la memoria SDRAM. Por regla general, a menor valor mayores prestaciones.

SDRAM Leadoff Command: Desde aquí se ajusta la velocidad de acceso a memoria SDRAM.

SDRAM Precharge Control: En caso de estar activado, todos los bancos de memoria se refrescan en cada ciclo de reloj.

DRAM Data Integrity Mode: Indica el método para verificar la integridad de los datos, que puede ser por paridad o por código para la corrección de errores ECC.

System BIOS Cacheable: En caso de activarlo, copiaremos en las direcciones de memoria RAM F0000h-FFFFFh el código almacenado en la ROM de la BIOS. Esto acelera mucho el acceso a citado código, aunque pueden surgir problemas si un progrmaa intenta utilizar el área de memoria empleada.

Video BIOS Cacheable: Coloca la BIOS de la tarjeta de video en la memoria principal, mucho más rápida que la ROM de la tarjeta, acelerando así todas las funciones gráficas.

Video RAM Cacheable: Permite optimizar la utilización de la memoria RAM de nuestra tarjeta gráfica empleando para ello la caché de segundo nivel L2 de nuestro procesador. No soportan todos los modelos de tarjetas gráficas.

8 Bit I/O Recovery Time: Se utiliza para indicar la longitud del retraso insertado entre operaciones consecutivas de recuperación de órdenes de entrada/salida de los dispositivos ISA. Se expresa en ciclos de reloj y pude ser necersario ajustarlo para las tarjetas ISA más antiguas. Cuanto menor es el tiempo, mayores prestaciones se obtendrán con este tipo de tarjetas.

16 Bit I/O Recovery Time: Lo mismo que en el punto anterior, pero nos referimos a dispositivos ISA de 16 bits.

Memory Hole At 15M-16M: Permite reservar un megabyte de RAM para albergar la memoria ROM de determinadas tarjetas ISA que lo necesiten. Es aconsejable dejar desactivada esta opción, a menos que sea necesario.

Passive Release: Sirve para ajustar el comportamiento del chip Intel PIIX4, que hace puente PCI-ISA. La función "Passive Release" encontrará la latencia del bus ISA maestro, por lo que si surgen problemas de incompatibilidad con

Page 152: Curso de arquitectura

determinadas tarjetas ISA, podemos jugar a desactivar/activar este valor.

Delayed Transaction: Esta función detecta los ciclos de latencia existentes en las transacciones desde el bus PCI hasta el ISA o viceversa. Debe estar activado para cumplir con las especificaciones PCI 2.1.

AGP Aperture Size (MB): Ajusta la apertura del puerto AGP. Se trata del rango de direcciones de memoria dedicada a las funciones gráficas. A tamaños demasiado grandes, las prestaciones pueden empeorar debido a una mayor congestión de la memoria. Lo más habitual es situarlo en 64 Mbytes, aunque lo mejor es probar con cantidades entre un 50 y 100% de la cantidad de memoria instalada en el equipo.

Spread Spectrum: Activa un modo en el que la velocidad del bus del procesador se ajusta dinámicamente con el fin de evitar interferencias en forma de ondas de radio. En caso de estar activado, las prestaciones disminuyen.

Temperature Warning: Esta opción permite ajustar la temperatura máxima de funcionamiento de nuestro microprocesador antes de que salte la "alarma" de sobrecalentamiento. En caso de no desconectar la corriente en un tiempo mínimo la placa lo hará de forma automática para evitar daños irreparables.

 

 

 

 

Power Management Setup

Dentro de este submenú tenemos todas las posibilidades sobre la gestión avanzada de energía. Podremos ajustar una configuración personalizada en base al grado de ahorro que deseemos.

ACPI Function: Esta función permite que un sistema operativo con soporte para ACPI, tome el control directo de todas las funciones de gestión de energía y Plug & Play. Actualmente solo Windows 98 y 2000 cumplen con estas especificaciones. Además que los drivers de los diferentes dispositivos deben soportar dichas funciones.

Una de las grandes ventajas es la de poder apagar el equipo instantáneamente y recuperarlo en unos pocos segundos sin necesidad de sufrir los procesos de arranque. Esto que ha sido común en portátiles desde hace mucho tiempo, ahora está disponible en nuestro PC, eso sí, siempre que tengamos como mínimo el chip i810, que es el primero es soportar esta característica.

Power Management: Aquí podemos escoger entre una serie de tiempos para la entrada en ahorro de energía. Si elegimos "USER DEFINE" podremos elegir nosotros el resto de parámetros.

PM Control by APM: Si se activa, dejamos el equipo en manos del APM (Advanced Power Management), un estándar creado y desarrollado por Intel, Microsoft y otros fabricantes.

Video Off Method:

Page 153: Curso de arquitectura

Aquí le indicamos la forma en que nuestro monitor se apagará. La opción "V/H SYNC+Blank" desconecta los barridos horizontales y verticales, además de cortar el buffer de video."Blank Screen" sencillamente deja de presentar datos en pantalla. Por último, DPMS (Display Power Management Signaling),  es un estandar VESA que ha de ser soportado por nuestro monitor y la tarjeta de vídeo, y que envía una orden de apagado al sistema gráfico directamente.

Video Off After: Aquí tenemos varias opciones de apagado del monitor. "NA" no se desconectará; "Suspend" sólo se apagará en modo suspendido; "Standby" se apagará cuando estemos en modo suspendido o espera; "Doze" implica que la señal de vídeo dejará de funcionar en todos los modos de energía.

CPU Fan Off Option: Activa la posibilidad de apagar el ventilador del procesador al entrar en modo suspendido.

Modem User IRQ: Esta opción nos permite especificar la interrupción utilizada por nuestro modem.

Doze Mode: Aquí especificaremos el intervalo de tiempo que trascurrirá desde que el PC deje de recibir eventos hasta que se apague. Si desactivamos esta opción, el equipo irá directamente al siguiente estado de energía sin pasar por este.

Standby Mode:  Señala el tiempo que pasará desde que el ordenador no realice ninguna tarea hasta que entre en modo de ahorro. Igual que antes, si desactivamos esta opción, se pasará directamente al siguiente estado de energía sin pasar por este.

Suspend Mode:  Tiempo que pasará hasta que nuestro equipo entre en modo suspendido. Si no se activa el sistema ignora esta entrada.

HDD Power Down:  Aquí especificaremos el tiempo en que el sistema hará que el disco duro entre en modo de ahorro de energía, lo que permitirá alargar la vida del mismo. Sin embargo, este parámetro ha de ser tratado con cuidado ya que un tiempo demasiado corto puede suponer que nuestro disco esté conectando y desconectando continuamente, lo que provocará que esos arranques y paradas frecuentes puedan dañar el disco, además de el tiempo que perderemos dado que tarda unos segundos en arrancar. Lo normal es definir entre 10 y 15 minutos.

Throttle Duty Cycle:  Señalaremos el porcentaje de trabajo que llevará a cabo nuestro procesador cuando el sistema entre en ahorro de energía, tomando como referencia la velocidad máxima del mismo.

Power Button Overrride:  Esta opción permite que, tras presionar el botón de encendido durante más de 4 segundos mientras el equipo se encuentra trabajando normalmente, el sistema pasará a su desconexión por software.

Resume by LAN:  Característica muy útil ya que nuestro sistema será capaz de arrancar a través de nuestra tarjeta de red. Para ello, la tarjeta y el sistema han de cumplir con las especificaciones "WAKE ON LAN", además de tener que llevar un cable desde la tarjeta de red a la placa base.

Power On By Ring: Conectando un módem al puerto serie, lograremos que nuestro equipo se ponga en marcha cuando reciba una llamada.

Power On by Alarm:  Con este parámetro podemos asignar una fecha y hora a la que el PC

Page 154: Curso de arquitectura

arrancará automáticamente.

PM Timer Events: Dentro de esta categoría se engloban todos aquellos eventos tras los cuales el contador de tiempo para entrar en los distintos modos de ahorro de energía se pone a cero. Así, podemos activar o desactivar algunos de ellos para que sean ignorados y, aunque ocurran, la cuenta atrás continúe.

IRQ(3-7, 9-15],NMI: Este parámetro hace referencia a cualquier evento ocurrido en las distintas interrupciones del sistema.

VGA Active Monitor:  Verifica si la pantalla está realizando operaciones de entrada/salida, de ser así, reiniciará el contador de tiempo.

IRQ 8 Break Suspend:  Permite que la función de alarma, mediante la interrupción 8, despierte al sistema del modo de ahorro de energía.

IDE Primary/Secondary Master/Slave:  Esta característica vigila "de cerca" al disco duro en los puertos señalados, de forma que si nota que hay movimiento (accesos) reinicia el contador de tiempo.

Floppy Disk:  Controlará las operaciones ocurridas en la disquetera.

Serial Port:  Vigila el uso de los puertos serie.

Paralell Port: Verifica el paso de información a través del puerto paralelo.

Mouse Break Suspend:  Permite que un movimiento del ratón despierte por completo al sistema y entre en modo de funcionamiento normal.

 

PNP/PCI Configuration

En este apartado ajustaremos las variables que afectan al sistema Plug & Play y los buses PCI.

PNP OS Installed: Nos permite indicar si los recursos de la máquina serán unicamente controlados por la BIOS o si por el contrario será el sistema operativo, que naturalmente deberá ser Plug & Play.

Force Update ESCD: En caso de activar esta opción, la BIOS reseteará todos los valores actuales de configuración de las tarjetas PCI e ISA PnP, para voler a asignar los recursos en el próximo arraque. Las siglas ESC hacen referencia a Extended System Configuration Data.

Resource Controlled By: Este parámetro decide si la configuración de las interrupciones y los canales DMA se controlarán de forma manual o si se asignarán automáticamente por la propia BIOS. El valor "Auto" permite ver todas las interrupciones y canales DMA libres en pantalla para así decidir si estarán disponibles o no para su uso por el sistema PnP. Para activar o desactivar esta posibilidad, bastará con que nos coloquemos sobre la IRQ o DMA y cambiemos su estado, teniendo en cuenta que en la posición "PCI/ISA PnP" los tendremos libres.

Page 155: Curso de arquitectura

Assign IRQ For VGA: Activando esta opción, la placa asignará una interrupción a nuestra tarjeta gráfica. Esto es muy importante en la mayoría de tarjetas modernas, que generalmente no funcionarán si no tenemos este dato operativo.

Assign IRQ For USB:  Caso semejante al anterior pero para los puertos USB.

PIRQ_x Use IRQ No.: Aquí podemos asignar una interrución concreta a la tarjeta PCI que esté pinchada en el lugar designado por X. Esto puede ser muy interesante para casos en los que necesitemos establecer unos recursos muy concretos para unos dispositivos, también muy concretos.

Integrated Peripherals

Desde aquí configuraremos los parámetros que afectan a la controladora de puertos y sistemas de almacenamiento integrados.

Onboard IDE-1 Controller:  Nos permite activar o desactivar la controladora IDE primaria.

Master / Slave Drive PIO Mode: Sirve para ajustar el nivel de PIO del disco maestro/esclavo conectado al IDE primario. Lo normal es dejarlo en Auto.

Master / Slave Drive Ultra DMA:  Aquí activaremos o desactivaremos el soporte para las unidades Ultra DMA 33 del primer canal IDE. Lo mejor es colocarlo en "Auto".

Onboard IDE-2 Controller:  Aquí activaremos o desactivaremos la controladora IDE secundaria.

Master / Slave Drive PIO Mode: Sirve para ajustar el nivel de PIO del disco maestro/esclavo conectado al IDE secundario. Lo normal es dejarlo en Auto.

Master / Slave Drive Ultra DMA:  Aquí activaremos o desactivaremos el soporte para las unidades Ultra DMA 33 del segundo canal IDE. Lo mejor es colocarlo en "Auto".

USB Keyboard Support Via:  Aquí se indica quién ofrecerá soporte para el teclado USB, la BIOS o el sistema operativo.

Init Display First:  Nos permite especificar el bus en que se encuentra la tarjeta gráfica de arranque. Resulta útil en caso de que tengamos dos controladoras gráficas, una AGP y otra PCI.

KBC Input Clock Select:  Establece la velocidad de reloj del teclado. Útil si tenemos problemas con el funcionamiento del mismo.

Power On Function:  Permite establecer la forma de encender nuestra máquina. Podemos elegir entre el botón de encendido, el teclado e incluso el ratón.

Page 156: Curso de arquitectura

Onboard FDD Controller:  Activa o desactiva la controladora de disquetes integrada en la placa.

Onboard Serial Port 1:  Activa desactiva o configura los parámetros del primer puerto serie integrado.

Onboard Serial Port 2:  Activa desactiva o configura los parámetros del segundo puerto serie integrado.

Onboard IR Function: Habilita el segundo puerto serie como puerto infrarrojo, mediante la conexión del correspondiente adaptador a nuestra placa base.

Onboard Parallel Port:   Activa, desactiva o configura los parámetros del puerto paralelo integrado.

Parallel Port Mode:  Marca el modo de operación del puerto paralelo. Pueden ser SPP (estándar), EPP (Puerto Paralelo Extendido), o ECP (Puerto de Capacidades Extendidas).

ECP Mode Use DMA:  Permite indicar el canal DMA que usará el puerto paralelo en caso de optar por el modo ECP.

EPP Mode Select:  Asigna la versión de la especificación del puerto EPP por la que nos regiremos en caso de optar por él.

Load Setup Defaults

Seleccionando esta opción, colocaremos todos los valores por defecto con el fin de solucionar posibles errores.

Password Setting

Nos permitirá asignar la contraseña de entrada al equipo o a la BIOS del sistema, de forma que cuando encendamos el ordenador o entremos a la BIOS nos pida una clave. Para eliminar la clave pulsaremos "Enter" en el momento de introducir la nueva, eliminando así cualquier control de acceso.

IDE Hard Disk Detection

Desde aquí detectaremos el tipo de disco duro que tenemos instalado en nuestro PC.

Save & Exit Setup

Con esta opción podemos grabar todos los cambios realizados en los parámetros y salir de la utilidad de configuración de la BIOS.

Exit Without Saving

Nos permite salir de la utilidad de configuración pero sin salvar ningún cambio realizado.

Page 157: Curso de arquitectura

PARTICIONAR UN DISCO DURO: ¿ES CONVENIENTE? ¿CUANDO Y COMO SE DEBE HACER?.

Muchas veces hemos hablado de la conveniencia de tener el disco duro particionado. Vamos a ver en este tutorial hasta qué punto es esto conveniente, a partir de qué tamaño de disco debemos hacer particiones y cuando y como se deben hacer estas particiones.

Ante algunas preguntas que me he encontrado en nuestro Foro de ayuda y que aclarar ante todo una cuestión: Un disco duro siempre tiene particiones, aunque sea una sola por la totalidad de su capacidad.

Dicho esto, en los discos duros actuales, con una capacidad bastante grande, es conveniente tener varias particiones, sobre todo planteándonos este tema desde la perspectiva de tener una partición dedicada al sistema operativo y programas y otra u otras dedicadas a guardar nuestros datos. Pero con esto debemos tener mucho cuidado, ya que a la partición donde vamos a instalar nuestro sistema operativo y nuestros programas le debemos dar el suficiente espacio como para asegurarnos de que no vamos a tener la necesidad de ampliar esta.

Un buen tamaño para esta partición podemos establecerlo en los 20GB para Windows XP y los 30-35GB para Windows Vista. Particiones de menor tamaño pueden causarnos algún que otro problema, ya que son muchos los archivos (independientemente de los que conforman el sistema operativo y los programas en sí) los que se instalan en esta partición, como los temporales (aunque algunos sí que se pueden forzar a otra partición sin problemas), archivos de intercambio, sesiones de restauración de sistema, actualizaciones, etc. A esto hay que añadir que son muchos los programas que recomiendan instalar parte de ellos en una partición diferente (como es el caso de Photoshop), e incluso programas que para su buen funcionamiento es conveniente que los datos se pasen a una partición diferente a la original, que es lo que ocurre con los programas de recuperación de datos.

Precisamente una de las grandes ventajas que tiene este sistema de tener tanto los programas como el propio sistema operativo en una partición independiente es que si necesitamos formatear esta partición vamos a tener bien salvaguardados nuestros datos. Y es precisamente por este motivo por el que yo suelo aconsejar no guardar nuestros documentos (salvo los que no queramos que sean de acceso común) en la carpeta Documents and Setting o Usuarios (ver tutorial Guardar nuestros archivos en Mis Documentos).

Otra cuestión que debemos considerar a la hora de hacer las particiones en nuestro disco es el tamaño que vamos a destinar a almacenar nuestros datos. Estas deben ser lo suficientemente amplias como para permitirnos guardar sin estrecheces toda nuestra información, así como una copia de algunos de los principales archivos del sistema y ejecutables de nuestros drivers.

Ahora bien, ¿cuál es el número idóneo de particiones que debemos hacer?. Pues esto va a depender de varios factores, pero sobre todo del tamaño de nuestro disco duro. A veces vemos discos de 40GB con tres particiones. Esto es una exageración. Un disco de 40GB ya va corto para hacer dos particiones, ya que no nos permite hacer estas con un mínimo de tamaño que nos garantice que realmente van a cumplir bien con su misión. Por supuesto que discos más pequeños no es en absoluto recomendable hacer más de una partición, salvo que el uso que le demos a nuestro PC sea exclusivamente para trabajar con programas que generen datos de muy

Page 158: Curso de arquitectura

poca capacidad o que utilicemos un sistema operativo antiguo, como puede ser Windows 95, Windows 98 o incluso MS-DOS, que en todo caso necesitan mucho menos espacio que Windows XP o Windows Vista. También podemos hacer dos particiones en discos pequeños si utilizamos nuestro ordenador para conectarnos a Internet y muy poco más. En general podemos cifrar el tamaño mínimo deseable para datos en 60GB, lo que nos daría en un disco de 80GB 20GB para el sistema y 60GB para datos. En discos mayores podemos conservar esa relación, aumentando ligeramente la partición del sistema y más la dedicada a datos. A partir de 160GB ya podemos plantearnos hacer tres particiones, aunque hacer más particiones ya no tiene demasiado sentido. A veces se piensa que al tener el disco más particionado estamos protegiéndonos contra infecciones de virus. Esto es totalmente falso, ya que realmente la única partición en la que un virus va a ser peligroso es en la partición donde tenemos instalado el sistema, y en cuanto a las demás, como comprenderán un virus no tiene absolutamente ningún problema en saltar de una a otra una vez que se activa.

Por otra parte, la idea de hacer una partición para guardar copias de seguridad no es una buena idea, ya que ante la pérdida de nuestro disco duro por una avería física del disco (que es el único motivo por el que realmente perderíamos nuestros datos de forma irrecuperable) también vamos a perder esta partición y en consecuencia los datos que contenga.

Tampoco tiene mucho sentido forzar la instalación de programas en una partición diferente a la que utilizamos para el sistema, ya que en caso de tener que formatear o reinstalar este tenemos también que reinstalar los programas, estén en la partición que sea. Además hay muchos programas que sólo funcionan ofreciendo todas sus posibilidades si están instalados en la misma partición en la que se encuentra el sistema operativo.

Bien, una vez visto lo anterior se nos plantea la siguiente cuestión: ¿Cuando se deben hacer las particiones?.

En principio las particiones se deben hacer siempre desde el primer momento, es decir, que cuando tenemos el disco duro totalmente limpio debemos hacer una planificación de las particiones que vamos a utilizar y de su tamaño. Esto es posible hacerlo con todos los sistemas operativos que conozco, y desde luego con todos los sistemas operativos de Microsoft.

Es cierto que el nuevo Windows Vista permite redimensionar las particiones con una cierta seguridad, pero que permita hacerlo no quiere decir que sea lo ideal.

Por otro lado hay una serie de programas que permiten trabajar con las particiones del disco, como por ejemplo Partition Magic u otros similares, pero estos programas siempre entrañan un alto riesgo, ya que cualquier fallo, incluido un reinicio o fallo eléctrico, implica en la mayoría de los casos la pérdida de nuestros datos e incluso a veces la pérdida del disco.

Aquí quiero hacer un inciso. En la actualidad prácticamente todos los ordenadores ''de marca'' traen una partición de recuperación en la que se encuentran tanto el instalador del sistema operativo como los drivers y programas en calidad de Bonus pack. Esta partición es conveniente mantenerla intacta en todo momento, ya que nos va a permitir restablecer nuestro equipo a su estado ''de fábrica'' en el caso de que necesitemos hacerlo o simplemente queramos hacerlo. Podemos ver más información sobre este tema en el tutorial Recuperar sistema desde disco de recuperación y en el tutorial Recuperación del sistema desde un disco o partición Recovery.

Y por último vamos a tratar del tema de la instalación de varios sistemas operativos en un mismo disco. Si bien en principio no hay ningún inconveniente en hacerlo ¿es realmente la mejor solución?. Pues bajo mi punto de vista no lo es. Si pensamos instalar más de un sistema operativo es preferible, siempre que podamos, hacerlo en discos diferentes, ya que esto sí que nos va a garantizar la integridad de ambos sistemas, descartando de paso la posibilidad de quedarnos sin ordenador en el supuesto de un fallo físico del disco. Haciéndolo de este modo vamos a tener todas las ventajas de tener dos sistemas operativos sin prácticamente ninguno de sus posibles inconvenientes.

Además, si tenemos en cuenta el costo de un disco duro en la actualidad y lo comparamos con el costo de un sistema operativo Retail, el costo es bastante bajo, ofreciéndonos además la posibilidad de comprar un sistema operativo OEM (al adquirirlo junto con un disco duro), con lo que en conjunto nos va a suponer un ahorro.

QUE ES Y QUE FUNCION TIENE EL CHIPSET DE UNA PLACA BASE.

A menudo hemos oído hablar del Chipset de la placa base. En este tutorial vamos a tratar de ver qué es el chipset y qué función desempeña dentro de un ordenador.

Page 159: Curso de arquitectura

Podemos definir al Chipset como un conjunto de microprocesadores especialmente diseñados para funcionar como si fueran una única unidad y para desempeñar una o varias funciones.

En una placa base actual suele estar formado por varios conjuntos de microprocesadores, cada uno de los cuales tiene una misión específica, pero que funcionan en conjunto, ordenando además la comunicación entre el resto de elementos del ordenador.

Los más habituales son el Northbridge, el Southbridge, el Super I/O, la controladora IDE, la controladora SATA y en las placas actuales la controladora de sonido y la controladora Ethernet.

Cada uno de estos elementos que conforman el chipset de la placa base funcionan independientemente unos de otros, pero estrechamente relacionados.

Vamos a ver qué parte del ordenador controla cada uno de ellos:

Northbridge:

Este componente del chipset es quizás el de mayor importancia. Es de reciente aparición, ya que no existía hasta la aparición de las placas ATX, y debe su nombre a su situación dentro de la placa, situado en la parte superior (norte) de estas, cerca del slot del procesador y de los bancos de memoria.

Es el encargado de gestionar la memoria RAM, los puertos gráficos (AGP) y el acceso al resto de componentes del chipset, así como la comunicación entre estos y el procesador. Los primeros Northbridge también gestionaban los accesos a los puertos PCI, pero esta labor ha pasado con el tiempo a depender del Southbridge. A destacar en este aspecto la innovación que supuso (y supone) la tecnología utilizada por AMD, en la que la memoria es gestionada directamente por el procesador, descargando al Northbridge de esta labor y permitiendo una gestión de la memoria más rápida y directa.

Del Northbridge depende directamente el tipo de procesador que admitirá nuestra placa base, la frecuencia FSB, el tipo y frecuencia de las memorias y el tipo de adaptador gráfico.

Actualmente tienen un bus de datos de 64 bit y unas frecuencias de entre 400 Mhz y 1 Ghz (en las placas para AMD64). Dado este alto rendimiento, generan una alta temperatura, por lo que suelen tener algún tipo de refrigeración, ya sea activa o pasiva.

Southbridge:

Page 160: Curso de arquitectura

Conectado al procesador mediante el Northbridge, es el chip encargado de controlar la práctica totalidad de elementos I/O (Input/Output), por lo que también se le conoce como Concentrador de controladores de Entrada / Salida o, en inglés, I/O Controller Hub (ICH). Este chip es el encargado de controlar una larga serie de dispositivos. Los principales son:

- Bus PCI. - Bus ISA. - SMBus. - Controlador DMA. - Controlador de Interrupcciones. - Controlador IDE (SATA o PATA). - Puente LPC. - Reloj en Tiempo Real. - Administración de potencia eléctrica - Power management (APM y ACPI) - BIOS. - Interfaz de sonido AC97. - Soporte Ethernet. - Soporte RAID. - Soporte USB

Muchos de estos elementos son controlados por una serie de chips independientes, pero de estos pasa el control al Southbridge, por lo que es muy importante para el rendimiento del ordenador la calidad de este.

Algunos Southbridges incluso controlan el teclado, el ratón y los puertos serie, aunque lo más normal es que estos se controlen mediante otro chip independiente.

VIA ha desarrollado en colaboración con AMD interfaces mejorados de transmisión de datos entre el Southbridge y el Northbridge, como el HYPER TRANSPORT, que son interfaces de alto rendimiento, de entre 200 Mhz y 1400 Mhz (el bus PCI trabaja entre 33 Mhz y 66 Mhz), con bus DDR, lo que permite una doble tasa de transferencia de datos, es decir, transferir datos por dos canales simultáneamente por cada ciclo de reloj, evitando con ello el cuello de botella que se forma en este tipo de comunicaciones, lo que significa disponer de un FSB efectivo de hasta 2.000Mhz. También ha desarrollado, esta vez en colaboración con INTEL, el sistema V-Link, que permite la transmisión de datos entre el Southbridge y el Northbridge hasta un máximo (actual) de 1.333 Mhz.

Controladora IDE (ATA/ATAPI/PATA/SATA):

Unida generalmente al Southbridge, es la encargada de controlar los medios de almacenamiento de nuestro ordenador. De esta va a depender el tipo de discos que admita, así como su velocidad y hasta su capacidad.

Controladora de sonido:

La controladora de sonido estaba incluida en un principio en el Southbridge (AC'97), pero con el desarrollo de sistemas de sonido más sofisticados y de mayor rendimiento estas controladoras han pasado a formar un núcleo independiente, aunque para su comunicación con el resto del sistema pasan por el Southbridge.

Controladoras Ethernet:

Con las controladoras Ethernet (controladoras de tarjetas de red) ha pasado algo similar a lo que ha ocurrido con las controladoras de sonido. Se trata de una serie de chips independientes, pero que necesitan del Southbridge para comunicarse con el resto del sistema.

Al igual de lo que ocurre con los microprocesadores, el mercado de los chipset está limitado a unos pocos fabricantes, entre los que destacan:

- Intel (Integrated Electronics Corporation). - Via (Via Technologies Inc.). - NVidia (NVidia Corporation). - AMD (Advanced Micro Devices). - SiS (Silicon Integrated Systems Corp.). - ITE (ITE Tech. Inc.). - Maxwell (Maxwell technologies Inc.).

Dentro de este cerrado grupo (sobre todo si tenemos en cuenta la gran cantidad de fabricantes de placas base que hay) es además cada ven más habitual que, sobre todo en las placas de

Page 161: Curso de arquitectura

gama alta, se tienda a montar los mejores componentes de cada marca, abandonando en parte la costumbre de montar todo el chipset de la misma marca, estando incluso algunos de estos fabricantes especializados en un chip concreto o para un determinado tipo de ordenadores, como es el caso de AMD, muy centrada en el desarrollo de chipset para portátiles. Cabe destacar entre ellos a ITE, que es un gran especialesta en chipset Super I/O (teclados, ratones e IDE) o a Maxwell, muy centrados en la producción de chipset controladores de Ethernet y de RAID.

Por otro lado, mientras que Intel se ha centrado en el desarrollo de chipset para sus propios procesadores, Via desarrolla chipset tanto para Intel como para AMD, lo que unido a la calidad de sus productos ha hecho que se convierta en el primer fabricante de chipsets.

En definitiva, dado que son los microprocesadores encargados de comunicar al resto de componentes de la placa base con el procesador, hace que su importancia sea muy alta para el funcionamiento y prestaciones de nuestro ordenador, porque al fin y al cabo ¿de que nos sirve tener el mejor procesador del mercado, la memoria más rápida, la mejor tarjeta gráfica y el mejor disco duro si luego no tenemos un chipset capaz de comunicar estos elementos con la suficiente calidad y rapidez?. Sería como tener el último modelo de Ferrari... para ponerle las ruedas de un Seat Panda e irse con él al campo.

QUE ES Y PARA QUE SIRVE LA BIOS DE UN ORDENADOR.

Imágenes de dos tipos diferentes de CMOS. A la izquierda, una CMOS antigua. A la derecha, una CMOS del tipo que se montan

actualmente.

Este es un tema sobre el que existe una cierta confusión. Parte de esta es que con este nombre si suelen definir a veces dos cosas totalmente distintas, aunque estrechamente relacionadas entre sí.

Tenemos aquí tres conceptos diferentes que en muchas ocasiones se confunden uno con otro: LA BIOS (o CMOS), EL B.I.O.S. y EL SETUP. Bien, vamos a tratar de aclarar un poco estos conceptos.

LA BIOS:

La BIOS es un chip que tiene el ordenador. La BIOS es tambien conocida como CMOS (Complementary Metal Oxide Semiconductor) por el tipo de chip utilizado en sus comienzos. Para no confundirnos, a partir de aquí vamos a llamar CMOS a la BIOS. Básicamente se trata de un pequeño chip de memoria del tipo EPROM (Erasable Programmable Read-Only Memory, que podemos traducir como memoria programable borrable de solo lectura), aunque en la actualidad se están utilizando memorias del tipo FLASH (el denominarla como la BIOS en femenino se debe precisamente a que en realidad nos estamos refiriendo a una memoria). La BIOS (o CMOS) es actualizable mediante unas utilidades específicas, que son suministradas por los mismos fabricantes de las placas base. estas utilidades suelen funcionar bajo DOS, aunque cada vez son más los fabricantes de placas base que incorporan utilidades de actualización de CMOS bajo Windows e incluso a través de Internet.

Algunos placas base llevan dos CMOS, permaneciendo siempre una de ellas con los valores cargados de fábrica, sirviendo como sistema de seguridad ante la posible corrupción de la CMOS principal.

En esta memoria está contenido el B.I.O.S. y el SETUP.

EL B.I.O.S.:

El B.I.O.S. (Basic Input-Output System) el un programa muy básico, normalmente programado en lenguaje ensamblador, cuya misión es la de arrancar el ordenador. A pesar de tratarse de un programa sumamente básico resulta totalmente indispensable, ya que sin el es imposible arrancar el ordenador.

Page 162: Curso de arquitectura

Una vez que encendemos nuestro ordenador, el BIOS guardado en la CMOS se copia en la RAM y es ejecutado por el procesador (aunque en las placas actuales también puede ser ejecutado directamente desde la CMOS).

El B.I.O.S. activa una serie de elementos del sistema, tales como el teclado, monitor y unidades de almacenamiento*, efectúa un proceso de comprobación de los mismos denominado P.O.S.T. (Power On Self Test), carga una serie de configuraciones establecidas (tanto por el usuario como por el propio B.I.O.S.), busca el sistema operativo entre los distintos medios de almacenamiento presentes*, carga este en la RAM y le transfiere el control del ordenador. A partir de este punto deja de funcionar, ya que todo el control pasa al sistema operativo.

* Tanto los medios de almacenamiento que activa como en los que busca el sistema operativo dependen del tipo de B.I.O.S., de la placa base y de otros factores. Por ejemplo, no todas las placas base tienen la capacidad de utilizar medios de almacenamiento externos,

conectados por USB, para cargar el sistema operativo.

EL SETUP:

El SETUP es una interfaz del CMOS (es también conocido como CMOS-SETUP) que controla, mediante una serie de opciones predefinidas, algunos de los parámetros del B.I.O.S.. Estos parámetros suelen almacenarse en una parte del CMOS que actúa como una memoria RAM, por lo que necesita estar alimentada eléctricamente para conservar estos datos. Precisamente de esa alimentación es de la que se encarga la pila que podemos ver en las placas base. Se trata de una pila del tipo botón (normalmente una pila del tipo CR-2032 de 3 voltios), y su único cometido es el que hemos mencionado.

El SETUP almacena una serie de datos y configuraciones que, aunque algunos son iguales para todas las CMOS, pueden cambiar significativamente dependiendo del CMOS utilizado, del fabricante de la placa base e incluso del modelo de placa base. No todos los datos que muestra el SETUP son configurables por el usuario, mostrándose algunos de ellos tan solo como información.

Entre los datos que suelen ser configurables en la mayoría de los SETUP tenemos la fecha y hora del sistema, el orden de búsqueda del sistema operativo (Boot secuence), activación en el arranque de algunos elementos (como por ejemplo la tarjeta de sonido, si está integrada en la placa base) o la configuración de algunos puertos COM y paralelo.

Dado que, como ya hemos dicho anteriormente, esta información se guarda en una parte de la memoria de tipo RAM, alimentada por una pila, si esta pila falla el SETUP carga una serie de valores que tiene designados por defecto, por lo que, aunque desconfigurado en algunas opciones, nuestro ordenador va a arrancar.

Estos datos, por muy diversos motivos, pueden corromperse. En ese caso tenemos la opción de volverlos a los valores por defecto de la CMOS (lo que se conoce por resetear el SETUP). Tenemos dos formas de hacer esto. Una sería quitando la pila durante un tiempo (evidentemente con el ordenador desconectado de la toma de corriente) y la otra es mediante un puente que suelen traer las placas denominado Clear CMOS-SETUP. En las placas más modernas resetear el SETUP por el método de quitarle la pila es una operación en la que se suele tardar bastantes minutos, ya que estas placas alimentan esta memoria de la pila tan solo cuando el ordenador está desconectado de la corriente, pero además suelen guardar una cierta carga eléctrica que alimente la CMOS durante unos minutos después de la desconexión.

Imagen de una pila del tipo CR-2032, que es el tipo que suelen llevar las placas base.

En la actualidad existen solo dos grandes fabricantes de CMOS:

Phoenix - Award, creada tras la unión de ambas empresas, aunque sigue distribuyendo CMOS bajo ambos nombres. AMIBIOS (American Megatrends Inc.).

Page 163: Curso de arquitectura

TARJETAS DE EXPANSION: QUE SON Y QUE TIPOS EXISTEN.

Una tarjeta de expansión es una tarjeta, normalmente conectada a un puerto PCI, que nos permite dotar a nuestro PC de algún elemento del que carece.

Estas tarjetas pueden ser de varios tipos, tanto en su conexión como en su cometido.

En cuanto a su conexión, pueden ser tarjetas ISA (ya en desuso), PCI, PCIx, PCIe 1x, PCIe 4x, PCIe 16x o PCMCIA, esta última para ordenadores portátiles, que está siendo sustituida por las ExpressCard. No debemos confundir los puertos PCIx (bastante raros, utilizados solo en placas profesionales y de servidor) con los PCIe, o PCIexpress, que son los nuevos puertos PCI, cuyo uso más conocido es el del PCIe x16 para tarjetas gráficas.

Las tarjetas de expansión pueden ser de muchos tipos. Vamos a ver las más habituales:

Tarjeta PCI-USB:

Quizás sea la más conocida en la actualidad. Se trata de una tarjeta que provee a nuestro ordenador de puertos USB (normalmente USB 2.0) en el caso de que nuestra placa base no tenga este tipo de puertos, los tenga estropeados o necesitemos incorporar más puertos USB. Las hay con varios puertos (2, 4...) y normalmente llevan uno interno.

Tarjeta PCI-IEEE1394:

Nos provee de puertos IEEE1394 (Firewire) en nuestro PC. Normalmente estas tarjetas llevan también algún puerto USB. Suelen llevar alguno interno.

Tarjeta PCI-SATA:

Page 164: Curso de arquitectura

Nos permite disponer de puertos SATA para conexión de este tipo de dispositivos en nuestro ordenador.

Tarjeta PCI-IDE:

Con ella podemos ampliar el número de puertos IDE de nuestro ordenador.

Tarjeta PCI-RAID:

Este tipo de trajetas tienen una función específica, y es la de montar sistemas RAID sobre ellas. Pueden ser tanto IDE como SATA y SCSI, y disponer de soporte para un número elevado de dispositivos. En la imagen podemos ver una tarjeta RAOD SATA para puerto PCIx.

Page 165: Curso de arquitectura

Tarjeta PCI-Paralelo:

Nos permite ampliar el número de puertos paralelos de nuestro ordenador.

Tarjeta PCI-Serie:

Nos permite ampliar el número de puertos serie de nuestro ordenador.

Tarjetas PCI-SCSI:

Facilitan la instalación de dispositivos SCSI en nuestro PC. Estas tarjetas pueden ser de varios tipos, ya que existen varios tipos de SCSI. En la imagen podemos ver una tarjeta SCSI a puerto PCIx.

Tarjeta adaptador PCMCIA:

Page 166: Curso de arquitectura

Estos adaptadores se utilizan para poder poner una tarjeta PCMCIA en nuestro PC.

Bracket:

Hay también una serie de conectores que no son tarjetas PCI, ya que no van conectadas a este tipo de puertos, sino a los puertos a los que dan salida. Se denominan Bracket, y se utilizan para dar salida al exterior a puertos de nuestro ordenador. Los hay de bastantes tipos, pudiendo ser de un solo tipo o mixtos. En las imágenes podemos ver un bracket SATA y otro mixto USB - Firewire. También los hay, entre otros, a puerto paralelo, serie, mixto serie-paralelo y conexión a puerto Game o Midi.

FIREWIRE (IEEE1394) O USB 2.0: CUAL UTILIZAR.

En ocasiones se plantea la duda de que puerto debemos utilizar, si USB 2.0 o Firewire. Vamos a tratar en este tutorial de ver las ventajas e inconvenientes de uno y de otro, así como cuales son los usos más frecuentes que se les suele dar.

En primer lugar vamos a ver que es cada uno de ellos.

USB 2.0:

Los puertos USB (Universal Serial Bus) se crean en el año 1.996 con la colaboración de siete

Page 167: Curso de arquitectura

empresas del sector de la informática. Estas empresas son IBM, Compaq, NEC, Intel, Microsoft, Northern Telecom y Digital Equipment Corporation. Una de las novedades que plantea es que además de servir de medio de transmisión de datos también suministra de energía (alimenta) a los periféricos que se conecten a el, lo que hace que sea un medio ideal de conexión para aquellos periféricos que no necesiten un suministro alto de energía, así como para los que si que necesitan un alto suministro de energía, pero reciben este suministro directamente (como es el caso de las impresoras, por ejemplo). Inicialmente se utiliza el puerto USB 1.1, con una velocidad de transmisión de 1.5Mbits/s (sobre todo para teclados y ratones) y una velocidad máxima de hasta 12Mbits/s. En el año 2.000 sale una extensión de USB 1.1, denominada USB 2.0, que es la que se utiliza actualmente, cuya principal diferencia es que tiene una velocidad de transmisión de 480Mbits/s, aunque en la práctica rara vez sobrepasa los 300Mbits/s de forma estable.

Se trata de cables de 4 contactos, distribuidos de la siguiente forma:

Contacto 1.- Tensión 5 voltios. Contacto 2.- Datos -. Contacto 3.- Datos +. Contacto 4.- Masa (GND).

Dado que también transmiten tensión a los periféricos, es muy importante, sobre todo en las conexiones internas (a placa base mediante pines) seguir fielmente las indicaciones de conexión suministradas por el fabricante de la placa base, ya que un USB mal conectado puede causar graves averías, tanto en el periférico conectado como en la propia placa base.

Las conexiones USB soportan una distancia máxima de 5 metros, aunque con dispositivos amplificadores se puede superar esta distancia.

Los conectores estandarizados son el tipo A, utilizado sobre todo en las placas base y en los dispositivos tipo Hub, y el tipo B, utilizado en periféricos (impresoras, escáneres, discos externos...). Existe otro conector estandarizado (hasta cierto punto), denominado Mini USB, que podemos ver en la imagen superior, utilizado por dispositivos USB de pequeño tamaño a multimedia (MP3, cámaras fotográficas y de vídeo, etc.).

Los conectores USB admiten hasta un máximo de 127 dispositivos, mediante concentradores intermedios (aunque hay que contar estos concentradores como dispositivos), que normalmente están autoalimentados (es decir, con toma de corriente independiente), ya que si bien es cierto que la conexión permite hasta 127 dispositivos, la tensión de salida del ordenador si que no varia, lo que hace que si vamos a conectar varios dispositivos que tengan un consumo algo alto necesitemos una fuente externa de energía.

IEEE1394 (FIREWIRE):

IEEE1394 es un estándar de conexión de alta velocidad desarrollado por Apple a mediados de los 90. Este estándar se conoce tanto en Apple como en el entorno PC como Firewire, mientras que en Sony se le conoce como i.Link.

Tiene una velocidad en su estándar Firewire 400 de 400MBits/s, algo inferior a la teórica de un USB 2.0 (que es de 480Mbits/s), pero en la práctica ofrece una mayor velocidad y, sobre todo, más estable en esta que la USB.

Page 168: Curso de arquitectura

Además de una mayor estabilidad y velocidad real, también tiene un mayor voltaje en su salida de alimentación (hasta 25 - 30 voltios).

Hay dos tipos de conexiones IEEE 1394 dentro del estándar Firewire 400, las conexiones de 4 contactos y de 6 contactos.

El esquema de un conector de 6 contactos sería el siguiente:

Conector 1.- Alimentación (hasta 25 - voltios). Conector 2.- Masa (GND). Conector 3.- Cable trenzado de señal B-. Conector 4.- Cable trenzado de señal B+. Conector 5.- Cable trenzado de señal A-. Conector 6.- Cable trenzado de señal A+.

Este mismo esquema, pero para un conector de 4 contactos seria:

Conector 1.- Cable trenzado de señal B-. Conector 2.- Cable trenzado de señal B+. Conector 3.- Cable trenzado de señal A-. Conector 4.- Cable trenzado de señal A+.

Como se puede ver, la principal diferencia entre uno y otro es que el conector de 4 contactos se utiliza en aquellos dispositivos que no tienen que alimentarse a través del puerto IEEE 1394.

En todos los casos, el número máximo de dispositivos conectados es de 63, con una distancia máxima de 4.5 metros

Una característica de los conectores Firewire es que son compatibles con Macintosh, pudiendo estar conectada una cámara o un escáner simultáneamente a un PC y a un Mac.

Bien, como puede verse, entre ambos sistemas hay unas cuantas diferencias y bastantes similitudes. De los dos tipos de puerto, el más extendido es el USB 2.0, que poco a poco está reemplazando a los demás puertos de comunicación (incluidos los puertos PCI en muchos casos), ya que es mucho más rápido que estos, permite conexión y desconexión en caliente (es decir, sin necesidad de apagar nuestro ordenador), suministra energía a los dispositivos a la vez que transmite datos, permite la conexión de múltiples dispositivos en un mismo puertos y además en económico. Esto ha hecho que cada vez sean más los dispositivos creados para este tipo de conexiones, dispositivos que van desde teclados, ratones y discos externos hasta lectores de memorias o incluso cargadores de baterías, dispositivos de iluminación, calentadores o refrigeradores, aprovechando la toma de energía que tienen.

Frente al Firewire (IEEE1394) presenta básicamente dos desventajas: La primera es una menor velocidad real de transmisión (aunque la velocidad teórica sea mayor) y un voltaje inferior (en el caso de Firewire puede llegar hasta los 35 voltios alcanzados en pruebas de laboratorio), lo que hace que algunos dispositivos, como discos duros externos, necesiten alimentación independiente si se conectan por USB 2.0.

Como puede verse por los esquemas de conexión, mientras que USB transmite los datos mediante dos hilos (Datos - y Datos +), Firewire lo hace mediante dos pares trenzados, lo que permite una mayor estabilidad en estas transmisiones. Esto, unido a su compatibilidad con Mac (Apple), ha hecho que sea el sistema ideal (y más utilizado) para transmisiones de vídeo, utilizándose también para la conexión de discos externos.

Page 169: Curso de arquitectura

Tanto USB 2.0 como Firewire tienen aplicación en cualquier tipo de conexiones entre ordenadores o entre ordenador y periféricos, pero, como ya dijimos, el uso de USB está mucho más extendido, a pesar de que Firewire permite conectar ordenadores PC con ordenadores Mac o compartir periféricos entre ambos.

Existe otro tipo de puerto Firewire (aunque muy poco utilizado) denominado Firewire 800, o IEEE1394b, con una velocidad de transmisión de 800Mbits/s.

En resumen, debemos utilizar un puerto Firewire sobre todo cuando necesitemos una velocidad alta y muy estable en la transmisión de datos, como es el caso de la conexión entre videocámaras digitales (en estas el puerto Firewire suele estar marcado como puerto DV) y ordenadores, en la conexión de discos externos, sobre todo si pensamos ejecutar archivos multimedia (de imagen) desde estos, cuando necesitemos compartir un periférico entre PC y Mac o bien cuando el dispositivo así lo indique.

Para el resto de los casos vamos a tener suficiente con una conexión USB 2.0.

TEMPERATURAS DE UN PC: ¿CUALES SON LAS CORRECTAS?.

Esta es una pregunta que muchas veces nos hacemos y que preocupa bastante. ¿Pero cual es la temperatura correcta y cual es una temperatura excesiva?.

Pues esto depende en gran medida del tipo de procesador.

No se puede dar una temperatura que sirva para todos los procesadores, ni tan siquiera para los de una determinada marca o modelo de procesador, ya que esta temperatura va a depender del diseño de este y de su rendimiento, de forma que una temperatura de 65º puede ser excesiva para un procesador y perfectamente normal para otro (incluso de la misma marca).

Pero ¿es realmente preocupante una temperatura alta de funcionamiento?. Pues, mientras que no sobrepase los límites establecidos por el fabricante, no es preocupante. Me explico: Mientras que un AMD 64 x2 4200+ puede llegar a trabajar a una temperatura en torno a los 60º - 65º (cuando le pedimos un rendimiento ya alto), un AMD 64 x2 6000+ lo puede hacer sobre los 75º. Esta diferencia de temperatura se debe a que el primero tiene un TDP (Termal Design Power) de 65w, mientras que en el caso del segundo el TDP es de 125w. Esto, teniendo en cuenta que ambos están fabricados con la misma tecnología (de 90nm), significa básicamente que el segundo tiene un mayor consumo de energía, y por lo tanto produce una mayor temperatura, que evidentemente hay que evacuar. Tanto Intel como AMD suelen publicar en sus respectivas páginas Web los datos referentes al TDP de sus procesadores, si bien es cierto que no suelen emplear los mismos parámetros, ya que no existe una norma fija para este dato. Mientras que AMD toma como referencia el consumo máximo de sus procesadores, Intel toma como referencia una media de aproximadamente el 75% de su consumo máximo. Este valor del 75% quizás sea algo más lógico como punto de referencia, ya que un procesador no suele trabajar a más de este valor salvo en muy contadas ocasiones, siempre por periodos cortos de tiempo.

Este problema si que podía llegar a ser preocupante hace unos años, en los que los procesadores carecían de una protección eficaz contra los excesos de temperatura (muchos recordaran que era en la placa base en la que se configuraban las temperaturas de alarma y apagado (alert temperature y shutdown temperature), tanto para que emitiera un aviso de exceso de esta temperatura como para que, llegado el caso, apagara el ordenador. Esto evitaba en muchas ocasiones que el procesador se quemara por un exceso de temperatura, provocado por un fallo en el ventilador del disipador. Pero hoy en día (y desde hace unos años) este problema está solucionado (tanto por Intel como por AMD) mediante una serie de protecciones incluidas en el mismo procesador, que hacen que cuando este sobrepasa una determinada temperatura (que repito que no es la misma para todos los procesadores, ni incluso dentro de la misma marca y modelo), estos bajen su rendimiento, llegando en caso necesario a apagar o a bloquear el equipo. Este sistema no es un seguro para evitar averías en el procesador por excesos de temperaturas, pero no por el sistema en sí mismo, sino porque a veces nos empeñamos en volver a poner en funcionamiento el ordenador sin darle tiempo al procesador a volver a unos valores normales de temperatura. Cuando esto nos ocurra deberíamos dejar el ordenador durante al menos 10 minutos, que es el tiempo necesario para que el procesador recupere una temperatura baja de funcionamiento.

En términos generales, podemos decir que una temperatura normal de funcionamiento de un procesador se encuentra entre los 46º y los 60º, pudiendo llegar esta temperatura durante periodos cortos de tiempo a los 80º en el caso de procesadores de muy alto rendimiento, cuando se les exige que den toda su potencia. Por lo ya expuesto, una temperatura de trabajo de 70º puede ser perfectamente normal en un

Page 170: Curso de arquitectura

procesador, mientras que en otro es una temperatura totalmente excesiva. Por supuesto, siempre podemos recurrir a instalar un disipador con un mayor poder de refrigeración en nuestro equipo. Esto es sobre todo recomendable si solemos exigirle a este que trabaje cerca de sus límites durante periodos más o menos largos de tiempo o si tenemos un problema serio de refrigeración del equipo.

Dos disipadores para P4 775. A la izquierda el original de Intel. A la derecha un ASUS V60.

Se ha hablado y escrito mucho sobre los problemas de calentamiento de los procesadores AMD. Esto es cierto en los AMD K5 y K6 - K6-2 - K6-III y en los primeros AMD Athlon y Athlon XP (hasta que por fin AMD solucionó este problema con los Athlon XP con núcleo Thoroughbred - B. A partir de ese momento, los procesadores AMD no han vuelto a dar ningún problema con su temperatura de trabajo. No se puede decir lo mismo de Intel, que si que ha tenido problemas (y muy serios, incluso más que en el caso de AMD) con sus procesadores de la serie Pentium 4 con núcleo Prescott, problemas que incluso obligaron a Intel a abandonar sus planes de llevar a estos procesadores hasta los 4000MHz ante la imposibilidad de solucionarlos, ya que ni siquiera el cambiar de socket 478 a socket 775 (que en teoría mejora notablemente la circulación del aire y por lo tanto la refrigeración de los procesadores) consiguió solucionar este problema.

Otra cuestión es el tema de la temperatura de funcionamiento de las placas base. Estas tienen también varias fuentes de calor, sobre todo el Northbridge, southbridge y de los reguladores de voltaje y condensadores, aunque en el caso de estos el mayor problema es su proximidad en muchas placas a la zona del disipador del procesador. Cada vez es más común ver placas con sistemas de refrigeración, tanto activa como pasiva, para estos elementos. En general podemos cifrar la temperatura de trabajo de una placa base moderna en torno a los 45º - 50º, pudiendo llegar a niveles algo más altos en el caso de pedirles un rendimiento extra.

Page 171: Curso de arquitectura

Sistema de refrigeración de los elementos de la placa base en una Gigabyte.

Y por último, pero no por ser el menos importante ni el que menos calor genera, hablaremos de las tarjetas gráficas. Las tarjetas gráficas han incrementado su potencia en los últimos meses de una forma muy importante, pero esto ha supuesto también que ha aumentado su temperatura de funcionamiento en igual medida. En poco tiempo hemos pasado de unas tarjetas gráficas que tenían bastante refrigeración con un disipador pasivo o, como mucho, con un pequeño ventilador a unos tarjetas gráficas de alto rendimiento, en las que se recurre a sistemas de refrigeración que incluso llegan a necesitar ocupar dos ranuras de expansión, con sistemas de refrigeración por líquido y grandes ventiladores. Debemos tener en cuenta que alguna de estas tarjetas pueden llegar a generar temperaturas superiores a los 100º.

Gráfica NVidia 8800 GT. Obsérvese el sistema de refrigeración.

Mención aparte merece un elemento que, si bien no tiene por qué influir en la temperatura de un PC, si que influye debido a su colocación. Hablamos de la fuente de alimentación. Por el diseño de los ordenadores, la fuente de alimentación está normalmente colocada en la parte superior de la caja, justo encima del procesador. Pues bien, en condiciones normales de funcionamiento esto no supone ningún problema, ya que el mismo ventilador de dicha fuente ayuda a evacuar el aire caliente del interior de la torre (o caja), pero si que se convierte en un problema cuando este ventilador deja de funcionar, ya que en ese caso una buena parte del calor generado por la fuente de alimentación (que es bastante) se queda dentro de la torre, produciendo como consecuencia de esto un calentamiento extra de los demás elementos.

En resumen, este es un tema (el de la temperatura) del que debemos estar pendientes, aunque sin llegar a obsesionarnos, teniendo en cuenta siempre que no todos los ordenadores trabajan a las mismas temperaturas (sin que esto sea ningún problema) y que a mayor rendimiento también va a ser mayor la temperatura... y el consumo de energía. El que un procesador trabaje a una mayor temperatura no tiene mayor problema, mientras que esta se encuentre dentro de los límites establecidos por el fabricante.

Lo que si es muy importante (y que a veces olvidamos) es que esa temperatura que se genera

Page 172: Curso de arquitectura

no se quede en el ordenador, sino que sea evacuada lo antes posible al exterior, manteniendo en todo momento una buena circulación de aire dentro de nuestro PC. Para ello podemos recurrir a ventiladores extra en la caja, tanto para sacar el aire caliente como, en caso necesario, para introducir aire fresco del exterior.

EVOLUCION DE LOS PROCESADORES DESDE EL INTEL 8086 HASTA EL INTEL PENTIUM III Y AMD K-7.

En este tutorial, que espero que no se os haga muy pesado, vamos a ver un poco la historia de los procesadores y a dar un repaso por lo que estos nos ofrecen en la actualidad.

Hablar de procesadores es, sobre todo, hablar de Intel y de AMD, ya que son las empresas que han soportado el peso del desarrollo de estos, ya sea colaborando ambas empresas como en su fase de desarrollos independientes.

Aunque la historia de los ordenadores comienza bastante antes, la historia de los microprocesadores comienza en el año 1.971, con el desarrollo por parte de Intel del procesador 4004, para facilitar el diseño de una calculadora.

Al mismo tiempo, la empresa Texas Instruments (conocida por el diseño y fabricación de calculadoras) también trabajaba en un proyecto similar, por lo que aun se discute quien fue el creador del primer microprocesador, si Texas Instruments o Intel.

aquí nos vamos a limitar a la época de los PC (Personal Computer), que podemos decir que comienza en el año 1.978, con la salida al mercado del procesador Intel 8086.

Hablando de la historia de los ordenadores personales y sus procesadores no podemos olvidar a Apple y su Macintosh, ni a Motorola y su Power PC, pero en este tutorial nos vamos a centrar en los procesadores que utilizan los juegos de instrucciones x86 y x64 (los actuales procesadores de 64 bits).

8086 y 8088 (de 1.978 a 1.982)

Son los primeros procesadores utilizados en PC.

Muy poco tienen que ver con lo que hoy en día estamos acostumbrados. Ni tan siquiera la forma o el tipo de conexión con la placa base... y sin embargo, como se suele decir en las películas, fueron el principio de todo.

La diferencia entre los 8086 y los 8088 estaba en su frecuencia, que en el caso del 8086 era de unos ''sorprendentes'' 4.77Mhz, pasando en los 8088 a una frecuencia de entre 8 y 10Mhz, pudiendo gestionar 1Mb de memoria.

Usaban un socket de 40 pines (paralelos 20 + 20) y tenían un bus externo de entre 8 y 16 bits.

Carecían de instrucciones de coma flotante, pero para implementar estas se podían complementar con el coprocesador matemático 8087, que era el más utilizado, aunque no el único, ni tan siquiera el que ofrecía un mejor rendimiento.

De los dos modelos, el más utilizado sin duda fue el 8088, que además fue el utilizado por IBM en su IBM PC.

El modelo 8086 aun es utilizado en algunos dispositivos y calculadoras.

80186 y 80188 (de 1.982 hasta nuestros días)

Se trata de una evolución de los modelos 8086 y 8088.

Page 173: Curso de arquitectura

Si bien su uso como procesadores para ordenador tuvo muy poco uso e incidencia, siendo utilizado como tal por tan solo un par de fabricantes de PC, no se puede decir lo mismo sobre su importancia, ya que se siguen utilizando en nuestros días (en su versión CMOS), sobre todo por su capacidad de desarrollar las funciones que de otra forma tendrían que estar distribuidas entre varios circuitos.

En lugar de socket utilizaban una presentación tipo chip (la misma que utilizan hoy como CMOS), con una frecuencia de 6Mhz.

80286 (de 1.982 a 1.986)

Más conocido como i286 o simplemente como 286, se trata de un procesador en el que ya aparece la forma definitiva que llega hasta hoy (cuadrado, con los pines en una de sus caras), insertado en un socket de 68 pines, si bien también hubo versiones en formato chip de 68 contactos.

Los primeros 80286 tenían una frecuencia de 6 y 8Mhz, llegando con el paso del tiempo a los 25Mhz.

Funcionaban al doble de velocidad por ciclo de reloj que los 8086 y podían direccionar 16Mb de memoria RAM.

Los 80286 fueron desarrollados para poder trabajar en control de procesos en tiempo real y sistemas multiusuario, para lo que se le añadió un modo protegido. En este modo trabajaban las versiones de 16 bits del sistema operativo OS/2. En este modo protegido se permitía el uso de toda la memoria directamente, ofreciéndose además una protección entre aplicaciones para evitar la escritura de datos accidental fuera de la zona de memoria asignada (un sistema en buena parte similar al actual Bit de desactivación de ejecución de datos en su funcionamiento).

Los procesadores 80286 fueron fabricados bajo licencia de Intel por varios fabricantes además de la propia Intel, como AMD, Siemens, Fujitsu y otros.

80386 (de 1.986 hasta 1.994)

La aparición en el año 1.986 de los procesadores 80386 (más conocido como i386) supuso el mayor avance hasta el momento en el desarrollo de los procesadores, no solo por lo que supusieron de mejora sobre los 80286 en cuanto a rendimiento, sino porque es precisamente con este procesador con el que se sientan las bases de la informática tal como la conocemos. Esto llega hasta el punto de que si no fuera por el rendimiento y frecuencias, cualquier programa actual podría funcionar perfectamente en un 80386 (cosa que no ocurre con los procesadores anteriores).

Se trata del primer procesador para PC con una arquitectura CISC de 32bits e instrucciones x86 de direccionamiento plano (IA32), que básicamente es la misma que se utiliza en nuestros días.

Al tratarse de procesadores de 32bits podían manejar (en teoría) hasta 4Gb de RAM.

Page 174: Curso de arquitectura

Fueron también los primeros procesadores a los que se adaptó un disipador para su refrigeración.

Aclaro lo de ''para PC'' porque Motorola, con su Motorola 68000 para Mac hacia tiempo que ya utilizaba el direccionamiento plano.

La conexión a la placa base en las primeras versiones es mediante socket de 68 pines, igual al de los 80286 pero no compatibles, por lo que también significó el desarrollo de placas base específicas para este procesador, pasando posteriormente a un socket de 132 pines.

Con unas frecuencias de entre 16 y 40Mhz, se fabricaron en varias versiones.

80386 - A la que nos hemos referido hasta el momento.

i386SX - Diseñado como versión económica del 80386. Seguía siendo un procesador de 32bits, pero externamente se comunicaba a 16bits, lo que hacía que fuera a la mitad de la velocidad de un 80386 normal.

i386SX Now - Versión del 80386SX, pero con el patillaje compatible pin a pin con los procesadores 80286, desarrollado por Intel para poder actualizar los 80286 sin necesidad de cambiar de placa base.

i386DX - Es la denominación que se le dio a los 80386 para distinguirlos de los 80386SX cuando estos salieron al mercado.

Este procesador supuso la ruptura de la colaboración de Intel con otros fabricantes de procesadores, lo que tuvo como consecuencia que la gran mayoría de ellos dejaran de fabricar estos.

La gran excepción fue AMD, que en 1.991 sacó al mercado su procesador Am386, totalmente compatible con los i386, lo que terminó con el monopolio de Intel en la fabricación de estos.

Aunque no se utilizan en ordenadores, este procesador sigue en producción por parte de Intel, habiendo anuncio el fin de esta para mediados de 2.007.

80486 (de 1.989 a 1.995)

Más conocidos como i486, es muy similar al i386DX, aunque con notables diferencias.

De este tipo de procesador han habido muchas versiones, tanto de Intel como de otros fabricantes a los que les fue licenciado.

En ocasiones se trataba de procesadores iguales a los de Intel y en otras de diseños propios, como fue el caso de los Am486 de AMD.

Las frecuencias de estos procesadores fueron creciendo con el tiempo, llegando al final de su periodo de venta a los 133Mhz (en el caso del Am486 DX5 133), lo que lo convirtió en uno de los procesadores más rápidos de su época (y hay que tener en cuenta que los Pentium ya estaban en el mercado).

Las más frecuentes fueron 25Mhz, 33Mhz, 40Mhz, 50Mhz (con duplicación del reloj), 66Mhz (con duplicación del reloj), 75Mhz (con triplicación del reloj), 100Mhz (con triplicación del reloj) y en el caso de AMD (en los Am486DX5) 120Mhz y 133Mhz.

En un primer momento también salieron con unas frecuencias de 16Mhz y de 20Mhz, pero estas versiones son muy raras.

Con respecto a los Am486DX5 133 (también conocidos como Am5x86 133), hay que señalar

Page 175: Curso de arquitectura

que se trataba del procesador de mayor rendimiento de su época.

Las novedades en estos procesadores i486 fueron muchas, como por ejemplo un conjunto de instrucciones muy optimizado, unidad de coma flotante integrada en el micro (fueron los primeros en no necesitar el coprocesador matemático), una caché integrada en el propio procesador y una interface de bus mejorada. Esto hacia que a igualdad de frecuencia que un i386 los i486 fueran al doble de velocidad.

En cuanto a las versiones de los i486, podemos destacar:

Intel 80486-DX - La versión modelo, con las características indicadas anteriormente. Intel 80486-SX - Un i486DX con la unidad de coma flotante deshabilitada, para reducir su coste. Intel 80486-DX2 - Un i486DX que internamente funciona al doble de la velocidad del reloj externo. Intel 80486-SX2 - Un i486SX que funciona internamente al doble de la velocidad del reloj. Intel 80486-SL - Un i486DX con una unidad de ahorro de energía. Intel 80486-SL-NM - Un i486SX con una unidad de ahorro de energía. Intel 80486-DX4 - Un i486DX2 pero triplicando la velocidad interna. Intel 80486 OverDrive (486SX, 486SX2, 486DX2 o 486DX4) - variantes de los modelos anteriores, diseñados como procesadores de actualización, que tienen un patillaje o voltaje diferente. Normalmente estaban diseñados para ser empleados en placas base que no soportaban el microprocesador equivalente de forma directa.

Los procesadores i486 utilizaron a lo largo su existencia varios tipos diferentes de socket (para más información sobre los diferentes tipos de socket, consulte el tutorial Tipos de sockets y slots para procesadores), desde el socket 486 (de 168 pines) hasta el socket 2 (de 238 pines), finalizando por el socket 3 (de 237 pines, trabajando a 3.3v o a 5v).

Como ya hemos comentado, estos procesadores (en sus últimas versiones, sobre todo de AMD y de Cyrix) estuvieron durante un tiempo en el mercado junto con los primeros Pentium (desde marzo de 1.993 hasta 1.995, prácticamente hasta la salida del Pentium Pro y en el caso de los AMD hasta 1.996).

Pentium (de 1.993 a 1.997)

Este procesador fue creado para sustituir al i486 en los PC de alto rendimiento, si bien compartió mercado con ellos hasta el año 1.995, siendo precisamente estos su gran rival, ya que tuvieron que pasar algunos años (y versiones del Pentium) para que superara a los i486 DX4 en prestaciones, siendo además mucho más caros.

Los primeros Pentium tenían una frecuencia de entre 60Mhz, 66Mhz, 75Mhz y 133Mhz, y a pesar de las mejoras en su estructura, entre las que destaca su arquitectura escalable, no llegaban a superar a los i486 de Intel que en ese momento había en el mercado, y mucho menos a los Cyrix y Am486 DX4.

Para empeorar esta situación, en 1.994 se descubrió un error de división presentado en la unidad de coma flotante (FPU) de los Pentium.

Los primeros Pentium de 60Mhz y 66Mhz utilizaban el socket 4, de 273 pines y 5v, siendo rápidamente sustituido por el socket 5, de 320 pines y 3.3v, utilizado por los Intel Pentium a partir de 75Mhz y por los AMD 5k86 y los primeros K5 de hasta 100Mhz, que también podían utilizar el socket 7.

En enero de 1.997 salió al mercado una evolución de los Pentium llamada Pentium MMX (Multimedia Extensions), al añadírsele a los Pentium un juego de instrucciones multimedia que agilizaba enormemente el desarrollo de estos, con unas frecuencias de entre 166Mhz y 200Mhz.

Page 176: Curso de arquitectura

Este juego de instrucciones presentaba no obstante un serio inconveniente. Cuando se habilitaba no se podía utilizar el FPU (coma flotante), y al deshabilitarlo se producía una gran pérdida de velocidad.

Los Intel Pentium MMX utilizaban los socket 7, de 321 pines y entre 2.5 y 5v. Estos socket son los que también utilizaban los procesadores de la competencia de Intel, tanto los AMD K5 y K6 como los Cyrix 6x86.

Los primeros K5 aparecieron en 1.996. Se trataba de unos procesadores basados en la arquitectura RISC86, más próximos a lo que después serían los Pentium PRO y con un nivel de prestaciones desde un principio muy superior a los Pentium de Intel, pero con una serie de problemas, más de fabricación que del propio procesador, que hicieron que los K5 fueran un fracaso para AMD, y si bien los problemas se solucionaron totalmente con la salida de los K6, Intel supo aprovechar muy bien esta circunstancia para imponerse en el mercado de los procesadores para PC.

Utilizaban para las funciones multimedia las instrucciones MMX, que se habían convertido en el estándar de la época.

En 1.997 salen al mercado los AMD K6.

Diseñados para trabajar en placas base de Pentium dotadas de socket 7 y con unas frecuencia de entre 166 y 300Mhz, tuvieron una pronta aceptación en el mercado, ya que no solo tenían un precio bastante inferior a los Pentium MMX de Intel, sino también unas prestaciones muy superiores a estos y a los Cyrix 6x86, que se quedaron bastante descolgados.

Tal era la velocidad de los K6 que superaban incluso a los Pentium Pro en ejecución de software de 16 bits y solo por debajo del Pentium Pro en ejecución de programas de 32 bits y del Pentium II en ejecución de instrucciones de coma flotante (hay que tener en cuenta que los rivales naturales del AMD K6 NO son ni el Pentium Pro ni el Pentium II, sino los Pentium MMX).

En cuanto al Cyrix 6x86, si bien se trataba de un procesador bastante rápido (más que los MMX de Intel, aunque sin llegar a los K6 de AMD), fue un procesador que desde un principio adoleció de una serie de debilidades e incompatibilidades que hizo que no llegara en ningún momento a ser un serio rival de ninguno de ellos, llegando incluso a poner en peligro la supervivencia de la

Page 177: Curso de arquitectura

propia Cyrix, que a finales de 1.997 tuvo que fusionarse con Nationals Semiconductor.

Hay que decir que este es el último socket que tanto Intel como AMD utilizaron conjuntamente, produciéndose con la salida al mercado de los Pentium II el definitivo divorcio entre ambas compañías, hasta el punto de ser incompatibles las placas base para uno u otro.

Pentium Pro (de 1.995 hasta 1.998)

El Pentium PRO no fue diseñado como sustituto de ningún procesador, sino como un procesador para ordenadores de altas prestaciones destinados a estaciones de trabajo y servidores.

Basado en el nuevo núcleo P6, que más tarde seria adoptado por los Pentium II y Pentium III, utilizaba el socket 8, de forma rectangular y 387 pines, desarrollado exclusivamente para este procesador.

Con una frecuencia de reloj de 133 y 200Mhz, incorpora por primera vez un sistema de memoria caché integrada en el mismo encapsulado. Esta cache podía ser de 256Kb, 512Kb o de 1Mb.

Sobresalían en el manejo de instrucciones y software de 32 bits, en máquinas trabajando bajo Windows NT o Unix, pero casi siempre resultaban más lentos que un Pentium (y no digamos que un AMD K6) en programas e instrucciones de 16 bits. Estos procesadores no llegaron nunca a incorporar instrucciones MMX.

En 1.998 Intel abandonó su producción en favor de una nueva serie de procesadores para servidores y estaciones de trabajo, conocida con el nombre de Intel Xeon, que es la denominación que llega hasta nuestros días para ese tipo de procesadores, tras pasar por denominaciones tales como Intel Pentium II Xeon o Intel Pentium III Xeon.

Pentium II (de comienzos de 1.997 a mediados de 1.999).

Page 178: Curso de arquitectura

A comienzo de 1.997 Intel saca al mercado a bombo y platillo, y con una campaña de propaganda nunca antes vista para el lanzamiento de un procesador, el Pentium II.

Se trata de un procesador basado en la arquitectura x86, con el núcleo P6, que fue utilizado por primera vez en los Pentium Pro.

Con el lanzamiento de este procesador se produce la separación definitiva entre Intel y AMD... y llega la incompatibilidad de placas base entre ambos.

También se produce por parte de Intel el abandono de los socket, en favor de instalar los procesadores en Slot, en este caso Slot 1, de 242 contactos y de entre 1.3 y 3.3 voltios, que por cierto, sería abandonado posteriormente ante los problemas que este sistema genera.

Este sistema se empleó por dos motivos. Uno fué el facilitar la refrigeración del procesador, pero el otro (bastante más real y no confesado) fue la necesidad de espacio (estamos en 1.997, hace diez años, toda una vida en informática) para poder dotar de una serie de características a los Pentium II. Un tercer motivo fue puramente comercial. Intel se vio superada tanto en prestaciones como en precio por AMD, lo que le llevo a intentar con el lanzamiento de los Pentium II monopolizar el mercado, ya que la patente del Slot 1 es de su propiedad y no tiene porque licenciarla, por lo que en un principio se convirtió también en el único fabricante de placas base para Pentium II, pero este intento tuvo que ser rápidamente abandonado por razones comerciales, ya que los demás fabricantes de placas base respondieron potenciando la fabricación de placas base para los K6 y K6-2 de AMD y para los Syrix, mejorando incluso las prestaciones del socket 7 con la salida al mercado del socket Súper 7.

Estos procesadores, que como ya hemos dicho estaban basados más en los Pentium Pro que en los Pentium originales, contaban con memoria caché, tanto de nivel L1 (32Kb) como de nivel L2 (512Kb), pero a diferencia de lo que ocurría en los Pentium Pro no estaba integrada en el encapsulado del procesador, sino unida a este por medio de un circuito impreso. Para complicar más el tema, se les dota de instrucciones MMX y se les mejora el rendimiento en ejecuciones de 16bits.

Las frecuencias de reloj de estos Pentium II iban desde los 166Mhz a los 450Mhz, con una velocidad de bus de 66Mhz y de 100Mhz para las versiones superiores a los 333Mhz.

Por primera vez se utilizaron nomenclaturas para definir las diferentes versiones, tales como Klamath y Deschutes o Tonga y Dixon en dispositivos móviles.

Klamath:

A la venta desde mayo de 1.997, con un FSB de 66Mhz y frecuencias de 233Mhz, 266Mhz y 300Mhz.

Deschutes:

Sustituye a la serie Klamath en enero de 1.998.

Se comercializa con dos frecuencias de FSB diferentes y con velocidades de entre 266Mhz y 450Mhz.

- FSB 66Mhz - 266Mhz, 300Mhz y 333Mhz. - FSB 100Mhz - 350Mhz. 400Mhz y 450Mhz.

También, y en un intento por dominar totalmente el mercado cubriendo el espectro de ordenadores más económicos, Intel introduce en 1.998 la gama Celeron.

En agosto de 1.998 Intel saca al mercado una nueva gama de procesadores económicos,

Page 179: Curso de arquitectura

denominados Intel Celeron, denominación que llega hasta nuestros días. La principal finalidad de esta gama fue y es la de ofrecer procesadores al bajo precio para frenar el avance de AMD.

En esta fecha, Intel lanza el primer Celeron, denominado Covington. Este procesador no era otra cosa que un Pentiun II a 266 o a 300Mhz, pero sin memoria Caché L2. Tenían una velocidad superior a los MMX, pero su rendimiento efectivo era bastante pobre, por lo que después de un éxito inicial (basado sobre todo en la fuerza de la marca, más que en las cualidades del producto), Intel se planteó su sustitución.

A primeros de 1.999, Intel saco al mercado el sustituto del Celeron Covington, el Celeron Mendocino.

Aquí sí que Intel hizo bien los deberes, sacando al mercado uno de los mejores procesadores de su época, ofreciendo sobre todo una relación calidad/prestaciones/precio hasta el momento reservada a AMD, ya que si bien los Pentium II tenían unas prestaciones bastante superiores a los AMD, sobre todo en el desempeño de coma flotante, no es menos cierto que su precio era muy superior.

Los primeros Mendocino salieron con una velocidad de 300Mhz, conservando el FSB a 66Mhz, pero incorporando por primera vez en un procesador una memoria caché L2 (en este caso de 128Kb) incorporada en el mismo microprocesador y a la misma velocidad de este, en vez de llevarla exterior, como es el caso de los Pentium II.

Esto hacía que las prestaciones de los Mendocino, sobre todo en velocidades de hasta 433Mhz, fueran realmente buenas, llegando a competir seriamente con sus hermanos mayores, los Pentium II, lo que a la larga se convirtió en un problema para la propia Intel.

En las versiones superiores, debido sobre todo a la limitación que suponía el FSB a 66Mhz, las prestaciones reales no eran tan buenas, dejando de ser un gran procesador para convertirse simplemente en un procesador competitivo, siendo en muchos casos superado ampliamente por los AMD K6-2.

Por su parte , AMD no respondió a la salida de los Intel Pentium II hasta mayo de 1.998, con la salida al mercado del nuevo AMD K6-2.

Este procesador siguió utilizando el socket 7 en las versiones de hasta 550Mhz y el socket Súper7, que permitía el uso de AGP.

El uso de este tipo de socket fue todo un acierto comercial por parte de AMD, ya que permitía actualizar los Pentium que utilizaban este mismo socket a unas prestaciones incluso superiores a las ofrecidas por los Mendocino, e incluso en algunos casos a las ofrecidas por los Pentium II de menores velocidades, pero con un desembolso económico muchísimo menor.

A esto hay que sumarle una serie de mejoras introducidas por AMD, tales como caché L1

Page 180: Curso de arquitectura

incorporada en el microprocesador y un nuevo juego de instrucciones de coma flotante y multimedia exclusivo de AMD, denominada 3DNow!, que ofrecía un rendimiento superior a las instrucciones MMX (si bien es perfectamente compatible con estas), y sobre todo mejorando sustancialmente el problema de no ser posible la utilización de instrucciones de coma flotante cuando se utilizaban las instrucciones MMX.

En general, los Mendocinos eran más rápidos en accesos a caché y tenían un excelente rendimiento en operaciones de coma flotante frente a los K6-2, pero estos tenían una mayor velocidad de acceso a memoria y un mejor desempeño multimedia, debido sobre todo a la utilización de un FSB a 100Mhz y al conjunto de instrucciones 3DNow!, que con las debidas actualizaciones y mejoras sigue utilizando AMD en la actualidad.

La gama de AMD K6-2 iba desde los 233Mhz hasta los 550Mhz, con una caché L1 de 64Kb (32 para instrucciones y 32 para datos, en acceso exclusivo).

Este procesador, de un gran éxito comercial, afianzó las bases de AMD y permitió el posterior desarrollo de los AMD Athlon.

Pentium III (de 1.999 hasta 2.003)

En febrero de 1.999 Intel lanza el sustituto del Pentium II, el Pentium III.

Entre 1.999 y 2.003 se produjeron Pentium III en tres modelos diferentes:

Katmai:

De diseño muy similar al Pentium II, introduce el juego de instrucciones SSE, que ya no implica la deshabilitación de la unidad de coma flotante para poder realizar las funciones multimedia, tal como ocurría con MMX, así como un controlador mejorado de caché. El Pentium III Katmai utilizaba el mismo Slot 1 que los Pentium II, pero se fabricaron con unos FSB de 100Mhz y de 133Mhz. En un principio sus frecuencias eran de 450Mhz y 500Mhz, y en mayo de 1.999 salieron al mercado los Katmai de 550Mhz y 600Mhz.

Coppermine:

A finales de 1.999 sale al mercado la versión Coppermine. Esta versión incluye un aumento de caché L2 hasta los 256Kb. Esta serie utiliza tanto el Slot 1 como el nuevo Socket 370, introducido en el mercado para estos procesadores.

Incluso existía un adaptador para poder utilizar los Coppermone 370 en slot 1. Se fabricaron con unas velocidades de 500Khz, 533Mhz, 550Mhz, 600Mhz, 650Mhz, 667Mhz, 700Mhz y 733Mhz. En el año 2.000 salieron las versiones de 750Mhz, 800Mhz, 850Mhz, 866Mhz, 933Mhz y 1Ghz.

Page 181: Curso de arquitectura

Esta versión no ha muerto, ya que los primeras consolas Xbox lo utilizan en una versión especial de 900Mhz.

Tualatin:

Introducida en el año 2.001, se trata de la última serie de Pentium III, ya desarrollada solo para socket 370, con unas velocidades de 1.13Ghz, 1.2Ghz, 1.26Ghz y 1.4Ghz y un FSB de 133Mhz. Estos procesadores contaban con 256Kb de caché, y en la versión Pentium III-S (versión para servidores), con 512Kb.

Durante este periodo, Intel también potenció la Gama Celeron, con una serie de mejoras introducidas en este, así como una serie de modelos diferentes:

Celeron Coppermine-128:

En Marzo de 2.000, Intel pone finalmente a la venta los nuevos Celeron Coppermine-128, conocidos también como Celeron II. Estos procesadores estaban basados en los Pentium III Coppermine, pero con un FSB de 66Mhz y tan solo 128Kb de caché. Estos Celeron no destacaban precisamente por su rendimiento, que no supuso una gran mejora sobre el Mendocino. Se fabricaron en velocidades que iban desde los 533Mhz a los 766Mhz.

Para solucionar esta falta de rendimiento, en enero de 2.001 Intel renovó la gama de los Celeron Coppermine-128, aumentando su velocidad de FSB hasta los 100Mhz y ofreciendo unas velocidades de 800Mhz (el primero que se fabricó con un FSB de 100Mhz), 850Mhz, 900Mhz, 950Mhz, 1Ghz y 1.1Ghz. Esta mejora en el rendimiento los seguía dejando bastante lejos de los Pentium III, pero les permitía defenderse bastante bien frente a los AMD K6-2, a los que superaba en prestaciones.

Nunca fueron unos procesadores que destacaron en nada en concreto, pero debido a su precio eran una buena opción para aquellas maquinas en las que no se necesitara un gran rendimiento.

Page 182: Curso de arquitectura

Celeron Tuatalin:

En 2.002 se introducen los Celeron Tuatalin, basados en los Pentium III del mismo nombre, a los que se les había reducido el FSB a 100Mhz, con la misma caché que los Pentium III, es decir, 256Kb.

Las primeras versiones de este nuevo Celeron tenían una velocidades de 1Ghz y 1.1Ghz, y se les denomina como Celeron A para diferenciarlos de los Celeron Coppermine de esas velocidades. Posteriormente se sacaron al mercado versiones de 1.2Ghz, 1.3Ghz y 1.4Ghz.

Estos nuevos Celeron no tuvieron un gran éxito, ya que a pesar de las mejoras no alcanzaban un rendimiento destacable, y si bien tenían un buen precio, ya no se tenían que enfrentar a los K6-2, sino a los nuevos AMD Duron, contra los que no tenían nada que hacer.

Todos los nuevos Celeron se fabricaron en socket 370, teniéndose que recurrir a los adaptadores para poderlos montar en placas con slot 1.

Tanto los Pentium III como los Celeron estuvieron unos años junto con los Pentium 4, de los que hablaremos en otro tutorial.

Bien, hasta aquí hemos visto que pasaba en Intel con los Pentium III y los Celeron, pero... ¿qué estaba pasando en este periodo en AMD?.

Pues bien, AMD parecía conformarse con participar (eso sí, con bastante éxito) en el segmento de ordenadores de gama media y baja, con procesadores con un buen rendimiento, pero enfrentados a la gama Celeron de Intel, con unos rendimientos superiores a estos con la gamaAMD K6-2, al menos hasta la salida de los Celeron Coppermine-128.

Pero esto iba a cambiar totalmente en agosto de 1.999 con la salida de los nuevos AMD K7 ATHLON.

La primera serie de Athlon, conocidos también como Athlon Classic salen al mercado en agosto de 1.999, presentando una amplia serie de novedades y luchando no ya contra los Celeron, sino directamente contra los Pentium III de Intel, a los que por cierto superaron ampliamente.

Dadas las peculiaridades de los procesadores AMD, estos no eran compatibles con las prestaciones ni estructura de los chipset de Intel, por lo que AMD colaboró con otras empresas (en especial en esta época con VIA) para el desarrollo de chipset que soportaran las características y rendimientos de los procesadores AMD.

Athlon Classic:

Aunque basado en parte en el K6-2, se le mejora notablemente el rendimiento de coma flotante al incorporar 3 unidades que pueden funcionar simultáneamente, incorporando también las

Page 183: Curso de arquitectura

instrucciones 3DNow!. También se eleva la caché L1 a 128Kb (64 para instrucciones y 64 para datos) y se le incorporan 512Kb de caché L2, montados externamente (al igual que los P-II y los P-III de slot 1). Pero quizás la mayor diferencia la marca la utilización del FSB compatible con el protocolo EV6 de Alpha. Este bus funciona en esta versión a 100Mhz DDR (Dual Data Rate), lo que lo convierte en 200Mhz efectivos.

Esto hace que el rendimiento a igualdad de frecuencia sea muy superior, por lo que no es comparable un Pentium III a 850Mhz con un Athlon a la misma frecuencia.

Se comercializaron en un principio a unas velocidades de entre 500Mhz y 650Mhz, saliendo posteriormente versiones de 750Mhz, 800Mhz, 850Mhz, 900Mhz, 950Mhz y 1Ghz.

La memoria caché trabajaba a la mitad de frecuencia del procesador en los modelos inferiores, a 2/5 en los modelos de entre 750Mhz y 850Mhz y a 1/3 en los de 900mhz, 950mhz y 1Ghz.

los Athlon Classic utilizaban el Slot A, que físicamente era exactamente igual al Slot 1 utilizado por Intel, pero electrónicamente eran incompatibles.

Athlon Thunderbird:

Comercializados a partir de junio de 2.000, la principal diferencia es que abandonan el Slot A para utilizar el denominado Socket A, de 462 pines. Mantienen el FSB EV6, 128Kb de caché L1 (64 + 64) y 256Mb de caché L2, pero funcionando a la misma frecuencia que el núcleo del procesador.

De esta serie hay dos versiones. Las primeras tenían un FSB de 100Mhz DDR (200Mhz efectivos), y la segunda, comercializada a partir de primeros de 2.001 y denominada Athlon C, con un FSB de 133Mhz DDR (266Mhz efectivos).

Desde su salida al mercado, los Athlon se convirtieron en los procesadores más rápidos del mercado, superando siempre a todas las versiones del Pentium III e incluso a las primeras versiones del Pentium 4, presentando tan solo en inconveniente de unas temperaturas excesivamente elevadas, tema que se solucionó con la salida al mercado del Athlon XP.

Pero AMD no se conformó con esta situación, ya que en la gama baja los procesadores K6-2 habían perdido competitividad frente a los nuevos Celeron Tuatalin. Para solucionar esto, a mediados de 2.000 AMD saca su nueva gama de procesadores económicos Duron.

AMD Duron:

La primera serie de AMD Duron, denominada Spitfire, sale al mercado a mediados de 2.000 para competir en el mercado de los procesadores económicos con los Intel Celeron, batiendo a estos en prestaciones desde el primer momento. Esta primera serie no es otra cosa que un Athlon Thunderbird al que se le ha reducido la caché L2 a 64Kb, en lugar de los 256Kb de los Athlon, pero manteniendo el resto de especificaciones,

Page 184: Curso de arquitectura

incluido el FSB EV6 de 100Mhz DDR (200Mhz efectivos).

Tenían en esta versión una frecuencia de entre 600Mhz y 1.2Mhz, un extraordinario rendimiento en operaciones de coma flotante y contaban con las instrucciones 3DNow!.

Todo esto los convierte en los procesadores más rápidos en el segmento de procesadores económicos, al igual que sus hermanos los Athlon lo son el el segmento superior.

Esta supremacía en prestaciones la mantendrán durante bastante tiempo, prácticamente hasta la salida al mercado de la última generación de Pentium 4, pero de estos hablaremos en la segunda parte de este tutorial.

En noviembre del año 2.000 Intel saca al mercado el procesador Intel Pentium 4, que estuvieron durante unos años compartiendo mercado con los Pentium III y AMD Athlon y Athlon XP.

En la segunda parte de este tutorial (Modelos de procesadores y su evolución (2ª parte)) hablaremos de las diferentes series de Pentium 4 y Celeron, así como de los procesadores de AMD que compiten en el mercado con ellos.

EVOLUCION DE LOS PROCESADORES: LA ERA PENTIUM 4.

En el anterior tutorial sobre los procesadores Modelos de procesadores y su evolución (1ª parte). hemos llegado hasta el Pentium III y el AMD Athlon, aproximadamente hasta el año 2.003, aunque con anterioridad a esta fecha sale al mercado el Intel Pentium 4 y el AMD Athlon XP.

Pues bien, en ese punto es en el que retomamos la historia, ya que en primer lugar es la historia más actual y en segundo lugar merecen un tutorial aparte.

En este tutorial, y dada la separación definitiva en la trayectoria de ambas marcas, vamos a ver diferenciados los modelos de AMD y de INTEL, sin poder evitar las lógicas comparaciones entre ambos, aunque lo primero que hay que decir es que ambas marcas tienen productos de una gran calidad, no existiendo en este punto ninguna diferencia entre una y otra.

Se trata así mismo de dos grandes empresas, y si bien para el público en general es más conocida Intel que AMD, seguro que casi todos tenemos algún producto electrónico (sobre todo teléfonos móviles) con algún chip de AMD.

Pero bueno, vamos a entrar en materia.

INTEL:

INTEL PENTIUM 4:

En el año 2.000 Intel saca al mercado los nuevos Pentium 4, y lo hace con un gran despliegue

Page 185: Curso de arquitectura

de publicidad, superando incluso la que en su día hizo para el lanzamiento de los Pentium II.

El lanzamiento de los Pentium 4 se hizo de forma muy acelerada, más que nada para intentar recuperar el liderazgo en prestaciones, que había perdido en favor de AMD con la salida de los Athlon Thunderbird.

Vamos a ver las diferentes series de Pentium 4.

- Pentium 4 Willamette:

Como hemos comentado, en noviembre de 2.000 Intel saca al mercado el nuevo Pentium 4, para quitarle la supremacía en rendimiento a los AMD Athlon Thunderbird.

Se trata de un procesador fabricado con la tecnología de 0.18 micras, con un FSB de 400MHz y una caché L2 de 256KB, mientras que la caché L1 se sitúa en 8KB.

Las primeras versiones salen para un socket de 423 pines, y con unas velocidades de 1.3GHz, 1.4GHz, 1.5GHz y 2.0GHz, y utilizando un nuevo tipo de memorias denominado RIMM, que si bien eran bastante más rápidas que los SDRAM, tenían un costo muy superior, se calentaban muchísimo y tenían una gran latencia.

En la primera mitad de 2.001 salen al mercado versiones de 1.6GHz, 1.7GHz y 1.8GHz.

En las últimas versiones se empieza a utilizar el socket de 478 pines, que se utilizaría hasta la salida de los P-4 Prescott, en febrero de 2.004.

Este primer Pentium 4 no fue precisamente un éxito, ya que en la practica resultaba incluso más lento que los Pentium III superiores (tan solo los superó cuando salió al mercado el P-4 de 1.7GHz) y tan solo la versión de 2.0GHz se acercaba en prestaciones a los AMD Athlon e incluso a los AMD Duron, superándolo tan solo en algunas pruebas y dependiendo de los parámetros utilizados para hacer los test (se ha comentado que algunos de estos test estaban diseñados por los ingenieros de la propia Intel, para aprovechar al máximo los puntos fuertes del P-4).

- Pentium 4 Northwood:

En enero de 2.002, Intel saca al mercado la nueva serie de Pentium 4, denominada Northwood, que ha llegado hasta nuestros días, estando en el mercado hasta el año 2.004. Esta versión sale debido al empuje de AMD, que con la serie Athlon XP había recuperado la supremacía en cuanto a prestaciones hacia unos meses.

En un principio salen las versiones de 2.0GHz y 2.2GHz, con una caché de 512KB y un FSB de 400MHz. En abril de 2.002 sale una versión de 2.4GHz.

En mayo de 2.002 sale un modelo a 2.53MHz, con un FSB aumentado a 533MHz, y en agosto de ese mismo año, las versiones de 2.6MHz y 2.8MHz, todos ya con el FSB a 533MHz.

Page 186: Curso de arquitectura

En noviembre de 2.002 Intel lanza una versión a 3.06MHz, en la que introduce por primera vez la tecnología Hyper Threading, que ya se utilizaba en los Xeon, y que permite a estos procesadores comportarse como si dispusieran de un doble núcleo (a esta tecnología se debe el que estos procesadores aparezcan en los informes de sistema como si se tratase de dos procesadores). Esta tecnología en ningún momento supone realmente que dispongamos de esos dos núcleos, y en la práctica solo supone un aumento en el rendimiento de estos micros en torno al 15 - 20%.

Ya en abril de 2.003, Intel renueva la práctica totalidad de su gama Pentium 4, sacando una serie de procesadores de 2.4GHz, 2.6GHz, 2.8GHz y 3GHz, todos ellos con la tecnología Hyper Threading y un FSB aumentado a 800MHz. Esta gama supuso para Intel recuperar el liderazgo en el mercado de procesadores de PC en cuanto a rendimiento, ya que los AMD XP no llegaban a las prestaciones ofrecidas por estos procesadores de Intel.

Ya a principio de 2.004 salió al mercado el Northwood 3.4GHz, que sería el último de esta serie, la más equilibrada de los Pentium 4 con socket 478.

- Pentium 4 Extreme Edition (abril 2003)

En el tercer trimestre de 2.003 (más concretamente en septiembre), y ante la inminente salida al mercado de los nuevos AMD 64, Intel saca al mercado la serie Extreme Edition.

En parte basados en los Xeon, aunque utilizando las mismas placas que el resto de los Pentium 4 (socket 478), estos procesadores contaban con 2MB adicionales de caché L3 (de tercer nivel), así como de un FSB a 800MHz. Estos procesadores estaban destinados más que nada al mercado de los videojuegos y multimedia, donde destacaron como los procesadores de mejores prestaciones. Sin embargo, esta incorporación de caché L3 también supuso que, debido a los tiempos de latencia de esta, en aplicaciones ofimáticas fueran más lentos que los Northwood a igualdad de velocidad de reloj.

- Pentium 4 Prescott:

En febrero de 2.004 Intel saca al mercado una nueva serie de P-4, denominada Prescott. Los primeros Prescott siguen utilizando el socket de 478 pines, pero presentan varias novedades, como el encapsulado de 90nm, caché L2 aumentada a 1MB y caché L1 aumentada a 16KB. También se introduce en esta serie el nuevo juego de instrucciones multimedia SSE3. En principio se presenta con una velocidad de reloj de 3.4GHz y un FSB de 800MHz. Poco a poco, Intel va renovando su gama y saca nuevas versiones de P4 Prescott, aunque de momento sin superar los 3.4GHz. Para diferenciarlos (ya que físicamente son iguales), Intel recurre al sistema de añadirle la letra E después del nombre.

Pero a pesar de las novedades que presenta, también tiene grandes inconvenientes. El Prescott presenta un muy serio problema con las temperaturas, problema que AMD hacía bastante tiempo que había solucionado, y que no era tan alta desde los tiempos de los primeros Athlon de AMD, y además no consigue superar en rendimiento a un Northwood de igual velocidad de reloj.

En general se puede decir que el P4 Prescott es uno de los peores procesadores que ha sacado al mercado Intel, ya que su rendimiento nunca llegó a superar a la anterior serie, y esto con unos graves problemas de disipación de temperatura, que los Northwood no tenían.

LLEGA LA REVOLUCION: EL SOCKET 775.

Page 187: Curso de arquitectura

En el año 2.004 Intel decide abandonar el socket 478 en favor del nuevo socket de tipo LGA 775, con el que se abandona el sistema de pines para utilizar un sistema de contactos.

A pesar del cambio de socket, de momento los procesadores siguen siendo los P4 prescott. en su afán de lucha contra AMD, Intel tiene en proyecto subir la velocidad de este procesador hasta los 4GHz (e incluso se barajaron velocidades superiores), pero a pesar de que este nuevo tipo de socket tiene un mayor poder de refrigeración que el anterior 478 (sobre todo por el sistema de enganche del disipador, que mantiene al procesador menos encajonado), los problemas de temperatura de los prescott son tan grandes que definitivamente el tope de la gama se sitúa en 3.8GHz, abandonándose los proyectos de procesadores de mayor velocidad.

Pentium D:

En la primavera de 2.005 Intel presenta los nuevos procesadores Pentium D, que sustituyen a los Prescott, y es la primera serie de procesadores con dos núcleos reales (recordemos que los Hyper Treading en realidad tenían un solo núcleo).

Las primeras versiones constan de dos núcleos Smithfield, basados en los anteriores prescott. Incorporan 1MB de caché L2 por núcleo ysoporte nativo de 64 bits EM64T.

Aunque en los Pentium D se abandona la denominación de los procesadores en base a su velocidad de reloj, se sigue facilitando esta, aunque hay que aclarar que en estos Pentium D la velocidad que se facilita es la velocidad total de los dos núcleos, no la velocidad de cada núcleo,como se empezó a hacer en los Core 2 Duo.

Salen al mercado cinco versiones con este núcleo Smithfield:

- Pentium D 805, a 2.6 GHz. - Pentium D 820, a 2.8 GHz. - Pentium D 830, a 3.0 GHz. - Pentium D 840, a 3.2 GHz. - Pentium D Extreme Edition, a 3.2 GHz, con Hyper Threading.

Ya en el año 2.006 se renueva la serie Pentium D, con la nueva tecnología de 65nm, un nuevo núcleo denominado Presler (que consiste en la unión de dos núcleos Cedar Mill) y 1MB de memoria caché por núcleo. el total de versiones de este nuevo Pentium D es de ocho:

- Pentium D 920, a 2.8 GHz - Pentium D 930, a 3.0 GHz - Pentium D 940, a 3.2 GHz - Pentium D 945 dual, a 3.4 Ghz - Pentium D 950, a 3.4 Ghz - Pentium D 960, a 3.6 Ghz - Pentium D 955 Extreme Edition, a 3.466 - Pentium D Extreme Edition 965, a 3.73GHz, un FSB de 1066 MHz y caché L2 de 2 MB en cada núcleo.

Page 188: Curso de arquitectura

Esta gama sigue en fabricación, aunque está prevista su paulatina desaparición, por lo que no hay previsión de nuevas versiones.

Intel Core 2 Duo:

Pero la verdadera revolución en los procesadores Intel se produce en julio de 2.006, con la salida al mercado de los Intel Core 2 Duo.

Esta gama ha sido desarrollada no solo por la presión ejercida por AMD, sino también para poder cumplir con las especificaciones exigidas por Apple para los Mac PC.

Durante los años 2.005 y 2.006, AMD había superado nuevamente a Intel en el rendimiento de sus procesadores, tanto en los procesadores de un solo núcleo como en los de doble núcleo. La respuesta de Intel llegó en el verano de 2.006, con la presentación de los Core 2 Duo. Se trata de unos procesadores basados en la arquitectura de los Pentium M, que tienen una arquitectura mucho más eficiente que la de los Pentium 4. Como principales características, cuentan con un motor de ejecución ancho, cuatro FPUs y tres unidades SSE de 128bits, así como arquitectura de 64bits EM64T, tecnología de virtualización, Intel Enhanced SpeedStep Technology, Active Management Technology (iAMT2), MMX, SSE, SSE2, SSE3, SSSE3, y XD bit. Todos ellos con un consumo reducido (de 65 wattios).

Los Intel Core 2 Duo se presentan en tres gamas:

- Allendale (gama baja):

Basados en los Conroe, pero con 2MB de caché desactivados. Fecha de salida: julio de 2.006.

Core 2 Duo E4300 1.80GHz 800MHz - 2×32KB L1 - 2Mb L2 Core 2 Duo E6300 1.86GHz 1066MHz - 2×32KB L1 - 2Mb L2 Core 2 Duo E6400 2.13GHz 1066MHz - 2×32KB L1 - 2Mb L2

- Conroe (gama media): Fecha de salida: julio de 2.006.

Core 2 Duo E6600 2.40GHz 1066MHz - 2×32KB L1 - 4Mb L2 Core 2 Duo E6700 2.66GHz 1066MHz - 2×32KB L1 - 4Mb L2

En julio de 2.007 se renueva la gama con una serie de nuevos procesadores, en la que se pasa en los modelos más altos a un FSB de 1333Mhz, a la vez que se experimenta una fuerte bajada en los precios.

Core 2 Duo E6320 1.86 GHz 1066MHz - 2×32KB L1 - 4Mb L2 Core 2 Duo E6420 2.13 GHz 1066MHz - 2×32KB L1 - 4KB L2 Core 2 Duo E6540 2.33 GHz 1333MHz - 2×32KB L1 - 4Mb L2 Core 2 Duo E6550 2.33 GHz 1333MHz - 2×32KB L1 - 4Mb L2 Core 2 Duo E6750 2.66 GHz 1333MHz - 2×32KB L1 - 4Mb L2 Core 2 Duo E6850 3.00 GHz 1333MHz - 2×32KB L1 - 4Mb L2

- Conroe XE (gama alta): Fecha de salida: Julio de 2.006.

Encuadrado dentro de la línea Extreme, con un consumo de 75 wattios.

Core 2 Extreme X6800 2.93GHz 1066MHz - 2×32KB L1 - 8Mb L2

Intel ha anunciado para el tercer trimestre de 2.007 la salida de una familia de procesadores de cuatro núcleos.

Page 189: Curso de arquitectura

INTEL CELERON:

Intel continúa con su gama de bajo costo Celeron, adaptándola a los nuevos modelos de Pentium 4, en los que están basados.

La principal diferencia con estos es una drástica reducción en la memoria caché (que en los Celeron es de 8MB de caché L1 y de 128KB de caché L2) y en el FSB (que se mantiene en 400MHz), y por lo tanto, en el rendimiento.

Son varias las series de Celeron, ya que siempre han evolucionado junto con los P4:

- Willamette-128:

Basados en los Pentium 4 Willamette, se les conoce también como Celeron 4. Tienen una caché L2 de 128KB en lugar de 256KB o 512KB de las P4.

- Northwood-128:

Basados en los Pentium 4 Northwood, pero con solo 128KB de caché L2. Son prácticamente iguales a los Celeron Willamette-128 y no hay una diferencia significativa en su rendimiento.

Celeron D:

Los Celeron D suponen la primera evolución realmente importante en estos procesadores en bastantes años.

Basados en los P4 Prescott, pero con una serie de sustanciales mejoras sobre los anteriores Celeron.

Pasan a fabricarse en tecnología de 90nm y 65nm, se les incorporan instrucciones SSE3y EM64T.

También ven aumentada su memoria caché a 16MB de caché L1 y a 256MB de caché L2 (y en algunos modelos, a 512MB), aunque eso sí, con una latencia bastante mayor, por lo que este aumento de caché no implica un aumento de las mismas proporciones en el rendimiento. Así mismo, ven aumentado su FSB hasta los 533MHz.

En los Celeron D se emplea el nuevo sistema de nomenclaturas de Intel, abandonándose el de nombrarlos según su frecuencia de reloj.

En la siguiente lista podemos ver los modelos existentes de Celeron D:

Celeron D 310 - 2,13 GHz (90 nm) - 256KB Caché L2. Celeron D 315 - 2.26 GHz (90 nm) - 256KB Caché L2. Celeron D 320 - 2,40 GHz (90 nm) - 256KB Caché L2. Celeron D 325 - 2,53 GHz (90 nm) - 256KB Caché L2. Celeron D 325J - 2,53 GHz (90 nm) - 256KB Caché L2. Celeron D 326 - 2,53 GHz (90 nm) - 256KB Caché L2. Celeron D 330 - 2,66 GHz (90 nm) - 256KB Caché L2. Celeron D 330J - 2,66 GHz (90 nm) - 256KB Caché L2. Celeron D 331 - 2,66 GHz (90 nm) - 256KB Caché L2. Celeron D 335 - 2,80 GHz (90 nm) - 256KB Caché L2. Celeron D 335J - 2,80 GHz (90 nm) - 256KB Caché L2. Celeron D 336 - 2,80 GHz (90 nm) - 256KB Caché L2. Celeron D 340 - 2,93 GHz (90 nm) - 256KB Caché L2. Celeron D 340J - 2,93 GHz (90 nm) - 256KB Caché L2. Celeron D 341 - 2,93 GHz (90 nm) - 256KB Caché L2.

Page 190: Curso de arquitectura

Celeron D 345 - 3,06 GHz (90 nm) - 256KB Caché L2. Celeron D 345J - 3,06 GHz (90 nm) - 256KB Caché L2. Celeron D 346 - 3,06 GHz (90 nm) - 256KB Caché L2. Celeron D 347 - 3,06 GHz (65 nm) - 512KB Caché L2. Celeron D 350 - 3,20 GHz (90 nm) - 256KB Caché L2. Celeron D 351 - 3,20 GHz (90 nm) - 256KB Caché L2. Celeron D 352 - 3,20 GHz (65 nm) - 512KB Caché L2. Celeron D 355 - 3.33 GHz (90 nm) - 256KB Caché L2. Celeron D 356 - 3.33 GHz (65 nm) - 512KB Caché L2. Celeron D 360 - 3.46 GHz (65 nm) - 512KB Caché L2. Celeron D 365 - 3.60 GHz (65 nm) - 512KB Caché L2.

Intel está también renovando su gama Celeron.

ADVANCED MICRO DEVICES (AMD):

¿Pero que está pasando mientras en AMD?. A estas alturas de la historia, AMD está firmemente posicionada como la segunda empresa en la fabricación de procesadores para PC (hace ya tiempo que es la primera empresa en la fabricación de procesadores para dispositivos móviles) y poco a poco comienza su acercamiento Intel.

Como ya vimos en la 1ª parte de esta historia, con la salida de los Athlon Thunderbird AMD se sitúa a la cabeza en cuanto a prestaciones se refiere, situación que se mantendría hasta la salida al mercado de los P4 Willamette a 1.7GHz, con el que Intel recuperó el liderazgo en esta dura batalla (que se mantiene hasta nuestros días).

Pero AMD no se conforma con esta situación, y en mayo de 2.001 salen al mercado los nuevos AMD Athlon, que reciben la denominación de Athlon XP (aunque en su historia se fabrican con varion núcleos), con los que AMD vuelve a recuperar la ventaja en cuanto a prestaciones se refiere con la salida de los XP con núcleo Barton.

Vamos a ver los diferentes modelos de Athlon XP que salieron al mercado, todos ellos para el socket A / socket 462.

- Athlon XP con núcleo Palomino:

Es el primero de la familia Athlon XP, en el que se introducen mejoras en el rendimiento que hacen que, a igualdad de velocidad de reloj, sea entre un 10% y un 20% más rápido que un Athlon Thunderbird. También, a partir de este modelo, los Athlon incorporan las nuevas instrucciones multimedia SSE de Intel, junto con las 3D Now! de AMD. El mayor problema que presentaban era que seguían generando un exceso de temperatura. Debido al aumento de prestaciones a igual velocidad de reloj, AMD adopta un sistema de denominación de sus procesadores que consiste en nombrarlos por sus prestaciones relativas en lugar de por hacerlo por su velocidad de reloj. Este sistema de denominación se mantendrá hasta la salida de los procesadores de doble núcleo, incluso en los AMD 64.

Page 191: Curso de arquitectura

Esta primera serie salió al mercado con unas frecuencias de reloj de entre 1.33GHz y 1.73GHz.

MODELOS: 1500+ - 1333MHz 1700+ - 1467MHz 2100+ -1733MHz

- Athlon XP con núcleo Thoroughbred:

En junio de 2.002, AMD saca la que será la cuarta generación de procesadores Athlon. Se trata de los Athlon XP Thoroughbred en su revisión A.

En estos nuevos procesadores se pasa de la tecnología de 180nm a la de 130nm, siendo por lo demás idénticos a los Palomino. AMD consiguió solucionar finalmente el problema de las altas temperaturas con los Athlon XP Thoroughbred - B.

Esta serie salió al mercado con unas frecuencias de reloj de entre 1.4GHz y 2.25GHz.

MODELOS: 1600+ - 1400MHz 1700+ - 1467MHz 1800+ - 1533MHz 1900+ - 1600MHz 2000+ - 1667MHz 2100+ - 1733MHz 2200+ - 1800MHz 2400+ - 2000MHz 2500+ - 1833MHz - 333MHz FSB 2600+ - 2133MHz 2600+ - 2083MHz - 333MHz FSB 2700+ - 2167MHz - 333MHz FSB 2800+ - 2250MHz - 333MHz FSB

- Athlon XP con núcleo Barton:

La quinta revisión de los Athlon supuso una serie de importantes mejoras, que los situó nuevamente a la cabeza en cuanto a prestaciones se refiere. Se aumentó la caché L2 a 512KB y la frecuencia del bus pasó de 133MHz (266MHz efectivos) a 166MHz (333MHz efectivos, y posteriormente a 200MHz (400MHz efectivos). Como curiosidad hay que decir que se armó un gran revuelo cuando se conoció que algunas pruebas de rendimiento que daban como ganadora a Intel (como la prueba BAPCo) estaban diseñadas por ingenieros de la propia Intel.

Esta serie salió al mercado con unas frecuencias de reloj de entre 2.13GHz y 2.33GHz.

MODELOS: 2800+ - 2133MHz - 266MHz FSB - 512MB L2 2900+ - 2000MHz - 400MHz FSB - 512MB L2 3000+ - 2167MHz - 333MHz FSB - 512MB L2 3000+ - 2100MHz - 400MHz FSB - 512MB L2 3100+ - 2200MHz - 400MHz FSB - 512MB L2 3200+ - 2333MHz - 333MHz FSB - 512MB L2

- Athlon XP con núcleo Thorton:

Se trata en realidad de procesadores con núcleo Barton, pero con la mitad de la caché L2 deshabilitada y funcionando en todos los casos a 266MHz de FSB. Estos procesadores salieron para sustituir a los Thoroughbred en las gamas más bajas.

Esta serie salió al mercado con unas frecuencias de reloj de entre 1.67GHz y 2.13GHz.

MODELOS: 2000+ - 1667MHz - 256MB L2 2200+ - 1800MHz - 256MB L2 2400+ - 2000MHz - 256MB L2 2600+ - 2133MHz - 256MB L2

Athlon 64:

Page 192: Curso de arquitectura

En septiembre de 2.003, AMD lanza la nueva generación de procesadores Athlon. Se trata de los nuebos Athlon 64, y van cargados de novedades. Para empezar, implementa el juego de instrucciones AMD64, siendo la primera vez que un juego de instrucciones x86 no es ampliado en primer lugar por Intel (este juego de instrucciones se conocerá como x64) Más adelante, Intel llamará a su juego de instrucciones de 64bits EM64T, siendo totalmente compatible con AMD64 y basado en buena parte en este. Esto lo comvierte en el primer procesador para Pc (tanto los Xeon como los Opteron son procesadores para servidores) de 64bits, soportando además de forma nativa el juego de instrucciones de 32bits. Incorporan también un gestor de memoria en el propio procesador, lo que hace que tanto el acceso a esta como se aprovechamiento no dependa del Northbridge de la placa base y sea mucho más eficiente que en otros procesadores, logrando unos rendimientos muy altos. Cuentan además con la tecnonogía HyperTransport, que duplica la velocidad FSB, y con la tecnología Coll'n'Quiet, que adapta el voltaje y el rendimiento del procesador a las necesidades demandadas, lo que supone un ahorro tanto de energía como un mayor silencio de funcionamiento, al adaptar también la velocidad del ventilador a las necesidades en función de l atemperatura.

Los AMD Athlon 64 han utilizado tres tipos diferentes de socket, dependiendo de la memoria que gestionan: Socket 754.- Que puede gestionar memorias DDR en canal simple. Socket 939.- Que gestionas memoria DDR en Dual Channel. Socket AM2 (de 940 pines).- Que gestiona memorias DDR2 en Dual Channel.

estos procesadores se fabrican en diferentes modelos, dependiendo de múltiples factores, lo que hace un poco complicada su identificación.

Vamos a ver esos modelos y sus principales características:

- Clawhammer:

Fabricados en 130nm, 128KB L1, MMX, Extended 3DNow!, SSE, SSE2, AMD64, Cool'n'Quiet, TDP 89w, 09/2.003

AMD Athlon 64 2800+ - 1800MHz - 1600 FSB - 512KB L2 - Socket 754 - 1.50 v - 9x AMD Athlon 64 3000+ - 2000MHz - 1600 FSB - 512KB L2 - Socket 754 - 1.50 v - 10x AMD Athlon 64 3200+ - 2000MHz - 1600 FSB - 1024KB L2 - Socket 754 - 1.50 v - 10x AMD Athlon 64 3400+ - 2200MHz - 1600 FSB - 1024KB L2 - Socket 754 - 1.50 v - 11x AMD Athlon 64 3500+ - 2200MHz - 2000 FSB - 512KB L2 - Socket 939 - 1.50 v - 11x AMD Athlon 64 3700+ - 2400MHz - 1600 FSB - 1024KB L2 - Socket 754 - 1.50 v - 12x AMD Athlon 64 4000+ - 2400MHz - 2000 FSB - 1024KB L2 - Socket 939 - 1.50 v - 12x

- Newcastle:

Fabricados en 130nm, 128KB L1, MMX, Extended 3DNow!, SSE, SSE2, AMD64, Cool'n'Quiet, NX Bit, TDP 89w, 2.004

AMD Athlon 64 2800+ - 1800MHz - 1600 FSB - 512KB L2 - Socket 754 - 1.50 v - 9x AMD Athlon 64 3000+ - 2000MHz - 1600 FSB - 512KB L2 - Socket 754 - 1.50 v - 10x AMD Athlon 64 3000+ - 1800MHz - 2000 FSB - 512KB L2 - Socket 939 - 1.50 v - 9x AMD Athlon 64 3200+ - 2200MHz - 1600 FSB - 512KB L2 - Socket 754 - 1.50 v - 11x AMD Athlon 64 3200+ - 2000MHz - 2000 FSB - 512KB L2 - Socket 939 - 1.50 v - 10x AMD Athlon 64 3300+ - 2400MHz - 1600 FSB - 256KB L2 - Socket 754 - 1.50 v - 12x AMD Athlon 64 3400+ - 2400MHz - 1600 FSB - 512KB L2 - Socket 754 - 1.50 v - 12x AMD Athlon 64 3400+ - 2200MHz - 2000 FSB - 512KB L2 - Socket 939 - 1.50 v - 11x AMD Athlon 64 3500+ - 2200MHz - 2000 FSB - 512KB L2 - Socket 939 - 1.50 v - 11x AMD Athlon 64 3800+ - 2400MHz - 2000 FSB - 512KB L2 - Socket 939 - 1.50 v - 12x

- Winchester:

Page 193: Curso de arquitectura

Fabricados en 90nm, 128KB L1, MMX, Extended 3DNow!, SSE, SSE2, AMD64, Cool'n'Quiet, NX Bit, TDP 67w, 09/2.004

AMD Athlon 64 3000+ - 1800MHz - 2000 FSB - 512KB L2 - Socket 939 - 1.40 v - 9x AMD Athlon 64 3200+ - 2000MHz - 2000 FSB - 512KB L2 - Socket 939 - 1.40 v - 10x AMD Athlon 64 3500+ - 2200MHz - 2000 FSB - 512KB L2 - Socket 939 - 1.40 v - 11x

- Venice:

Fabricados en 90nm, 128KB L1, MMX, Extended 3DNow!, SSE, SSE2, SSE3, AMD64, Cool'n'Quiet, NX Bit, TDP 69w 04/2005

AMD Athlon 64 3000+ - 2000MHz - 1600 FSB - 512KB L2 - Socket 754 - 1.40 v - 10x AMD Athlon 64 3000+ - 1800MHz - 2000 FSB - 512KB L2 - Socket 939 - 1.35/1.40 v - 9x AMD Athlon 64 3200+ - 2000MHz - 2000 FSB - 512KB L2 - Socket 939 - 1.35/1.40 v - 10x AMD Athlon 64 3400+ - 2200MHz - 2000 FSB - 512KB L2 - Socket 939 - 1.35/1.40 v - 11x AMD Athlon 64 3500+ - 2200MHz - 2000 FSB - 512KB L2 - Socket 939 - 1.35/1.40 v - 11x AMD Athlon 64 3800+ - 2400MHz - 2000 FSB - 512KB L2 - Socket 939 - 1.35/1.40 v - 12x

- San Diego:

Fabricados en 90nm, 128KB L1, MMX, Extended 3DNow!, SSE, SSE2, SSE3, AMD64, Cool'n'Quiet, NX Bit, TDP 89w, 04/2.005

AMD Athlon 64 3500+ - 2200MHz - 2000 FSB - 1024KB L2 - Socket 939 - 1.35/1.40 v - 11x AMD Athlon 64 3700+ - 2200MHz - 2000 FSB - 1024KB L2 - Socket 939 - 1.35/1.40 v - 11x AMD Athlon 64 4000+ - 2400MHz - 2000 FSB - 1024KB L2 - Socket 939 - 1.35/1.40 v - 12x

- Orleans:

Fabricados en 90nm, 128KB L1, MMX, Extended 3DNow!, SSE, SSE2, SSE3, AMD64, Cool'n'Quiet, NX Bit, TDP 62w, 05/2.006

AMD Athlon 64 3500+ - 2200MHz - 2000 FSB - 1024KB L2 - Socket AM2 - 1.25/1.35/1.40 v - 11x AMD Athlon 64 3800+ - 2400MHz - 2000 FSB - 1024KB L2 - Socket AM2 - 1.25/1.35/1.40 v - 11x AMD Athlon 64 4000+ - 2600MHz - 2000 FSB - 1024KB L2 - Socket AM2 - 1.25/1.35/1.40 v - 12x

Athlon 64 FX:

Para ofrecer un procesador de superior rendimiento (tal como Intel hizo con su serie Extreme), AMD saca los procesadores Athlon 64 FX, basados en los potentes Opteron para servidores. Se trata de procesadores pensados para un uso extremo y, sobre todo, para el mercado de los videojuegos. Algunos de ellos salen para socket 940, que no debemos confundir con el socket AM2, ya que son incompatibles.

Hay dos series de procesadores Athlon 64 FX:

- SledgeHammer:

Fabricados en 130nm, 128KB L1, MMX, Extended 3DNow!, SSE, SSE2, SSE3, AMD64, Cool'n'Quiet, NX Bit, TDP 62w

Athlon 64 FX-51 - 2200MHz - 1600FSB - 1024KB L2 - Socket 940 - 1.50 v - 11x - 09/2.003 Athlon 64 FX-53 - 2400MHz - 1600FSB - 1024KB L2 - Socket 940 - 1.50 v - 12x - 09/2.003 Athlon 64 FX-53 - 2400MHz - 2000FSB - 1024KB L2 - Socket 939 - 1.50 v - 12x - 06/2.004 Athlon 64 FX-55 - 2600MHz - 2000FSB - 1024KB L2 - Socket 939 - 1.50 v - 13x - 10/2.004

Page 194: Curso de arquitectura

San Diego:

Fabricados en 90nm, 128KB L1, MMX, Extended 3DNow!, SSE, SSE2, SSE3, AMD64, Cool'n'Quiet, NX Bit, TDP 62w, 06/2.005

Athlon 64 FX-55 - 2600MHz - 2000FSB - 1024KB L2 - Socket 939 - 1.50 v - 13x Athlon 64 FX-57 - 2800MHz - 2000FSB - 1024KB L2 - Socket 939 - 1.50 v - 14x

Ninguno de estos procesadores FX siguen en producción.

AMD 64 X2:

AMD entra en el mercado de los procesadores de doble núcleo con presentación en mayo de 2.005 de la serie Athlon 64 X2. La presentación se produce prácticamente al mismo tiempo que Intel presenta sus Pentium D, también de doble núcleo. Son unos procesadores con un gran rendimiento, solo superados en los topes de gama por los topes de gama de Intel Core 2 Duo, en julio de 2.006.

- Toledo:

Fabricados en 90nm y para socket 939, 2x128KB Caché L1, MMX, Extended 3DNow!, SSE, SSE2, SSE3, AMD64, Cool'n'Quiet, Bit NX, 04/2.005

Athlon 64 X2 3800+ - 2x2000MHz - 2000MHz FSB - 2x512KM L2 - 1.35/1.40v - 10x - TDP 89w Athlon 64 X2 4200+ - 2x2200MHz - 2000MHz FSB - 2x512KM L2 - 1.35/1.40v - 11x - TDP 89w Athlon 64 X2 4400+ - 2x2200MHz - 2000MHz FSB - 2x1024KM L2 - 1.35/1.40v - 11x - TDP 89w Athlon 64 X2 4600+ - 2x2400MHz - 2000MHz FSB - 2x512KM L2 - 1.35/1.40v - 12x - TDP 89w Athlon 64 X2 4800+ - 2x2400MHz - 2000MHz FSB - 2x1024KM L2 - 1.35/1.40v - 12x - TDP 110w

- Manchester:

Fabricados en 90nm y para socket 939, 2x128KB Caché L1, MMX, Extended 3DNow!, SSE, SSE2, SSE3, AMD64, Cool'n'Quiet, Bit NX, 08/2.005

Athlon 64 X2 3800+ - 2x2000MHz - 2000MHz FSB - 2x512KM L2 - 1.35/1.40v 10x - TDP 89w Athlon 64 X2 4200+ - 2x2200MHz - 2000MHz FSB - 2x512KM L2 - 1.35/1.40v 11x - TDP 89w Athlon 64 X2 4600+ - 2x2400MHz - 2000MHz FSB - 2x512KM L2 - 1.35/1.40v 12x - TDP 110w

- Windsor:

Construido en 90nm y para Socket AM2, 2x128KB Caché L1, MMX, Extended 3DNow!, SSE, SSE2, SSE3, AMD64, Cool'n'Quiet, Bit NX, AMD Virtualization, 05/2.006.

Athlon 64 X2 3600+ - 2x2000MHz - 2000MHz FSB - 2x256KB L2 - 1.25/1.35v Athlon 64 X2 3800+ - 2x2000MHz - 2000MHz FSB - 2x512KB L2 - 1.25/1.35v Athlon 64 X2 4000+ - 2x2000MHz - 2000MHz FSB - 2x1024KB L2 - 1.25/1.35v Athlon 64 X2 4200+ - 2x2200MHz - 2000MHz FSB - 2x512KB L2 - 1.25/1.35v Athlon 64 X2 4400+ - 2x2200MHz - 2000MHz FSB - 2x1024KB L2 - 1.25/1.35v Athlon 64 X2 4600+ - 2x2400MHz - 2000MHz FSB - 2x512KB L2 - 1.25/1.35v Athlon 64 X2 4800+ - 2x2400MHz - 2000MHz FSB - 2x1024KB L2 - 1.25/1.35v Athlon 64 X2 5000+ - 2x2600MHz - 2000MHz FSB - 2x512KB L2 - 1.25/1.35v Athlon 64 X2 5200+ - 2x2600MHz - 2000MHz FSB - 2x1024KB L2 - 1.25/1.35v Athlon 64 X2 5400+ - 2x2800MHz - 2000MHz FSB - 2x512KB L2 - 1.25/1.35v Athlon 64 X2 5600+ - 2x2800MHz - 2000MHz FSB - 2x1024KB L2 - 1.25/1.35v Athlon 64 X2 6000+ - 2x3000MHz - 2000MHz FSB - 2x1024KB L2 - 1.25/1.35v

- Brisbane:

Construido en 65nm y para Socket AM2, 2x128KB Caché L1, MMX, Extended 3DNow!, SSE, SSE2,

Page 195: Curso de arquitectura

SSE3, AMD64, Cool'n'Quiet, Bit NX, AMD Virtualization, 12/2.006.

Athlon 64 X2 3600+ - 2x3000MHz - 2000MHz FSB - 2x512KB L2 - 1.25/1.35v - DTP 65w Athlon 64 X2 4000+ - 2x3000MHz - 2000MHz FSB - 2x512KB L2 - 1.25/1.35v - DTP 65w Athlon 64 X2 4400+ - 2x3000MHz - 2000MHz FSB - 2x512KB L2 - 1.25/1.35v - DTP 65w Athlon 64 X2 4800+ - 2x3000MHz - 2000MHz FSB - 2x512KB L2 - 1.25/1.35v - DTP 65w Athlon 64 X2 5000+ - 2x3000MHz - 2000MHz FSB - 2x512KB L2 - 1.25/1.35v - DTP 65w Athlon 64 X2 5200+ - 2x3000MHz - 2000MHz FSB - 2x512KB L2 - 1.25/1.35v - DTP 65w

AMD está, al igual que Intel, inmersa en un procesa de renovación de sus procesadores, con el fin de ofrecer unos productos con un menor consumo y una mayor eficiencia.

Athlon 64 FX X2:

La gama de altas prestaciones Athlon 64 FX X2 está disponible en un solo modelo, fabricado en 90nm para Socket AM2:

Athlon 64 FX-62 - 2x2800MHz - 2000MHz FSB - 256KB L1 - 2048KB L2

La gama baja: AMD Duron y AMD Sempron:

AMD ha seguirdo manteniendo una gama de procesadores económicos, que han ido evolucionando con el tiempo, siendo siempre un muy duro rival el este mercado para los Celeron de Intel, a los que suele superar tanto en prestaciones como, sobre todo, en relación prestaciones precio, parámetro este de una gran importancia en este sector, en el que no se buscan unas altas prestaciones del procesador, sino el poder ofrecer un producto decente al menor precio posible.

AMD Duron:

En el año 2.003, AMD lanza la segunda generación de sus procesadores de bajo costo Duron, con un núcleo denominado Applebred. Basado en el XP Thoroughbred, tan solo se diferencia de este en que tiene deshabilitada parte de la caché L2, quedando esta en sólo 64KB, con un FSB efectivo de 266MHz . Se fabricó en frecuencias entre 1.4GHz y 1.8GHz.

AMD Sempron:

Page 196: Curso de arquitectura

En agosto de 2.004 AMD saca al mercado su nueva serie de procesadores de bajo costo, denominada Sempron.

Las primeras versiones estaban basadas el los Athlon XP Thoroughbred/Thorton, pero a diferencia de los Duron tenían 256KB de caché L2 y trabajaban a un FSB de 333MHz. Esta primera serie era compatible con el socket Ay tenia una velocidad relativa de entre 2400+ y 2800+, aunque eran más lentos que los Atghlon XP de iguales velocidades relativas. Con posterioridad salió una versión basada en el núcleo Barton con una velocidad relativa de 3000+, con la caché L2 aumentada a 512MB.

Con la salida al mercado de los Athlon 64, y una vez agotadas las existencias de los Sempron basados en los Athlon XP, AMD renovó toda la gama Sempron, sacando al mercado varias series de este procesador:

- Paris:

Basado en los Athlon 63, pero sin el conjunto de instrucciones AMD64. Están diseñados para placas con socket 754 y tienen una caché L2 de 256MB. Estos procesadores incorporan el gestor de memoria integrado.

Sempron 2800+ - 1600MHz - 1600MHz FSB - 256KB L2 Sempron 3000+ - 1800MHz - 1600MHz FSB - 128KB L2 Sempron 3100+ - 1800MHz - 1600MHz FSB - 256KB L2 Sempron 3300+ - 2000MHz - 1600MHz FSB - 128KB L2 Sempron 3400+ - 2000MHz - 1600MHz FSB - 256KB L2

- Palermo:

Diseñados para trabajar en placas con socket AM2, implementan el conjunto de instrucciones AMD64, así como soporte parcial para SSE3, Hypertransport, Cool'n'Quiet y Bit NX. Cuentan con una memoria caché L2 de 128MB o de 256MB, dependiendo del modelo.

Sempron 2800+ - 1600MHz - 1600MHz FSB - 128KB L2 Sempron 3000+ - 1600MHz - 1600MHz FSB - 256KB L2 Sempron 3200+ - 1800MHz - 1600MHz FSB - 128KB L2

Page 197: Curso de arquitectura

Sempron 3400+ - 1800MHz - 1600MHz FSB - 256KB L2 Sempron 3500+ - 2000MHz - 1600MHz FSB - 128KB L2 Sempron 3600+ - 2000MHz - 1600MHz FSB - 256KB L2 Sempron 2800+ - 2200MHz - 1600MHz FSB - 128KB L2

Bueno, ya hemos dado un repaso a lo que hay (hasta el momento) en el mercado.

Como hemos podido ver, ambas empresas fabrican procesadores de una gran calidad y con unos rendimientos muy altos. Las discursión sobre cual es mejor es una discursión que siempre se va a plantear, pero que no tiene una respuesta clara. Ambos son iguales de buenos, con unos procesadores tope de gamas algo más rápidos (aunque esa diferencia nunca supera el 15%) en el caso de Intel, pero a unos precios más altos. Si a esto le sumamos que, dadas las velocidades a las que trabajan estos procesadores, prácticamente nunca se les va a sacar su máximo rendimiento, al final la decisión va a quedar en manos del comprador, que puede tener la seguridad en ambos casos de que va a quedar satisfecho (eso si, mientras que no pretenda que un procesador, sea de la marca que sea, le de un rendimiento para el que no está ni pensado ni preparado).

En estos momentos, ambas marcas están en pleno proceso de renovación de sus productos, por lo que el futuro próximo seguro que nos va a deparar buenas e interesantes sorpresas... empezando por una bajada en el precio de los procesadores de ambas marcas.

FORMATOS DE PARTICIONES EN WINDOWS: DIFERENCIAS ENTRE FAT, FAT32 Y NTFS

Ya en el tutorial Formatear un disco duro: Tipos de formatos vimos los diferentes tipos de formato que puede tener una partición en sistemas operativos de Microsoft. En este tutorial vamos a ver un poco más a fondo estos formatos.

Veamos en primer lugar una serie de conceptos sobre el disco duro.

Hay varios conceptos para referirse a zonas del disco:

Plato: Es cada uno de los discos que hay dentro del disco duro.

Cara:

Page 198: Curso de arquitectura

Principal división de un plato. Cada plato tiene dos caras, una superior y una inferior.

Cabeza: Número de cabezal magnético para lectura/escritura. Equivale a dar el número de cara, ya que hay un cabezal por cara. La cabeza 4 corresponderia a la cara inferior del segundo disco.

Pista: Es una circunferencia dentro de una cara. la pista 0 está en el borde exterior.

Cilindro: Es un conjunto de varias pistas. Son todas las circunferencias que están alineadas verticalmente (una de cada cara). El cilindro 0 está compuestos por todas las pistas 0 de cada cara y así susesivamente.

Sector: Cada una de las divisiones de una pista. El tamaño del sector no es fijo. El estándar actual es de 512 bytes. Antiguamente el número de sectores por pista era fijo, con lo que se desaprovechaba mucho espacio, ya que en las pistas exteriores pueden almacenarse más sectores que en las interiores. Así, apareció la tecnología ZBR (grabación de bits por zonas), que aumenta el número de sectores en las pistas exteriores y aprovecha mucho más el espacio del disco duro.

Vamos a ver ahora por qué es necesario darle un formato al disco.

El disco duro, a efectos lógicos, está dividido en sectores. En los primeros discos se utilizaba el sistema CHS (Cabeza, Cilindro, Sector) para direccionar cualquier dato, ya que con estos tres parámetros es posible situar cualquier punto del disco. Este sistema tenia el inconveniente de que era necesario guardar mucha información por punto del disco, lo que hacia que en discos grandes se desperdiciara mucho espacio para guardar esta información. Posteriormente se creó el sistema LBA (logical block addressing, que es un sistema de direccionamiento lógico de bloques y consiste en dividir el disco entero en sectores y asignarle a cada sector una dirección determinada. Este sistema es el que se utiliza actualmente.

Pero la unidad mínima que utilizan los sistemas operativos no es el sector, sino el cluster, que está formado por varios sectores (la cantidad de estos varía dependiendo del tipo de partición, de la capacidad del disco y del sistema operativo utilizado).

Para poder utilizar un disco duro necesitamos crear una partición lógica en un determinado sistema de archivos y formatear esta partición para crear un índice de situación de los diferentes cluster y los sectores que los forman.

Una vez formateado, la información se va dividiendo en pedacitos para guardar estos en los clusters y así leerlos cuando necesitamos acceder a esta información. Precisamente de esta forma de guardar la información vienen los diferentes sistemas de archivos, ya que dependiendo de este tendremos la posibilidad de manejar tamaños mayores o menores de particiones y de archivos. Hay que tener el cuenta que la unidad mínima de almacenamiento y de asignación es el cluster, lo que significa que todo el espacio dentro de un cluster que no sea utilizado por información de un determinado archivo se va a desperdiciar, ya que un cluster solo puede contener información de un archivo determinado.

Pues bien, precisamente ese sistema de archivos es el que conocemos como FAT, FAT32 y NTFS.

Vamos a ver las principales diferencias que hay entre ellos.

FAT:

Lo que actualmente conocemos por FAT es realmente FAT16. Es el sistema de archivos introducido por Microsoft en 1.987 para dar soporte a los archivos de 16bits, no soportados por versiones anteriores de FAT (FAT12).

Este sistema de archivos tiene una serie muy importante de limitaciones, entre las que destacan el límite máximo de la partición en 2Gb (pero es capaz de gestionar archivos de hasta 4Gb ¿?), el utilizar cluster de 32Kb o de 64Kb (con el enorme desperdicio de espacio que esto supone) y el no admitir nombres largos de archivos, estando estos limitados al formato 8+3 (ocho dígitos de nombre + tres de extensión).

FAT32:

En 1.996, junto con la salida al mercado del Windows 95 OSR2, se introduce el sistema de

Page 199: Curso de arquitectura

archivos FAT32, para solucionar en buena parte las deficiencias que presentaba FAT16, pero manteniendo la compatibilidad en modo real con MS-DOS.

Entre estas se encuentra la de superar el límite de 2Gb en las particiones, si bien se mantiene el tamaño máximo de archivo, que es de 4Gb.

Para solucionar este problema, FAT32 utiliza un direccionamiento de cluster de 32bits, lo que en teoría podría permitir manejar particiones cercanas a los 2 Tib (Terabytes), pero en la práctica Microsoft limitó estas en un primer momento a unos 124Gb, fijando posteriormente el tamaño máximo de una partición en FAT32 en 32Gb. Esto se debe más que nada al una serie de limitaciones del Scandisk de Microsoft, ya que FAT32 puede manejar particiones mayores creadas con programas de otros fabricantes. Un claro ejemplo de esto lo tenemos en los discos externos multimedia, que están formateados en FAT32 a pesar de ser particiones de bastante tamaño (en muchos casos más de 300Gb).

El tamaño del cluster utilizado sigue siendo de 32Kb, lo que sigue significando un importante desperdicio de disco, ya que un archivo de 1Kb (que los hay, y muchos además) está ocupando en realidad 32Kb de disco.

El paso de FAT16 a FAT32 se tenía que realizar en un principio formateando el disco, situación que se mantuvo hasta la salida de Windows 98, que incorporaba una herramienta para pasar de FAT16 a FAT32 sin necesidad de formatear el disco.

Estos dos formatos, a pesar de sus inconvenientes, tienen una gran ventaja, y es que son accesibles (cuando menos para lectura) por una gran cantidad de sistemas operativos, entre los que destacan Unix, Linux, Mac OS... Esta compatibilidad es aun mayor en FAT16 que en FAT32.

Por poner un ejemplo, los disquetes y los pendrive se siguen formateando en FAT16.

NTFS:

El sistema de archivos NTFS, o New Technology File System fue introducido a mediados de 1.993 en Windows NT 3.1, y utilizado por Microsoft solo en sus sistemas profesionales hasta la salida de Windows XP, que fue el primer sistema operativo de uso doméstico que lo incorporó. Este sistema de archivos tiene una gran serie de ventajas, incluida la de soportar compresión nativa de ficheros y cifrado (a partir de Windows 2000). También permite por fin gestionar archivos de más de 4Gb, fijándose el tamaño máximo de estos en unos 16Tb. En cuanto a las particiones, permite un tamaño de hasta 256Tb.

Utiliza cluster de 4Kb (aunque se pueden definir de hasta 512bytes, es decir, 1 sector por cluster). Esto permite un aprovechamiento del disco mucho mayor que en FAT16 o en FAT32, ya que, siguiendo el ejemplo anterior de in fichero de 1Kb, si el tamaño del cluster es de 4Kb estaríamos desperdiciando solo 3Kb, y si el tamaño del cluster fuera de 512bytes, pues utilizaría dos cluster, no existiendo en ese caso ningún desperdicio de espacio (hay que considerar que el FAT32 se desperdiciarían 31Kb por cada archivo de 1Kb que tengamos). Pero tiene un inconveniente, y es el de que en ese caso se necesita un espacio del disco bastante grande para guardar la información del formato. Hay que pensar que con este sistema, a igualdad de espacio (32Kb), para una partición NTFS basada en cluster de 4Kb tendremos ocho cluster en vez de uno solo. Esto en la practica quiere decir que para un archivo de 32Kb hay que guardar 8 direcciones en vez de una sola, pero un simple vistazo a nuestro disco duro nos permite darnos cuenta de que, a pesar de esta pérdida inicial de espacio, en la práctica tenemos una muy superior capacidad de almacenamiento, ya que el espacio desperdiciado es muchísimo menos.

Las particiones formateadas en NTFS no son accesibles desde MS-DOS, Windows 95, Windows 98 ni por otros sistemas operativos instalados en discos bajo sistemas FAT16 o FAT32. Linux tiene soporte parcial de escritura y total de lectura para particiones NTFS.

En realidad, lo que muchos llaman MS-DOS en Windows XP es tan solo un editor de comandos, con un emulador de MS-DOS para poder ejecutar algunos programas basados en DOS (no todos), eso si, de 16bits, ya que NTFS no tiene soporte para programas de 8bits.

Se puede pasar muy fácilmente una partición FAT32 a NTFS sin pérdida de datos, mediante comandos de consola (ver el documento Convertir una partición FAT32 a NTFS).

Tenemos que tener presente que Mi Pc en versiones anteriores de Windows, incluido XP (o Equipo en Windows Vista) no va a reconocer un disco duro mientras este no tenga alguna

Page 200: Curso de arquitectura

partición.

Hay que dejar bien claro un tema: NO es posible pasar de un formato de nivel superior a uno de nivel inferior sin eliminar la partición y volver a crearla.

Podemos pasar mediante software de FAT16 a FAT32 y de este a NTFS sin pérdida de información ni de nada (teniendo en cuenta siempre los riesgos que un cambio de formato de partición implican), pero no a la inversa.

TIPOS DE FORMATOS QUE SE LE PUEDEN DAR A UN DISCO DURO.

En este tutorial vamos a tratar de los diferentes tipos de formatos que se le pueden dar a un disco duro.

Para ello vamos a ver primero que es y para que sirve este formato.

Un disco duro está formado (en lo que a guardar la información se refiere) por una serie de discos de metal magnetizado, que es donde se va a guardar la información.

Pero estos discos hay que prepararlos primero, dividiéndolos en espacios de un tamaño utilizable, indicando las coordenadas físicas de esos espacios.

El nombre que reciben esos espacios es sectores, y cada sector tiene un tamaño (capacidad) de 512 bytes. Estos sectores se referencia luego para su utilización por el disco al que pertenece, la cabeza que lo controla y el sector físico.

Pero la unidad mínima que utilizan los sistemas operativos no es el sector, sino el clúster, que está formado por varios sectores (la cantidad de estos varía dependiendo del tipo de formato, de la capacidad del disco y del SO utilizado).

Pues bien, el proceso necesario para realizar esta operación recibe el nombre de Formateo.

Este formateo es de dos tipos diferentes:

Formateo físico:

Este tipo de formateo, también llamado Formateo de bajo nivel es el que define el tamaño de los sectores, así como su ubicación en los discos. En los discos duros este tipo de formateo no suele ser necesario hacerlo por parte del usuario, ya que los discos duros vienen ya con el formateo físico hecho de fabrica.

Es un tipo de formateo que no se hace a través del sistema operativo o utilidades de estos SO, sino

Page 201: Curso de arquitectura

que hay que hacerlo a través de unos programas específicos para ello, generalmente proporcionados como utilidades por los propios fabricantes del disco.

Además, este formato no se suele perder, salvo por averías causadas por campos magnéticos, elevadas temperaturas o por un problema físico en el disco duro.

Es un tipo de formateo muy lento, pudiendo llegar a tardarse en el varias horas (dependiendo, claro está, del tamaño del disco).

Hay que aclarar que una vez realizado un formateo físico es totalmente imposible recuperar nada de lo que hubiera en el disco anteriormente.

Formateo lógico:

Este es el tipo de formateo que si que solemos hacer.

Aquí hay que hacer una diferenciación: Cuando hemos formateado el disco, la información de este formateo se guarda en los sectores de inicio del disco. En estos mismos sectores, que se conocen en su conjunto como sectores de arranque, cuando grabamos algo en el disco, se guarda también la información de los clúster que ocupan estos archivos.

Pues bien, hay un tipo de formateo, llamado formateo rápido que en realidad lo único que hace es eliminar esta información. Esta operación, mal llamada formateo no es tal, puesto que no hace una revisión del disco, tan solo se limita a eliminar la información del contenido de los clúster.

Aclarado este punto, retomemos el tema que nos ocupa, que es el formateo.

Como ya hemos dicho, estos sectores de 512 bytes se agrupan para su utilización efectiva en clúster, que es la unidad real más pequeña que nuestro sistema va a utilizar. Cada clúster pertenece solo a un determinado archivo, y este a su vez puede estar compuesto por uno o más clúster (tantos como sean necesarios para albergar la totalidad del archivo).

Un formateo tiene en realidad varias funciones:

Por un lado reescribir la tabla de particiones, que es donde se guarda la información sobre los clúster que forman esta. Por otro lado, examina los sectores que componen el clúster en busca de errores. Si encuentra algún error, marca el clúster como no utilizable, evitando que se pueda escribir en el, con la posible pérdida de datos que esto supondría. Y por otro lado, determina el tamaño del clúster (cantidad de sectores que lo componen).

Este es un dato muy importante, que depende del sistema operativo que utilicemos y del tipo de partición empleada, ya que como hemos visto, un archivo se aloja en uno o varios clúster, dependiendo de su tamaño, pero cada clúster pertenece a un solo archivo, por lo que el espacio sobrante se desperdicia.

Para que entiendan esto mejor, imaginemos un clúster de 4Kb (8 sectores). Pues bien, si grabamos un archivo de, por ejemplo, 1Kb, este va a ocupar el clúster completo, desperdiciándose los restantes 3Kb.

Vamos a ver a continuación los diferentes tipos de formato utilizados en sistemas operativos basados en DOS / NT.

FAT:

Lo que conocemos por FAT es realmente FAT16. Es el sistema de archivos introducido por Microsoft en 1.987 para dar soporte a los archivos de 16bits, no soportados por versiones anteriores de FAT.

Este sistema de archivos tiene una serie muy importante de limitaciones, entre las que destacan el límite máximo de la partición en 2Gb, el utilizar clúster de 32Kb o de 64Kb (con el enorme desperdicio de espacio que esto supone) y el no admitir nombres largos de archivos, estando estos limitados al formato 8+3 (ocho dígitos de nombre + tres de extensión).

FAT32:

En 1.996, junto con la salida al mercado del Windows 95 OSR2, se introduce el sistema de archivos FAT32, para solucionar en buena parte las deficiencias que presentaba FAT16.

Page 202: Curso de arquitectura

Entre estas se encuentra la de superar el límite de 2Gb en las particiones, si bien se mantiene el tamaño máximo de archivo, que es de 4Gb.

Para solucionar este problema, FAT32 utiliza un direccionamiento de clúster de 32bits, lo que en teoría podría permitir manejar particiones cercanas a los 2 Tib (Terabytes), pero en la práctica Microsoft limitó estas en un primer momento a unos 124Gb, fijando posteriormente el tamaño máximo de una partición en FAT32 en 32Gb. Esto se debe más que nada a una serie de limitaciones del Scandisk de Microsoft, ya que FAT32 puede manejar particiones mayores creadas con programas de otros fabricantes.

El tamaño del clúster utilizado sigue siendo de 32Kb.

El paso de FAT16 a FAT32 se tenia que realizar en un principio formateando el disco, situación que se mantuvo hasta la salida de Windows 98, que incorporaba una herramienta para pasar de FAT16 a FAT32 sin necesidad de formatear el disco.

Estos dos formatos, a pesar de sus inconvenientes, tienen una gran ventaja, y es que son accesibles por una gran cantidad de SO, entre los que destacan Unix, Linux, Mac OS... Esta compatibilidad es mayor en FAT16 que en FAT32.

NTFS:

El sistema de archivos NTFS, o New Technology File System fué introducido a mediados de 1.993 en Windows NT 3.1, y utilizado por Microsoft solo en sus sistemas profesionales hasta la salida de Windows XP, que fue el primer SO de uso doméstico que lo incorporó.

Este sistema de archivos permite por fin gestionar archivos de más de 4Gb, fijándose el tamaño máximo de estos en unos 16Tb. También permite un tamaño mucho mayor de las particiones, pudiendo utilizar particiones de hasta 256Tb.

Utiliza clúster de 4Kb (aunque se pueden definir de hasta 512bytes, es decir, 1 sector por clúster). Esto permite un aprovechamiento del disco mucho mayor que en FAT16 o en FAT32, pero tiene un inconveniente, y es el de que en ese caso se necesita un espacio del disco bastante grande para guardar la información del formato. Hay que pensar que con este sistema, a igualdad de espacio (32Kb) tenemos ocho clúster, en vez de uno solo. Esto en la practica quiere decir que para un archivo de 32Kb hay que guardar 8 direcciones en vez de una sola.

Los discos formateados en NTFS no son accesibles desde MS-DOS, Windows 95, Windows 98 ni por otros SO instalados en discos bajo sistemas FAT16 o FAT32.

Se puede pasar una partición FAT32 a NTFS sin pérdida de datos, mediante comandos de consola.

Hay que dejar bien claro un tema: NO es posible pasar de un formato de nivel superior a uno de nivel inferior sin eliminar la partición y volver a crearla.

Podemos pasar mediante software de FAT16 a FAT32 y de este a NTFS, pero no a la inversa.

Sistemas para formatear:

El sistema para formatear un disco (o mas bien debemos decir en este caso una partición) difiere del tipo de partición de que se trate.

Particiones FAT16:

En este caso, una vez creada la partición (mediante el comando de MS-DOS Fdisk), formateamos con el comando FORMAT, añadiéndole la extensión /S para que se realice la carga del sistema operativo y poder utilizar esta partición si es que la vamos a utilizar como partición de arranque.

Partición FAT32:

El procedimiento es el mismo que en el caso de FAT16, salvo que al ejecutar Fdisk debemos utilizar la opción Compatibilidad con discos grandes.

Desde Windows XP y Windows Vista es posible formatear una partición en FAT32 directamente desde el sistema, siempre y cuando esta sea menor de 40Gb.

NTFS:

Dado que este tipo de particiones se utilizan en Windows XP y Windows Vista (también se utilizan

Page 203: Curso de arquitectura

en las versiones Server, pero en estos tutoriales nos referimos solo a las versiones de uso doméstico), lo mejor es crear tanto la partición como formatear directamente en el proceso de instalación de Windows, utilizando las herramientas que a este efecto Microsoft incluye en dicho instalador.

También podemos formatear una partición desde el propio sistema, siempre y cuando no se trate de la partición activa (la que contiene el sistema operativo).

Otros tipos de particiones:

Hemos visto las particiones utilizadas por sistemas operativos basados en MS-DOS y en Windows, pero existen otros sistemas operativos que utilizan otro tipo de particiones.

los más nombrados son:

LINUX, que utiliza particiones del tipo ext2, ext3, ext4, JFS, ReiserFS y XFS.

Desde ellos se puede acceder a particiones FAT16, FAT32 y en algunos a NTFS.

Mac OS, que utiliza particiones del tipo HFS y HFS+.

Este tipo de formato puede acceder a particiones FAT16.

¿CUANDO Y HASTA QUE PUNTO ES CONVENIENTE AMPLIAR UN PC?.

Este es un tema en el que hay que considerar varios puntos.

Básicamente debemos ampliar nuestro ordenador cuando nuestras necesidades nos lo indiquen.

Pero dentro de esto hay que considerar unos puntos. El primero de ellos es hasta que punto resulta interesante una ampliación, y esto es algo que va a depender más que nada de la antiguedad del equipo.

En general, con equipos con más de dos años nos podemos encontrar con la imposibilidad de encontrar los elementos necesarios para la ampliación.

Las ampliaciones más normales son:

MEMORIA RAM:

El software cada vez requiere más memoria RAM, por lo que es una de las ampliaciones que con más frecuencia se suelen hacer.

Lo primero que tenemos que ver para ampliar la memoria es el tipo de módulos que admite nuestra placa base. Vamos a ver con lo que nos podemos encontrar:

SDRAM.- Este tipo de módulos se utilizaron hasta el año 2.002 aproximadamente, en el que fueron sustituidos por los módulos DDR. Son memorias difíciles de encontrar, pudiendo además ser bastante más caras que las DDR. Presentan bastantes problemas de incompatibilidades, por lo que es muy importante que nos aseguremos de que los módulos que encontremos sean de las mismas características que los que tenemos, sobre todo en velocidad (PC100 o PC133), dando bastantes problemas la mezcla de ambos tipos. En la mayoría de las ocasiones tendremos además que desaprovechar los módulos que ya tenemos.

Módulo SDRAM.

DDR.- Aunque siguen en producción, están siendo rápidamente reemplazados por los DDR2. El la actualidad es muy difícil encontrar módulos inferiores a DDR-400, por lo que nos tenemos que asegurar de que nuestra placa admita estos. En la mayoría de las ocasiones tendremos además que desaprovechar los módulos que ya tenemos.

Page 204: Curso de arquitectura

DDR2.- Son los módulos que se utilizan en la actualidad. No suele haber problemas con ellos para realizar una ampliación de memoria.

Un dato a tener en cuenta es que si nuestra placa base soporta Dual channel, los módulos que pongamos deben ser exactamente iguales, siendo recomendable incluso misma marca. Algunos marcas venden incluso pack específicos para Dual channel.

Pack KINGSTON para Dual channel.

DISCO DURO:

En este punto tenemos que tener muy en cuenta hasta que capacidad admite nuestra placa. En ordenadores anteriores al año 2.000 es normal que no admitan discos de más de 40Gb, por lo que si tenemos que ampliar el disco duro nos interesa buscar uno pequeño. En la actualidad el tamaño mínimo disponible es 80Gb, pero tienen un jumper para configurarlos a 37Gb, con lo que solucionamos este problema. El siguiente escalón lo encontramos en los 137Gb (placas que admitan discos LBA de 48 bit). Este es un dato que no suelen facilitar los fabricantes, por lo que nos vamos a tener que guiar más que nada por la antiguedad del equipo. Para poder acceder a estos discos necesitamos además tener instalado un sistema operativo que soporte este tipo de discos (en el caso de Windows XP necesitamos el SP2).

Si se trata de discos SATA no tenemos problemas en este sentido.

TARJETA GRAFICA:

Lo principal en este caso son dos puntos. A saber:

- Qué tipo de slot tiene nuestra placa base.

En este sentido, las tarjetas gráficas disponibles en la actualidad son PCIe o AGP, pero en este caso son del tipo 8x-4x a 1.5 voltios, por lo que podemos tener problemas en placas antiguas que solo soporten AGP 4x, pero de 3.3 voltios (esto si lo podemos ver en las características técnicas de la placa base.

- Resto de prestaciones de nuestro equipo.

La tarjeta gráfica tiene que estar compensada con el resto del sistema para que le saquemos el rendimiento deseado. No nos va a servir de mucho gastarnos 250 euros en una gran tarjeta gráfica para luego instalarla en un Celeron o en un Sempron con 512Mb de RAM.

FUENTE DE ALIMENTACION:

Este es un apartado muy a tener en cuenta. Para ordenadores modernos podemos fijar el mínimo en 450 watios, siendo además muy importante la calidad de este componente.

Las fuentes actuales cumplen la norma ATX 2.2, con conector de 24 pines. Este conector es perfectamente adaptable a los de 20 pines por en simple procedimiento de quitarle el añadido del conector con los 4 pines extras.

RESTO DE COMPONENTES:

En cuanto al procesador, muy rara vez nos va a ser interesante cambiarlo, mas que nada porque salvo que se trate de ordenadores bastante recientes vamos a tener muchos problemas a la hora de encontrar un procesador (estamos hablando de P4 - 478 o de AMD 939, micros anteriores ni tan siquiera los hay nuevos).

En cuanto a las unidades ópticas, salvo en equipos muy antiguos no vamos a tener problemas en su actualización.

Page 205: Curso de arquitectura

Visto esto podemos llegar a la siguiente conclusión:

En ordenadores con componentes en producción (sobre todo placa base) podemos ampliarlo tranquilamente, teniendo en cuenta que si la memoria es DDR lo más seguro es que cuando cambiemos de ordenador la tengamos que desechar.

En ordenadores de entre 5 años y 3 años, salvo memoria o disco duro no nos va a interesar una ampliación, ya que la potencia del equipo no nos va a permitir explotar las ventajas de una tarjeta gráfica de gama alta. Con la memoria hay que hacer la misma salvedad que en el caso anterior.

En ordenadores de más de 5 años no solo no nos va a ser rentable una ampliación, sino que además vamos a tener problemas para encontrar los elementos necesarios para hacerla, teniendo que recurrir en muchos casos al mercado de ocasión.

¿QUE VENTAJAS PODEMOS TENER AL PARTICIONAR UN DISCO DURO?.

Bien, depende de la capacidad del disco duro el que sea conveniente o no hacer varias particiones.

Con discos de más de 120Gb si que es conveniente hacer al menos un par de particiones, una en la que tendremos el sistema operativo y los programas instalados y otra en la que tendremos los datos.

La mayor ventaja que vamos a obtener con esto es que en el caso de tener que formatear y reinstalar nuestros datos van a estar en otra partición que no vamos a tocar y además vamos a obtener unas instalaciones bastante más limpias.

También vamos a tener más fácil el tema de control y limpieza de virus y malware.

En el caso de discos más pequeños yo no soy muy partidario de hacer varias particiones, ya que en este caso si que corremos el riesgo de llenar una de ellas y tener que empezar a utilizar la otra para algo diferente a lo que habíamos pensado.

En todo caso, debemos asegurarnos de hacer las particiones del suficiente tamaño como para no tener necesidad de estar cambiándolas.

Tampoco es interesante un número excesivo de particiones (hay que recordar que solo podemos tener un total de 4 particiones primarias).

Otra cosa es que debemos hacer con estas particiones y que debemos guardar en ellas.

Page 206: Curso de arquitectura

En principio, por lo que he podido comprobar en muchas preguntas, siempre se intenta reducir al máximo la partición donde vamos a instalar el sistema operativo. Bien, la experiencia me indica que la partición destinada a instalar el SO y los programas (normalmente C:) debe tener un tamaño de al menos 40Gb.

Hay que tener en cuenta que en esta partición van a instalarse una cantidad bastante grande de archivos, por lo que tenemos que tener previsto suficiente espacio.

Windows necesita, además del espacio que ocupa al instalarse, espacio más que suficiente para archivos temporales, archivos de intercambio y memoria virtual. Estos archivos pueden llegar a tener varios GB.

Distribución de mis discos. Se puede observar que solo con el Windows (en este caso es el Vista Ultimate) y lo más esencial ya nos vamos

a 21.5 Gb.

También se guardan en esta partición todos los programas que instalemos, así como sus correspondientes carpetas de configuración en el usuario que los instale y la carpeta de Documents and Setting, con todas sus subcarpetas de usuarios.

Estas carpetas deben estar en la misma partición donde tengamos el sistema operativo, ya que de lo contrario vamos a estar expuestos a errores, no obteniendo ninguna ventaja real a cambio. Tampoco es conveniente eliminar las que Windows crea por defecto, ya que el ahorro de espacio es mínimo y Windows las utiliza para guardar algunos datos comunes.

En cuanto a la partición reservada para datos, en ella podemos guardar todos nuestros archivos. La mayoría de los programas guardan estos o bien en su propio directorio o bien en la carpeta Mis documentos del usuario correspondiente en Documents and Setting, pero casi todos se pueden configurar para que los guarden en otra ubicación.

A veces nos argumentan que entonces no es posible usar las carpetas de acceso a, por ejemplo, Mis Imágenes. Bien, esto tiene una fácil solución. Simplemente en Mis imágenes creamos una serie de accesos directos a las carpetas en donde realmente tengamos guardadas estas imágenes y solucionado, con la ventaja añadida que solo vamos a tener a la vista las imágenes que realmente queramos que estén disponibles fácilmente.

En cuanto a las particiones que vayamos a hacer, es muy importante que al instalar el disco tengamos claro como vamos a distribuirlo, ya que una vez instalado tendríamos que recurrir a programas del tipo Partition Magic, que si bien es cierto que funcionan bastante bien, su uso siempre supone un riesgo de pérdida de datos.

Page 207: Curso de arquitectura

Podemos ver como crear varias particiones al instalar Windows en el tutorial Crear particiones en Windows XP.

Este sistema es también válido para Windows Vista, si bien Windows Vista nos permite trabajar con el tamaño de las particiones directamente (aunque con ciertas limitaciones), como podemos ver en el tutorial Administrar particiones en Windows Vista.

¿QUE MEJORA MAS EL RENDIMIENTO, AMPLIAR LA MEMORIA O PONER UN PROCESADOR MAS POTENTE?.

Esta es una pregunta que nos hacemos muy a menudo. Vamos a ver las diferentes posibilidades que se nos plantean para responderla.

Windows necesita sobre todo bastante memoria RAM para funcionar, a la vez que bastante espacio en el disco duro.

Esto se debe a que, contrariamente a lo que se podría pensar, tanto el archivo de paginación como el de memoria virtual son directamente proporcionales a la memoria que tengamos, es decir, a más memoria mayor espacio reservado para memoria virtual (este suele ser aproximadamente 1.5 veces la memoria RAM que tengamos instalada).

Muchas veces culpamos de la necesidad de memoria a Windows. Pues bien, esto es cierto, pero solo en parte. Los programas que utilizamos (sobre todo los juegos y los de retoque fotográfico) también necesitan en la actualidad grandes cantidades de memoria, pero con esto hay que tener mucho cuidado, que un programa indique que necesita 512Mb de RAM para funcionar no significa en la mayoría de las ocasiones que con 512Mb de RAM vaya a funcionar bien, suele significar que necesita 512Mb LIBRES para funcionar.

Por lo anteriormente expuesto, en la mayoría de las ocasiones vamos a conseguir un mayor rendimiento aumentando la memoria que cambiando el procesador. Dicho de otro modo, vamos a notar más rápido un ordenador con un procesador a 3Gh con 1Gb de RAM que otro a 3.4Gh con solo 512Mb de RAM.

Pero siempre hay que buscar un equilibrio en el ordenador, ya que tampoco nos va a servir de mucho tener un procesados a 800Mhz con 2Gb de RAM, aunque evidentemente vamos a notar una gran mejoría en su funcionamiento.

Tampoco sirve de mucho un aumento desmesurado en la RAM, ya que todos los sistemas operativos de 32 bits tienen por un lado un tope de 4Gb y por otro una cierta dificultad real para direccionar más de 3.5Gb.

Una cantidad muy buena de RAM para la gran mayoria de los programas que utilizamos normalmente la podemos estimar en 2Gb.

Page 208: Curso de arquitectura

Por otro lado, en cuanto al cambio de procesador depende muy mucho del procesador que tengamos, si bien hoy en día un cambio de procesador suele implicar en la mayoría de las ocasiones la necesidad de cambiar también la placa base y, en la mayoría de los casos, las memorias, ya que posiblemente las que tengamos no sean compatibles con la nueva placa base.

Cambiar un procesador para ganar un 10% nos va a ser rentable en muy pocas ocasiones, ya que esta mejora no nos va a compensar el gasto que representa. OJO, con esto no quiero decir que ese 10% no sea importante, solo que no va a resultar rentable el cambio.

Dicho esto, hay un tema en el que se piensa poco a la hora del rendimiento global del equipo, y es el tema de los discos duros.

El acceso al disco duro, sobre todo cuando se trata de discos duros antiguos, es un verdadero cuello de botella para el funcionamiento de nuestro PC. Un disco duro antiguo (por ejemplo, uno de 10Gb) no solo se diferencia de uno moderno en la capacidad. También tiene una velocidad de rotación menor y, sobre todo, una velocidad muy inferior de acceso y transferencia.

Como ya he dicho en muchos otros tutoriales, lo más importante en un ordenador es que esté compensado, ya que es en este punto donde el PC va a darnos su máximo rendimiento, sin desperdiciar prestaciones de un elemento concreto.

COMO PODEMOS CONTROLAR LA TEMPERATURA DE NUESTOS ORDENADOR.

El control de la temperatura (o más bien de las diferentes temperaturas) de nuestro ordenador es una de las tareas que deberíamos hacer, si no constantemente si con una cierta frecuencia.

pero ¿por qué es importante controlar estas temperaturas?. Pues sobre todo porque un exceso de temperatura es una de las causas principales en las averías de practicamente todos los componentes del ordenador.

Debemos controlar sobre todo la temperatura del procesador y de la placa base, pero tampoco está de mas controlar la temperatura de la tarjeta gráfica y del disco duro.

Este control se puede hacer de dos formas diferentes:

Mediante hardware.

Para el control de las temperaturas mediante hardware hay en el mercado una serie de dispositivos que normalmente se instalan aprovechando una o dos bahías de 5.25'' (las de las grabadoras) que tengamos disponibles.

Estos dispositivos constan de una serie de sensores para colocarlos en las zonas donde deseemos controlar la temperatura y de un panel donde se muestran estos datos. Suelen controlar no solo la temperatura (normalmente hasta cuatro sensores), sino también la velocidad de giro de los ventiladores, contando además en muchos casos con avisadores de exceso de temperatura o mal funcionamiento de los ventiladores.

Entre las más conocidas podemos citar:

Thermaltake Hardcano 12SE

Page 209: Curso de arquitectura

NZXT Sentry 1

Coolermaster Aerogate II

Mediante software

Por software hay diferentes formas de controlar la temperatura, entre otros muchos datos.

Para empezar, la mayoría de las placas base (aunque no todas) tienen en el setup una opción denominada Hardware Monitor que nos indica entre otros datos la temperatura de la CPU y de la placa base. Esta opción suele estar, dependiendo de la BIOS que tengamos, en la sección Power, Integrated Periferical o en Advanced, aunque también puede estar como una sección independiente. Esta opción es útil, pero nos obliga a reiniciar el ordenador y entrar en el setup, con lo que la temperatura que nos muestra es en todo caso la correspondiente al ordenador en reposo.

Las placas ASUS incorporan una utilidad llamada ASUS Probe que nos muestra esta información, pudiendo incluso dejar dicho programa residente, configurando las opciones que queremos que nos muestre en pantalla.

Información mostrada por el programa ASUS Probe II.

También podemos recurrir para esta función a programas de diagnóstico de hardware, como el Everest y otros similares, que en su versión ''free'' facilitan esta información de temperatura (al menos del procesador y del sistema).

Page 210: Curso de arquitectura

Pantalla de información del sensor de Everest, en esta caso del Ultimate Edition.

En las versiones de pago la información suele ser más completa, llegando incluso (como en el caso del Everest Ultimate Edition) a dejar residente en la barra de tareas unos iconos con la información más precisa, como es la de temperaturas, voltajes y velocidad de los ventiladores.

Información que muestra el Everest Ultimate Edition en la barra de tareas.

También es muy bueno el programa SpeedFan 4.30, que nos facilita entre otras muchas esta información.

Page 211: Curso de arquitectura

Ventana del SpeedFan 4.30 donde se muestra la temperatura de nuestro sistema.

En cuanto a las temperaturas idoneas no es posible dar una media, ya que lo que en unos procesadores puede ser una temperatura normal (en torno a los 50º - 65º) para otros es una temperatura que empieza a ser preocupante.

En este punto lo mejor es conseguir estos datos del fabricante del equipo o del procesador.

Serial ATA es el nuevo estándar de conexión de discos duros. Hasta hace relativamente poco tiempo, en el mercado del consumo se hacía uso del interfaz ATA normal o Pararell ATA, del que existen variedades de hasta 133Mbytes/seg teóricos. Dicho interfaz consistía en unas fajas planas a las cuales se podían conectar hasta dos discos duros (o unidades ópticas).

Serial ATA, la nueva tecnología, es totalmente compatible con la anterior, de manera que no habrá problemas de compatibilidad con los sistemas operativos. De hecho se pueden encontrar conversores con el formato antiguo, es cierto que a nivel físico está más cercano de lo que sería un puerto Firewire o un USB, aunque únicamente disponible para la conexión de unidades internas.

Ventajas que nos reporta este nuevo sistema? En cuanto velocidad hay ventajas, sí, ya que la nueva interfaz comienza trabajando a 150Mbytes/seg (133 como máximo en ATA), sin embargo la máxima mejora respecto al sistema anterior (en mi opinión) es el tipo de cableado que se utiliza, mucho más fino y aerodinámico que el anterior , lo que permite que estos cables, al ser muchísimo más finos, faciliten el flujo de aire dentro de la caja, reduciendo el calentamiento de nuestro equipo. Otra de las mejoras de este tipo de cableado es que permite hasta 1 metro de longitud (medio metro en ATA).

Respecto al cable de alimentación también es diferente al de los discos ATA originales,

Page 212: Curso de arquitectura

y las tensiones de trabajo son menores, además no es necesaria la configuración “Master/Slave” tradicional. En los dibujos de abajo se puede ver la diferencia en las conexiones, disco tradicional ATA a la izquierda y un Serial ATA a la derecha.

ATA SATA

Aunque las placas ya permiten la conexión de estos dispositivos, a la hora de instalar el sistema operativo hay que tener en cuenta un pequeño detalle, es posible que en plena instalación encuentre un mensaje del tipo “no se encuentra ninguna unidad de disco instalada” y por tanto no se puede instalar el sistema operativo, ¿cómo solucionar el problema? debemos preparar un disquete con el controlador SATA que corresponda a nuestra placa base, y justo cuando comienza a instalar el WinXP, aparece un mensaje abajo en color negro sobre fondo gris que dice algo como \"Pulse F6 si desea instalar controladores de otro fabricante\" (pulsar la tecla F6 tres o cuatro veces para asegurar que detecta la pulsación), la instalación sigue y en un momento de la copia de archivos, solicita que se introduzca el disquete con los controladores, se selecciona el que corresponda y a partir de ese momento se procede a instalar el resto del sistema operativo de manera correcta.

Los controladores SATA deben de estar en el CD de software de la placa, si no estuvieran en el CD o no disponemos de CD, habrá que acceder a la web del fabricante de la placa con el modelo que corresponda a la nuestra y descárgalos.

¿DEBEMOS SEGUIR ALGUN ORDEN CONCRETO PARA INSTALAR LOS PROGRAMAS DESPUES DE FORMATEAR?

Bueno, en realidad esto es algo que no tiene demasiada importancia, aunque si que es conveniente que sigamos un cierto orden.

En primer lugar, una vez terminado de instalar totalmente el sistema operativo, debemos instalar los drivers y programas que vengan en el CD de la placa base. Algunas placas base traen unos programas de control, como es el caso de Asus con el Asus Probe. Es cuestión de que los mires y veas si te interesa instalarlo (en el caso anterior, que es el que conozco, es bastante recomendable). Es muy importante que reiniciemos tantas veces como nos lo pida la instalación.

En segundo lugar debemos instalar los drivers que necesitemos para la conexión a Internet (si se trata de un Router no necesitaremos ningún driver). Una vez instalados nos conectamos a

Page 213: Curso de arquitectura

Internet SIN NAVEGAR y descargamos e instalamos las actualizaciones del SO. En el caso de Windows debería empezar a bajarlos automáticamente.

En tercer lugar debemos instalar el resto de los drivers que tengamos (tarjeta gráfica, impresora, módem, etc.).

En cuarto lugar instalaremos los programas de seguridad (antivirus y antimalware). Llegados a este punto comprobaremos el correcto funcionamiento del ordenador, reiniciando y apagando y encendiendo en unas cuantas ocasiones.

En quinto lugar instalaremos los programas que hagan uso del hardware de nuestro equipo (programas de sonido, reproductores, programas de grabado de CD/DVD), apagando y encendiendo después de instalar cada uno de ellos, y comprobando su funcionamiento.

Una vez comprobado que nuestro ordenador funciona correctamente, seguiremos instalando los programas que necesitemos.

Ya en esto no existe ningún orden a seguir, salvo que tengamos alguno que precise de una doble instalación (programa más actualizaciones) o programas que dependan de otros para su correcto funcionamiento, en cuyo caso siempre instalaremos primero el que tenga que dar servicios.

Lo que si que es muy importante es asegurarse de que los programas que estamos instalando sean compatibles con nuestro sistema operativo.

Aunque no nos lo pida, es conveniente reiniciar el equipo (apagar y encender mejor) después de instalar cada programa. Esto hace que si alguno causa algún problema lo localicemos rápidamente, ahorrándonos de esta forma bastante tiempo y esfuerzo, ya que sabremos exactamente cual es el que está causando el problema. Esto es especialmente importante en aquellos programas señalados en quinto lugar.

Una vez terminados de instalar todos nuestros programas, debemos configurarlos correctamente (o a nuestro gusto, que a veces puede no ser lo mismo), comprobar que todos funcionan correctamente y pasar el antivirus, ya que algunos pueden instalar algún tipo de archivos no deseado (como es el caso de las cookies o spyware que instalan tanto Messenger como otros programas de mensajería instantánea o alguna barra de búsqueda para Internet.

Solo una precaución de seguridad: no instalar ningún programa que haya que bajarse de Internet (como el el caso del Messenger o del Adobe Reader) hasta que no tengamos instalado y en funcionamiento nuestro antivirus. En el caso de que alguno nos pida que deshabilitemos el antivirus o el firewall para instalarlo, lo que haremos es bajar el programa y copiarlo en el disco (en vez de instalarlo directamente desde Internet) y escanearlo en busca de virus o malware antes de instalarlo.

Bien, con esto ya tenemos nuestro ordenador listo para funcionar. Tened muy en cuenta que el tiempo que ''perdáis'' en la instalación lo vais a ahorrar luego en el uso diario del ordenador.

Espero que lo disfrutéis y que paséis buenos ratos frente al ordenador.

PARTES DE UNA PC

Page 214: Curso de arquitectura

Modulo2. MANTENIMIENTO PREVENTIVO Y CORRECTIVO DE COMPUTADORAS

COMO MANTENER EL ORDENADOR EN PERFECTO ESTADO.

Hay un tema de suma importancia y que solemos descuidar bastante, que es la limpieza (física) del ordenador. La acumulación de polvo dentro del mismo puede traer muy graves consecuencias, casi todas ellas relacionadas con el exceso de temperatura, y pueden ir desde un mal funcionamiento del equipo hasta que se estropeen componentes tales como el procesador, la tarjeta gráfica, el disco duro e incluso los módulos de memoria y la placa base.

En un ordenador, la gran mayoría de componentes generan calor y este debe ser disipado de alguna forma. Pues bien, el primer enemigo para que este calor se disipe es el polvo que se acumula en el disipador del procesador, ranuras de ventilación, ventiladores, memorias, placa base, etc.

Para la limpieza de nuestro PC no necesitamos ninguna herramienta rara ni cara, aunque sí es conveniente disponer de un bote de aire comprimido o bien de cualquier aparato que nos permita enviar aire a presión a los sitios donde no podamos acceder (este aparato puede ser un inflador de esos que venden para inflar pelotas, colchones de playa, un secador de pelo potente, pero siempre con el aire frío, etc.). Las herramientas que vamos a utilizar son:

- Un destornillador tipo Philips (de estrella). - Una brocha de pintar (que no sea muy grande ni con el pelo muy duro). - Un trapo limpio (a ser posible de algodón). - Una goma de borrar. - Un poco de alcohol. - Un tubito de pasta térmica (la venden en algunas tiendas de informática y en tiendas de electrónica).

Page 215: Curso de arquitectura

Primero desconectamos todos los cables del ordenador y buscamos un bien sitio donde hacer la limpieza, ya que vamos a ensuciar bastante (dependiendo de cómo este nuestro ordenador). A continuación quitamos la tapa de la caja para acceder a la placa base y demás componentes del ordenador y nos aseguramos de que estamos libres de electricidad estática (lo podemos hacer tocando cualquier elemento metálico que este conectado a la pared, suelo, etc.) y procedemos a desconectar los cables IDE y de la disquetera (los anchos, normalmente grises) del ordenador, tomando buena nota de cómo están conectados para volver a conectarlos después correctamente. No es necesario quitar todos los cables, solo los que estén muy sucios y los que nos impidan acceder a algunos elementos que tengamos que limpiar. Una vez quitados estos cables, desmontamos las tarjetas VGA y PCI que tengamos (hay que recordar donde estaban puestas para volver a colocarlas después). Es el momento de, con la brocha y sin darle muy fuerte, quitar la parte de suciedad mayor, como pelusas y polvo en general. También despejamos de polvo y pelusas las rejillas de ventilación de la caja y limpiamos bien los ventiladores auxiliares que tengamos, así como las rejillas de la fuente de alimentación. Con un trapo o papel húmedo (preferiblemente en alcohol) limpiamos es fondo de la caja, donde se nos habrá acumulado bastante suciedad.

Ahora vamos con la limpieza del disipador del microprocesador. Por supuesto, lo ideal es quitar el disipador para limpiarlo, pero hay algunos disipadores que no son nada fáciles de quitar, como los de los AMD K7 (normalmente hay que ayudarse con un destornillador plano), algunos de placas antiguas (P-III, AMD K6) y los nuevos de Intel 775 (de estos hablaremos aparte).

Page 216: Curso de arquitectura
Page 217: Curso de arquitectura

Si no podemos quitar el disipador, quitamos el ventilador, que suele estar cogido con 4 tornillos al disipador, y lo limpiamos muy bien con la brocha y con aire a presión. A continuación, con la brocha, limpiamos muy bien las laminas del disipador para dejarlas totalmente libres de pelusas y de polvo, terminando esta operación también con aire a presión si tenemos. No debemos usar nada húmedo para limpiar estos elementos, ya que el polvo se adheriría mas a las superficies, formando una película que impediría que ventilase bien. Una vez que tengamos bien limpio el disipador, limpiamos de nuevo los alrededores con la brocha y con aire a presión y montamos el ventilador.

Page 218: Curso de arquitectura

Si podemos quitar el disipador (OJO, solo si disponemos de la pasta térmica), quitaremos el disipador con muchísimo cuidado, ya que:

1º.- Los anclajes del socket se pueden romper. 2º.- Muy a menudo se viene el procesador pegado al disipador.

Si se viene el procesador pegado al disipador, lo despegamos con muchísimo cuidado (no usar ninguna herramienta para despegarlo, simplemente con la mano y haciendo movimientos giratorios suaves. Si no conseguimos despegarlo, le podemos dar por los bordes con un bastoncito de esos que se usan para los oídos y un poco, pero solo un poco, de alcohol) y procurando no tocar la cara de los pines. A continuación limpiamos bien la parte inferior del disipador de restos de pasta térmica. Así mismo, limpiamos el procesador de restos de pasta. Esto lo haremos con un trapito un poco humedecido el alcohol y después lo secaremos muy bien. NUNCA emplear agua ni ninguna herramienta para hacer la limpieza del micro ni del disipador.

Una vez quitada la pasta térmica del disipador, procederemos de la misma forma que en el caso anterior, desmontando el ventilador y limpiando muy bien el disipador. Una vez q estén bien limpios, volvemos a colocar el micro (levantamos la palanquita que tiene el socket, lo fijamos bien, pero siempre sin forzarlo, echamos un poco de pasta térmica y volvemos a colocar el disipador. Es muy importante procurar no tocar los pines, ya que son bastante frágiles y se doblan con mucha facilidad.

En el caso de los disipadores de los procesadores INTEL 775, sobre todo los originales de INTEL, estos son un poco complicados de quitar y volver a poner y el ventilador no se puede quitar, ya que va cogido con unas pestañas de plástico, bastante frágiles, a presión. En este caso, limpiaremos con la brocha lo mejor posible a través del ventilador y por los laterales y daremos bastante aire a presión, hasta asegurarnos de que ya no sale polvo y de que quede libre de pelusas.

Page 219: Curso de arquitectura

Una vez q tengamos puesto de nuevo el procesador, quitamos las memorias y limpiamos muy bien la placa base con la brocha y el aire a presión, haciendo hincapié en los zócalos de la memoria y en los zócalos PCI y VGA, asegurándonos de que quede toda la placa libre de polvo y de pelusas. Limpiamos muy bien los disipadores que tiene y, en el caso de que tenga algún ventilador, lo limpiamos muy bien, primero con la brocha y a continuación con aire, asegurándonos de que gira libre y suave.

Hemos de tener mucho cuidado con los condensadores (esa especie de tubitos negros), ya que son bastante frágiles y solo van soldados a la placa base por dos patillas.

No debemos olvidar limpiar bien la parte trasera de la placa base (donde están los conectores del teclado, ratón, USB, etc.), procediendo como hasta ahora, es decir, primero con la brocha y a continuación con el aire.

También limpiamos el disco duro y todas las superficies, pero solo con la brocha y el aire. En las superficies metálicas grandes (caja, unidades de DVD), podemos utilizar también un trapo seco.

Una vez que tengamos la placa base y la caja limpia por dentro, procedemos a limpiar las memorias.

Primero les quitamos el polvo con la brocha y después limpiamos bien los contactos. Para limpiar los contactos, primero les damos con suavidad con la goma de borrar, quitamos los restos de goma que puedan quedar y les damos con el trapo humedecido en alcohol. Cuando estén los contactos brillantes, los secamos muy bien con un trapo y volvemos a colocar las memorias en sus zócalos.

Con la VGA procedemos de igual modo que con las memorias, haciendo especial hincapié en

Page 220: Curso de arquitectura

la limpieza y buen funcionamiento del ventilador si lo tiene y del disipador, así como de los contactos. Una vez limpia la volvemos a colocar en su ranura.

Después limpiamos las demás tarjetas PCI que tengamos, dejándolas bien libres de suciedad y limpiando bien los contactos y las colocamos en las ranuras que les corresponda.

Por ultimo, limpiamos bien las fajas, tanto las IDE como la de la disquetera, pasándoles un trapo seco, después les podemos pasar un trapo humedecido en alcohol y a continuación las secamos muy bien. Una vez que estén bien secas, las colocamos tal como estaban. Es importante que estén lo mas recogidas que sea posible, ya que así conseguiremos dos objetivos. El primero, estético y el segundo y mas importante, cuanto mas libre esté el interior de la caja, mejor ventilará.

Es el momento de probar que todo funciona, para lo que volvemos a colocar el ordenador en su sitio, conectamos los cables (teclado, ratón, VGA, alimentación, etc.) y encendemos el ordenador, fijándonos en que todos los ventiladores funcionen correctamente y en que el ordenador encienda y funcione bien.

A continuación, abrimos los lectores de DVD y los limpiamos con la brocha, soplando además aire hacia el interior para que se limpie de polvo la lente y los engranajes. También soplamos aire en la disquetera y en todo lo demás que tengamos en el frontal de la caja (lectores de tarjetas, puertos USB, tomas de audio). Igualmente limpiamos la junta de la tapa de los lectores de DVD (muchas veces este es el motivo de que no abran bien).

Por ultimo, cerramos la caja y la limpiamos por fuera. Para esto, podemos usar un trapo con alcohol o con cualquier limpiador, pero siempre el trapo húmedo, nunca echando el limpiador sobre las superficies de la caja, ya que podría entrar algo de líquido dentro del ordenador.

Recordar que debido a los ventiladores y a la electricidad, los ordenadores atraen muchísimo

Page 221: Curso de arquitectura

el polvo, por lo que deberíamos realizar esta operación por lo menos una vez al año, preferentemente antes del verano.

Una vez limpiado el ordenador, vamos a ''limpiar'' un poco el software. Muchas veces tenemos el ordenador excesivamente cargado con programas que en realidad no usamos y que solo hemos cargado para ver como son. Si no los utilizamos, es conveniente borrarlos, sobre todo si son demos que ya han cumplido y ni siquiera funcionan. Para borrar (eliminar) programas hay un orden que debemos seguir si no queremos tener problemas. Primero, en Inicio, Todos los programas, iremos al programa que queremos eliminar y veremos si tiene algún desinstalador (desinstalar o Uninstal). Si no tiene ningún desinstalador, nos vamos a Inicio, Panel de control, Agregar o quitar programas y lo quitamos desde ahí. Recordar que muchos programas nos piden que reiniciemos al desinstalarlos. Debemos reiniciar cuando nos lo pida, ya que de lo contrario no se desinstalarán bien. NUNCA debemos borrar directamente la carpeta del programa, ya que esto nos puede dar bastantes problemas después. Lo que sí podemos hacer es, una vez desinstalado el programa, eliminar la carpeta si es que no se ha eliminado sola. A continuación, en el explorador de Windows, nos vamos a Herramientas, opciones de carpeta, ver y marcamos Mostrar todos los archivos y carpetas ocultos.

Una vez hecho esto, reiniciamos y arrancamos en modo seguro (pulsamos la tecla F8 al iniciar) y abrimos el explorador de Windows. Nos vamos a la carpeta Windows -> Temp y borramos todo lo que contenga. A continuación nos vamos a la carpeta Documents and Setting -> NUESTRO_USUARIO -> Configuración Local -> Temp y borramos todo lo que tenga (en realidad, el contenido de esta carpeta se debería de borrar cuando cerramos Windows, pero a veces por mal apagado, fallo al instalar algo, desinstalaciones o simplemente por estar mal algún archivo, estos no se borran y van ocupando espacio y ralentizando nuestro ordenador). También, si queremos (es muy conveniente), vaciamos las carpetas Cookies y Archivos temporales de Internet (esto lo podemos hacer desde Propiedades del Internet Explorer.

Page 222: Curso de arquitectura

Una vez eliminados los archivos de estas carpetas, nos volvemos a ir a Herramientas, opciones de carpeta, ver y marcamos No mostrar archivos ni carpetas ocultos. Reiniciamos y entramos en modo normal.

Una vez hecho este mantenimiento, le pasamos el antivirus (que debe estar correctamente actualizado), algún programa tipo Ad-Aware Personal (programa gratuito), algún programa anti espias (si no lo incluye nuestro antivirus) y por ultimo, si queremos, algún programa de limpieza del registro, como el RegCleaner, que también es gratuito.

Bueno, ya tenemos nuestro ordenador listo para una temporada. Solo nos falta ordenarlo un poco. Para ello, nos vamos a Inicio, Todos los programas, Accesorios, Herramientas del sistema y ejecutamos Desfragmentador de disco. El desfragmentador lo debemos ejecutar en TODOS los discos duros que tengamos (ya sean físicos o particiones).

Page 223: Curso de arquitectura

En cuanto a la limpieza del monitor, depende del tipo de monitor que tengamos, pero hay una serie de normas que son válidas para todos los monitores:

- Siempre es preferible limpiarlos frecuentemente que esperar a que veamos la pantalla borrosa.

- Para limpiar la pantalla, lo mejor es darle con unos toallitas húmedas, de las que venden para gafas y ópticas, nunca con limpia cristales ni con alcohol.

- Las partes de plástico las podemos limpiar primero con una brocha y después con un trapo húmedo en alcohol, pero NUNCA echar ningún líquido directamente sobre el monitor, siempre en un trapo y con este limpiar.

- Si la pantalla es TFT, debemos dar con mucha suavidad, sin hacer presión.

Una vez hecho este mantenimiento, veremos que nuestro ordenador va mas rápido y además, al trabajar a menor temperatura, alargaremos si vida útil y evitaremos averías y fallos.

Además de todo esto, hay una serie de consejos para un mejor funcionamiento y, sobre todo, para prevenir averías. - No debemos colocar la caja del ordenador en un sitio cerrado, ni pegarla demasiado a la pared, para que pueda ventilar bien. - Es conveniente que no esté directamente sobre el suelo, a ser posible, a unos 5 centímetros de altura como mínimo. - Debemos tener los cables lo más recogidos y ordenados que podamos. - Si vamos a estar tiempo sin usarlo, es conveniente que lo desconectemos de la corriente.

COMO SE DESFRAGMENTA UN DISCO DURO.

1.- Introducción:

Page 224: Curso de arquitectura

Quizás el momento de mayor eficacia y rendimiento de un ordenador sea el de la primera vez que arranca después de instalar el sistema operativo, pero al mismo tiempo es cuando más inútil nos resulta ya que hay muy pocas cosas que podamos hacer con él.

Normalmente nos decantamos por la instalación de un paquete ofimático que nos permita redactar documentos, crear hojas de cálculo y otras cuanto miles de cosas más que probablemente nunca usemos. También instalamos el reproductor multimedia, vamos a pasar muchas horas con nuestro equipo, que se nos harán más llevaderas escuchando nuestra música favorita. Claro que también habrá que poder ver películas, no todo va a ser trabajo, hay que divertirse.

Si además nos pica el gusanillo, podemos instalar algún juego que nos permita convertirnos en los ases del teclado, programas de utilidad y pequeñas ''curiosidades'' que nos envían los amigos por correo, etc., etc.

El problema es que poco a poco vamos agotando el espacio del disco, y cuando esto ocurre pasamos a la práctica contraria, nos cansamos de los programas y los desinstalamos, borramos ficheros, hacemos limpieza de archivos temporales, algún que otro mal apagado del ordenador, etc. De alguna manera vamos ''deteriorando'' la estructura de ficheros en el disco duro, vamos fragmentando los archivos al guardarlos.

¿Por qué se produce este deterioro? Muy fácil, mientras el disco duro tiene suficiente espacio, la información de los diferentes archivos, sean del tipo que sean (programas, música, imágenes, etc.), se almacena en sectores contiguos. A medida que se borran los ficheros y/o programas estos sectores se liberan para que puedan ser usados para guardar otros archivos, pero ya el ordenador realiza las grabaciones de los ficheros en diferentes sectores que estén libres y que no tienen que estar contiguos. El problema es que cuando los ficheros están almacenados en el disco en sectores contiguos la lectura se realiza de manera más rápida, de la misma forma cuando en el disco hay espacio suficiente para almacenar los archivos en sectores continuos, las escrituras son más rápidas y se pierde menos tiempo.

En definitiva, después de esta extensa introducción, el resumen es que cuanto mejor esté organizado nuestro disco duro, mejor y más rápido va a trabajar el ordenador Por tanto, cuando este sistema empieza a deteriorarse (fragmentarse) debemos empezar a plantearnos desfragmentar el disco duro. Afortunadamente esta operación es una de las utilidades que ofrece el sistema operativo y vamos a explicar como realizarla de manera sencilla.

2.- Consejos previos:

Antes de empezar, hay que tener en cuenta algunos consejos ya que  muy a menudo suele ocurrir  que el Desfragmentador de disco se detiene a mitad del proceso vuelve a empezar. Esto suele ocurrir por estar usando otros programas al mismo tiempo que el desfragmentador y cada vez que el disco duro recibe la orden de grabar datos nuevos el desfragmentador tiene que comenzar de nuevo. Es imprescindible que, en el momento en el que el desfragmentador comience el proceso, no tengamos abierto ningún otro programa.

A veces nos encontramos ese mismo problema si tenemos activo un protector de pantalla, al ponerse en funcionamiento el protector de pantalla realiza accesos al disco y el desfragmentador comienza de nuevo, es recomendable desactivar el protector de pantalla mientras se está realizando el proceso de desfragmentación.

Para desactivar el protector de pantalla hay que ir al Escritorio, y hacer click con el botón derecho del ratón sobre un espacio libre (no sobre algún icono) y elegir Propiedades en el menú que aparece.

Ahora, en la ventana que se abre, hay que seleccionar la pestaña Protector de pantalla, y es dicha opción, se accede al desplegable Ninguno. También hay que tener en cuenta que, aparte de desactivar el protector, hay que seleccionar pulsar en el botón Energía que nos desplegará otro cuadro de dialogo.

Page 225: Curso de arquitectura

En el que debemos seleccionar Nunca en las listas Pasar a inactividad y Desactivar los discos duros. Pulsamos aceptar y ya está.

3.- Cómo ejecutar el desfragmentador:

Como en muchas otras operaciones, se puede entrar en el desfragmentador de disco duro de varias formas.

Primera forma de acceder:

- Pulsamos en el botón de inicio de la barra de tareas.

- Seleccionamos Programas.

- Seleccionamos Accesorios.

- Seleccionamos Herramientas del Sistema.

Page 226: Curso de arquitectura

- Seleccionamos Desfragmentador de disco.

De manera grafica lo podemos ver en la siguiente imagen:

Segunda forma de acceder:

Después de hacer doble click sobre el icono MiPC se abre un ventana con la información de nuestro PC, incluyendo las unidades de almacenamiento.

Pinchamos con el botón derecho del ratón sobre el disco duro que queramos desfragmentar y en el menú que se despliega elegimos Propiedades.

Page 227: Curso de arquitectura

Se abrirá otra ventana con diferentes pestañas en la que tenemos que seleccionar Herramientas.

Por último se pulsa el botón Desfragmentar ahora.

Tercera forma de acceder:

Esta tercera es una variante de la anterior, la diferencia estriba en que se puede acceder desde una ventana del explorador de archivos de Windows, pulsando con el botón derecho sobre la unidad. A partir de ahí el proceso es similar al anterior.

Page 228: Curso de arquitectura

4.- Usando el desfragmentador:

Una vez que hemos arrancado el programa por cualquiera de los tres sistema anteriormente descritos, nos encontramos con una nueva ventana como la que aparece a continuación:

En el caso del ejemplo vemos que nos aparece información de las dos unidades de disco duro disponibles en el sistema, C: y D: , la típica barra de menú, y en la parte inferior unos botones de acción y los códigos de color de la información que se va a presentar. No nos vamos a extender explicando todas y cada una de las funciones de la barra de menú, sino que nos vamos a ir directamente al grano.

Lo primero que debemos realizar es un análisis de los disco duros que tenemos en el sistema, esto nos permitirá conocer el grado de fragmentación de los archivos que está grabados en el disco duro.

Page 229: Curso de arquitectura

Para comenzar el análisis pinchamos en la unidad que vamos a analizar (en este caso está seleccionada la unidad C ) y pulsamos con el ratón el botón Analizar. Veremos como en la barra informativa de Uso de disco aproximado antes de la fragmentación aparece el mensaje (C:) Analizando….

Al cabo de unos segundos aparecerá el mensaje que vemos en la imagen:

Pulsando en el botón Presentar Informes aparece una ventana con la información obtenida durante el análisis, tanto de la unidad como de los archivos, y podemos ver en la imagen su formato:

Si hemos cerrado la ventana anterior, o en su momento pulsamos en el botón Cerrar en el mensaje que presentó el desfragmentador después del análisis, disponemos de toda la información del disco de manera gráfica y en la parte inferior todos los botones de las posibles acciones a realizar tal y como se muestra en la imagen:

Page 230: Curso de arquitectura

Si pulsamos en el botón Desfragmentar comienza el proceso y aparece en la barra de Uso de disco aproximado después de la desfragmentación el estado del disco durante el proceso de desfragmentación, que va variando a medida que avanza el proceso:

La operación de desfragmentación es una operación que lleva bastante tiempo realizarla, dependiendo del tamaño libre del disco, del índice de fragmentación de los archivos y de las características del propio equipo. Debemos tener en cuenta que no podremos usar el ordenador durante el proceso de fragmentación, por lo que habrá que pensar el momento más adecuado para una desfragmentación, la hora de la comida, la hora del desayuno, mientras realizamos cualquier otra actividad que no necesitemos el ordenador o, si fuera necesario, por la noche mientras dormimos.

Una vez finalizada la desfragmentación se nos presenta el siguiente mensaje:

Page 231: Curso de arquitectura

Podremos ver un informe similar al que se nos presentó durante el análisis de la desfragmentación del disco, pero ya con la desfragmentación realizada,

al cerrar la ventana, o después de visualizar el informe podemos ver la diferencia del estado del disco duro antes y después de desfragmentarlo:

5.- Conclusiones:

Page 232: Curso de arquitectura

Una vez que hemos finalizado el proceso, nuestro disco duro está de nuevo en perfectas condiciones de trabajo y podemos disfrutar de él.

Debemos tener en cuenta que es conveniente realizar de manera periódica, al menos el análisis para verificar el grado de desfragmentación de nuestro disco duro, sobre todo cuando lo tengamos sometido a continuas operaciones de borrado y grabación de archivos, con mayor motivo si estos archivos son grandes, como ocurre en los procesos de edición de video o imágenes en formatos de alta resolución tipo RAW, o cualquier programa que use ficheros de gran tamaño y con muchas operaciones de lectura / escritura.

Muchas veces hemos recibido maquinas viejas las cuales están muy sucias, son muy ruidosas o funcionan mal. Todos estos síntomas pueden ser provocados por una gran acumulación de suciedad en el interior del chasis del PC.

Obviamente las placas bases no se pueden limpiar con un balde de agua, al igual que un automóvil, pero podrán realizarla con objetos que pueden encontrar en cualquier casa. Solo deben seguir estos sencillos pasos:

 

 

Primer paso: Desarmar el equipo

 

Antes que nada procederemos a retirar las tapas laterales del chasis, y desenchufaremos todos los cables. Luego de eso sacaremos todos los componentes del PC a una superficie plana y estable, como una mesa.

 

ATENCION: Las descargas electroestáticas son una de las cusas frecuentes de daño en los módulos de memoria RAM. Estas son el resultado del manejo del modulo sin haber descargado primero, disipando de esta forma la electricidad estática del cuerpo o la ropa. Si tiene una pulsera antiestática, úsela. Si no, antes de tocar los componentes electrónicos, asegúrese de tocar primero un objeto metálico con descarga a tierra sin pintar. Lo más conveniente es tocar el chasis metálico dentro de la computadora.

 

 

Luego limpiar el interior del chasis con una aspiradora y algún trapo con líquido limpiador, ya que si no lo hacemos, los componentes se volverán a ensuciar.

Hay algunos componentes de las maquinas viejas que recomiendo cambiar gracias al gran deterioro de ellos. Entre los más importantes se encuentran:

 

    Cables planos (perdida de transmisión).

    Jumpers (posibilidad de cortocircuito o sulfatación).

    ventilador del microprocesador (desgaste de las aspas).

    La pila de la placa base (para tener la hora correcta, entre otros).

 

Segundo paso: Limpieza de placas

 

Page 233: Curso de arquitectura

Ahora seguiremos con la placa madre. Sacaremos todos los jumpers y sacaremos el polvo soplando fuertemente y sacando la suciedad pegado con un trapo; en caso de que el lugar sea incomodo (como por ejemplo entre los slots) limpiaremos con un cepillo de dientes viejo apenas húmedo con alcohol, preferentemente isopropílico (también limpiaremos los contactos de los slots).

Hacer lo mismo con las placas de expansión y las memorias. Limpiar los pines con un trapo con alcohol (preferentemente isopropílico) y frotando con una goma de borrar blanca.

 

ATENCION: El uso de alcohol en la limpieza de componentes debe ser precavido y no exagerado. Cualquier contacto de líquido con un transistor, capacitor o chip puede dejar inutilizable la placa.

 

 

Tercer paso: Mantenimiento del Microprocesador

 

El microprocesador (micro) es uno de los componentes esenciales de los PC. Para una calidad de vida de nuestro micro es necesario un mantenimiento de este cada aproximadamente tres años.

Primero es recomendable cambiar el  ventilador (solo principalmente cuando las aspas están gastadas o pérdida de velocidad). Para saber si el ventilador tiene perdida de velocidad solo hay que prender la maquina  y observar por un tiempo si le cuesta girar o va demasiado lento (generalmente hay menos sonido al estar prendido)

Antes de volver a instalar el micro, poner grasa siliconada en el centro del micro y luego meter el ventilador (cooler). Lo que hará es mejorar la disipación del micro, evitando la temperatura  del ventilador (la mayoría de los componentes electrónicos emiten calor gracias al paso de corriente).

 

 

Cuarto paso: Mantenimiento de lectores ópticos

 

Los lectores de CD’s, DVD’s o grabadores poseen en su interior un ojo denominado óptico el cual es uno de los elementos más importantes de estos dispositivos. Muchas veces, nuestro lector hace ruidos extraños, le cuesta leer cd’s o simplemente no los lee. El motivo mas frecuente de este problema es la suciedad que cubre este ojo. La limpieza de esta parece complicada pero en realidad no lo es. Solo se procede a sacarle los tornillos del lector (generalmente en el inferior de los costados) y sacar las tapas protectoras y la parte de delante de la bandeja. Luego limpiar esas tapas con una aspiradora o trapo (para que al cerrarlo no se vuelva a ensuciar). Adentro nos encontraremos con la bandeja y una plaqueta en la parte de abajo. Lo que haremos es soplar o sacudir el aparato para que al cerrarlo no se vuelva a ensuciar el ojo óptico. Después limpiar el ojo (muy cuidadosamente) con un trapo no muy áspero (puede ser un pañuelo) humedecido con alcohol isopropílico. Para no tener problemas no toquen ningún otro componente (como engranajes, cables, etc.). Luego armaremos el lector con las tapas protectoras.

 

ATENCION: Limpiar incorrectamente el ojo óptico puede dejar el lector inutilizable. Si sigue los pasos indicados tal como se dice y cuidadosamente no deberá tener ningún problema.

 

 

En este momento ya podemos reensamblar el equipo.

Page 234: Curso de arquitectura

La limpieza interior ya esta completada.

 

 

Quinto paso: Limpieza de periféricos

 

Como todos saben, los periféricos, son la interfaz que comunican al usuario con el ordenador. El buen estado de los periféricos mejora la comodidad del usuario, lo que es muy necesario al pasar horas frente al PC.

Uno de los periféricos que mas necesita ser limpiado, es el Mouse a bolilla. Muchas veces ha pasado que el Mouse a bolilla no responde bien a nuestros movimientos. El caso más común es que las ruedas que son giradas por la bolilla se encuentren sucias, por lo cual no giren bien. Para limpiar las ruedas, antes que nada, hay que apagar el ordenador y desenchufar el cable, esto hará que trabajemos más cómodos y evitar que el cable se esfuerce al quedar estirado. En la parte inferior del Mouse hay una pequeña tapa (generalmente redonda) la cual tiene dibujada un par de flechas, lo que haremos es girar la tapa hacia ese lado. Luego, cuando la tapa no se pueda girar más, la sacaremos junto a la bolilla. Ahora podremos ver tres ruedas de distintos tamaños, las cuales deberemos limpiar: tienen una pequeña suciedad de color negro que es la que atasca a las ruedas por lo cual no giran bien, por eso se debe sacar esa suciedad con un alfiler, hasta que se valla por completo y la rueda gire bien.

Otro de los periferias más importantes es el teclado. La limpieza de esto es muy simple y sencilla: solo hay que pasarle una espiradora entre los botones para sacar la tierra y el polvo y limpiar los botones, que a veces se encuentran engrasados, con un trapo humedecido con un liquido limpiador, como por ejemplo alcohol.

Para limpiar el monitor lo que haremos es limpiar la pantalla con un trapo humedecido con un líquido o crema limpiador, de arriba hacia abajo, con los cables desconectados.

Muchas veces, en el caso de las impresoras chorro a tinta, los caracteres o dibujos no salen en el papel como tendrían que salir, aun teniendo tinta. Lo que debemos hacer es levantar la tapa de la impresora (por donde se mete el cartucho) y limpiar de polvo ese lugar con un soplido y con un trapo humedecido con algún líquido o crema limpiador. Otra cosa que podemos hacer es sacar el cartucho y limpiar con un trapo humedecido con alcohol, ya que a veces la tinta se seca en ese sitio, impidiendo el correcto paso de color.

 

 

Recomendaciones

 

 

ATENCION: Cuando se dice de humedecer un trapo con alguna sustancia limpiadora, cabe aclarar que es solo apenas húmedo, no mojado. Todos los procedimientos deben realizarse con los cables desenchufados.

 

 

          Esta limpieza es necesaria en maquinas o dispositivos viejos (con 2 o 3 años de antigüedad), pero no en maquinas o dispositivos nuevos.

 

          Hay veces que no todos los pasos son necesarios para un equipo, solo limpie los componentes que estén sucias, sean ruidosos o no se encuentren en buen estado.

Page 235: Curso de arquitectura

 

          Muchos de estos procedimientos pueden resultar muy efectivos para la reparación de objetos, como la limpieza de placas de expansión.

 

          No esfuerce los componentes de  la maquina, trátelos con cuidado y lleve a cabo todas las precauciones.

 

          Si tiene conexión a Internet, desenchufe el cable telefónico al final de cada día, especialmente en los días con tormenta. Los rayos eléctricos pueden traer descargas eléctricas muy potentes que no producen mucho efecto en los teléfonos, pero si en los ordenadores (especialmente los módems y placas madres) pudiendo dejar algún componente inutilizable.

 

          No apague su PC si la volverá a usar dentro de poco tiempo. Si utiliza mucho la computadora, encienda el equipo y apáguelo al final del día o cuneado sepa que no la va a volver a utilizar. Cuando una maquina se enciende, pasa electricidad por los componentes lo que hace que estos se expandan, y al apagarla, se contraen. La constante expansión y contracción desgasta los componentes y reduce la calidad de vida.

 

          Configure la utilidad se suspensión del monitor. Esta utilidad esta disponible en todos los sistemas operativos modernos. El tiempo de suspensión debe ser de entre 30 y 60 minutos de inactividad.

 

          Si su maquina esta prendida por mas de 6 horas, programe un reinicio. Hay muchos programas que permiten programar el reinicio del equipo. El WinOFF es uno de ellos y es muy efectivo, lo puede descargar de Internet gratuitamente desde aquí.

 

 BIOS: CONCEPTOS Y CONFIGURACION.

El BIOS (Basic Input Output System – Sistema Básico de Entrada Salida) es un programa que se encuentra grabado en un chip de la placa base, concretamente en una memoria de tipo ROM (Read-Only Memory). Este programa es el que se encarga de comprobar el hardware instalado en el sistema, ejecutar un test inicial de arranque, inicializar circuitos, manipular periféricos y dispositivos a bajo nivel y cargar el sistema de arranque que permite iniciar el sistema operativo. En resumen, es lo que permite que el ordenador arranque correctamente en primera instancia.

Inicialmente era muy complicado modificar la información del BIOS en el ROM, pero hoy en día la mayoría de los BIOS están almacenados en una memoria flash capaz de ser reescrita, esto es lo que permite que se pueda actualizar. El BIOS se apoya en otra memoria, llamada CMOS porque se construye con esa tecnología, en ella carga y almacena los valores que necesita y que son susceptibles de ser modificados (cantidad de memoria instalada, numero de discos duros, fecha y hora, etc). A pesar de que apaguemos el ordenador, los valores de la memoria de BIOS se mantienen intactos, ¿cómo es posible?, pues gracias a una pila que la alimenta. Puesto que el consumo es muy bajo y se recarga al encender el ordenador, la pila puede durar varios años.

Cuando hay problemas con la pila, los valores de dicha memoria tienden a perderse, y es cuando pueden surgir problemas en el arranque del tipo: pérdida de fecha y hora, necesidad de reconfigurar dispositivos en cada arranque, y otros. En caso de problemas sustituir la pila es trivial, basta con comprar una de iguales características, retirar la vieja y colocar la nueva en su lugar.

En condiciones normales no es necesario acceder al BIOS ya que al instalar un dispositivo, siempre que hayamos tenido la precaución de asegurarnos que es compatible o aceptable por nuestra placa base, éste es reconocido inmediatamente y configurado por BIOS para el arranque. No obstante, hay ocasiones en las que se hace necesario acceder a su configuración, en este manual

Page 236: Curso de arquitectura

veremos cómo hacerlo y algunos ejemplos.

Acceso y manipulación del BIOS:

Para acceder al programa de configuración del BIOS, generalmente llamado CMOS Setup, tendremos que hacerlo pulsando un botón durante el inicio del arranque del ordenador. Generalmente suele ser la tecla Supr aunque esto varía según los tipos de placa y en portátiles. Otras teclas empleadas son: F1, Esc, o incluso una combinación, para saberlo con exactitud bastará con una consulta al manual de su placa base o bien prestando atención a la primera pantalla del arranque, ya que suele figurar en la parte inferior un mensaje similar a este:

''Press DEL to enter Setup''

El aspecto general del BIOS dependerá de qué tipo en concreto tenga en su placa, las más comunes son: Award, Phoenix (se han unido) y AMI. Bastante similares pero no iguales. El programa del BIOS suele estar en un perfecto inglés y además aparecen términos que no son realmente sencillos, si no sabe lo que está tocando consulte el manual o a un especialista, de lo contrario se encontrará con problemas.

Aunque tengan nombres diferentes, existen algunos apartados comunes a todos los tipos de BIOS.

Una clasificación puede ser:

1 Configuración básica de parámetros - Standard CMOS Setup.

2 Opciones de BIOS - BIOS Features, Advanced Setup.

3 Configuración avanzada y chipset - Chipset features.

4 Password, periféricos, discos duros, etc.

5 Otras utilidades.

Bajo el 1er punto se puede encontrar la configuración de la fecha y hora, los discos duros conectados (IDE) y la memoria detectada, entre otras cosas.

En el punto 2º existen muchos parámetros modificables, suelen aparecer: caché, secuencia de arranque (Boot sequence), intercambio de disqueteras, etc.

En el punto 3 podemos encontrar parámetros relativos a las características del chipset, memoria RAM, buses y controladores.

Bajo el punto 4 hemos reunido una serie de opciones que suelen estar distribuidas, gracias a ellas podemos insertar una contraseña de acceso al programa del BIOS, modificar parámetros relativos a los periféricos integrados, control de la administración de energía, control de la frecuencia y el voltaje, etc.

Y finalmente en el punto 5 reunimos las opciones que nos permiten guardar los cambios efectuados, descartarlos, cargar valores por defecto, etc.

En la parte inferior de la interfaz del programa podremos ver el inventario de teclas necesarias para navegar entre las opciones y modificarlas, es importante leerlo y tenerlo en cuenta.

Page 237: Curso de arquitectura

Imagen de la interfaz más común de BIOS (Award y Phoenix).

Modificaciones comunes: ejemplos.          Existen una serie de parámetros que son susceptibles de ser modificados en algún momento, de hecho en la mayoría de foros de soporte técnico se plantean esas dudas. Vamos a explicar cuáles son y usarlos como ejemplo:

1.- Secuencia de Arranque: Esto le indica al BIOS a qué unidad ha de ir para buscar el arranque del sistema operativo. La secuencia indica el orden de izq. a der. en que se buscará en las unidades. Antiguamente el orden solía marcar A C SCSI/otros lo cual indicaba que primero que debía mirar en la unidad A (disquetera) y posteriormente en C (disco duro principal), gracias a esto se podía arrancar el ordenador con un disco de arranque antes que el sistema operativo. Hoy en día esto ha cambiado en muchos casos, cuando se necesita arrancar desde un CD (instalación de sistemas operativos (Windows XP, Linux) hay que modificar la secuencia de arranque (a menos que el sistema sea tan nuevo que ya venga de fábrica) para que inicialmente apunte a la unidad lectora de CD. Supongamos que la unidad tiene la letra D, el orden podría ser D A C o D C A, por ejemplo.

La opción suele encontrarse en BIOS Features >> Boot Sequence para las BIOS Award. En algunos casos en vez de integrarse en una sola opción, esto se realiza en varias, suelen referirse al orden de arranque de dispositivos y se llaman: First Boot Device, Second Boot Device, Third Boot Device y Boot Other Device. Basta especificar en cada una cuál es el dispositivo que arrancará en ese orden (First = primero, Second = segundo, Third = tercero, Other = otro).

Page 238: Curso de arquitectura

2.- Modificar FSB/Multiplicador: Esto es una necesidad surgida en gran medida a raíz del Overclocking, son los parámetros que definen la velocidad del bus frontal del sistema y el valor multiplicador del procesador. Estos parámetros se suelen modifican como consecuencia de querer forzar el procesador a trabajar más rápido. Para tocar esto se debe hacer con total conocimiento, cualquier daño al sistema queda bajo su responsabilidad. La opción se denomina Frequency/Voltage Control, aunque puede llevar otro nombre. Se recomienda consultar manuales sobre Overclocking para esta característica.

3.- Deshabilitar dispositivos integrados (tarjeta gráfica/sonido): Esto es especialmente frecuente en los últimos años ya que las placas base integran tarjetas gráficas y tarjetas de sonido en la misma placa, y se podria pasar sin tener que adquirirlas a parte, pero la mayoría de las ocasiones se prefiere adquirir una tarjeta externa (a bus PCI, AGP o PCI-Express) ya que ofrecen mucha mejor calidad y prestaciones que las integradas. Para poder usar las tarjetas que compremos hay que deshabilitar primero las que van integradas, para ello debemos acceder al BIOS.

Esta opción tenemos que consultarla en el manual de nuestra placa base porque depende mucho del modelo, pero en general tendremos que localizar términos como: Onboard Audio, Onboard Graphics, etc...

Es probable que nos veamos en la situación de tener que actualizar el firmware del BIOS. Esto puede ser debido a errores detectados de fabricación, queramos instalar un procesador nuevo o algún dispositivo reciente, o simplemente añadir funcionalidades de las nuevas versiones del BIOS. Para realizar esto se suele emplear un programa en Windows y un fichero con la información, todo esto se debe descargar desde la web del fabricante de la placa base o BIOS, teniendo en cuenta que hay que saber con total exactitud el modelo de placa base que tenemos y el tipo de BIOS. Además, hay que aclarar que dicha operación tiene un alto riesgo para nuestra placa, un error podría ser fatal. Si surge algún problema podríamos dañar seriamente el BIOS y tendríamos que recurrir a una tienda especializada para su reparación o substitución.

Notas Finales:

El manual de la placa base es fundamental, siempre debemos acudir a él cuando tengamos dudas manipulando el BIOS. Dicho manual es un referente de vital importancia.

El BIOS es un programa delicado y siempre que lo manipulemos debemos hacerlo con precaución y conocimiento. Si tenemos dudas es mejor no tocar nada y consultar a un profesional.

Para saber qué modelo de placa y BIOS tenemos se puede usar una gran variedad de programas, recomiendo en particular el CPUZ de CPUID.org el cual muestra los valores del procesador, placa base y memoria fundamentalmente. Esto nos será útil si necesitamos los datos para una posible actualización de firmware.

 

  

Page 239: Curso de arquitectura

            Por Overclocking se conocen una serie de técnicas que permiten forzar los componentes de un sistema informático (de cualquier tipo) para que trabajen a más velocidad de la original. Esto no es magia, es simplemente saber aprovechar ciertos recursos y aceptar el riesgo que ello conlleva. Generalmente se suelen aplicar al microprocesador, pero éste no es el único componente susceptible de ser forzado, todos aquellos dispositivos que lleven un reloj interno o marcador de frecuencia (oscilador de cuarzo) pueden llegar a mayores frecuencias de trabajo que la original. También se aplican estas técnicas a la memoria RAM, tarjeta gráfica, e incluso a tarjetas de sonido, módems, etc.

 

            Existe, así mismo, otra técnica contraria llamada Underclocking y se trata de reducir la frecuencia de trabajo, su fin básico es reducir temperaturas, pero puesto que no es el objetivo de este manual, no lo vamos a tratar. Tal vez lo veamos en otra ocasión.

 

            El fundamento del Overclocking (OC en adelante) es mejorar algunos, o todos, los parámetros de que depende la frecuencia de trabajo para que ésta aumente; teniendo en cuenta que el rendimiento global no sólo depende de la frecuencia, sino de muchas otras cosas. De nada sirve tener un procesador rapidísimo si el resto de componentes son lentos o de baja calidad (el rendimiento de un sistema se basa en un todo). Estas operaciones conllevan riesgos, el más importante es el aumento de la temperatura y posible quema del procesador, y es algo que debe ser minuciosamente controlado siempre que se realice OC. Más adelante se tratarán con detalle las precauciones. Se recomienda leer dichas precauciones ANTES de modificar nada en el sistema.

 

¿Por qué es posible aumentar la frecuencia? – Este tema es algo complejo y muy relacionado con las estrategias empresariales de los fabricantes; a modo de resumen podríamos decir que el aumento de frecuencia es posible debido a que los microprocesadores se fabrican con una especie de “margen de tolerancia” en la frecuencia. Siendo así, y dependiendo de la fabricación, podremos forzar más o menos nuestro procesador. En el presente manual vamos a describir el OC únicamente para procesadores, en concreto de Intel® y AMD®, y comentaremos muy por encima el OC de otros dispositivos. Descripciones más complejas serán fruto de futuros manuales.

 

Conceptos sobre la frecuencia

 

            La velocidad de trabajo del procesador, o más formalmente llamada frecuencia, mide en cierta medida cuán rápido puede procesar éste las instrucciones. La frecuencia se mide en hertzios (Hz), 1 hertzio es 1 ciclo de “proceso” por segundo, pero hoy en día se emplean múltiplos más elevados como los megahercios (MHz) y gigahercios (GHz) debido a las enormes frecuencias de trabajo que tienen los procesadores modernos.

 

Por ejemplo, un procesador que trabaje a 2.000MHz (2GHz) podrá realizar 2.000.000.000 ciclos / segundo.

El procesador obtiene esa frecuencia mediante el producto de 2 factores, la frecuencia del bus frontal (FSB) y un valor multiplicador. El bus frontal es un conjunto de cables que interconectan los dispositivos con el procesador y sirven de “autopista” de la información interna. El multiplicador es un valor implícito que asigna el fabricante.

 

Frecuencia del procesador = FSB · Multiplicador

 

Ejemplos de varios procesadores:

 

Page 240: Curso de arquitectura

Multiplicador Frecuencia del FSB

Frecuencia del procesadorx6.5 100MHz 650MHz (Pentium III)x6.5 112MHz 728MHzx6.5 133MHz 864,5MHzx20 100MHz 2000MHz (2GHz) (Pentium 4)x18 133MHz 2394MHz (2,4GHz)x18 200MHz 3600MHz (3,6GHz)

 

En la tabla anterior se han ilustrado los valores de los factores decisivos en la frecuencia y su producto para obtener la frecuencia final del procesador. Podemos apreciar que, a un mismo multiplicador, y aumentando la frecuencia del FSB, obtenemos frecuencias mayores para un mismo procesador (esa es una de las técnicas, y la vamos a pasar a comentar en el siguiente apartado).

 

Técnicas para implementar las mejoras

 

            Una vez vistos algunos conceptos importantes, vamos a pasar a describir cómo aumentar la frecuencia de trabajo. Existen dos maneras que pueden ser aplicadas de manera conjunta o independiente:

 

1. Aumentar la frecuencia del bus frontal (FSB)

2. Aumentar el valor del multiplicador.

3. Aumentar FSB y multiplicador.

 

Sólo podremos aplicar ambas técnicas a la vez en procesadores AMD (y no en todos los modelos), ya que los Intel Pentium tienen el multiplicador bloqueado de fábrica, y por tanto, únicamente permiten la modificación del FSB. La modificación de ambos parámetros se debe realizar desde la BIOS del sistema, para acceder a ella debemos presionar un botón (generalmente la tecla “Supr”) durante el arranque del ordenador.

 

 La BIOS (“Basic Input-Output System” – Sistema Básico de Entrada-Salida) es un programa que viene en un chip de la placa base y se encarga de controlar el arranque primario del sistema y los dispositivos hardware instalados. Es allí donde residen los parámetros que dirigen el funcionamiento del sistema (características de los dispositivos de almacenamiento, procesador, reloj del sistema, interrupciones, chipset, buses y los que más nos interesan........multiplicador y frecuencia del FSB). Una vez dicho esto, queda patente que la calidad de la placa base es decisiva en esta etapa. Si disponemos de una buena placa base, podremos obtener un mayor rendimiento y más posibilidades en el OC.

 

 

1. Aumentar la frecuencia del bus frontal (FSB):

Este es el caso empleado por excelencia en los Intel, por tanto, vamos a ejemplificarlo en un Pentium 4. Hay que tener especial cuidado cuando se aumenta el valor del FSB ya que otros dispositivos y buses dependen de él. Al aumentar FSB también estamos forzando la frecuencia del bus PCI y AGP, si estos buses no pueden soportar el aumento que apliquemos al FSB, tendremos problemas de estabilidad.

 

Page 241: Curso de arquitectura

El proceso es relativamente simple:

1.1  - Accedemos a BIOS en el arranque del ordenador.

1.2  - Localizamos en el menú alguna opción bajo la cual se encuentren los parámetros del procesador o de frecuencias (podemos consultar el manual), según el tipo de BIOS esta opción puede variar, algunos ejemplos son: Advanced Chipset Features, Frequency/Voltage Control...

1.3  - Una vez dentro, localizamos el parámetro que guarda la frecuencia del FSB, una vez más, dependiendo del tipo de BIOS, este parámetro puede tener varios nombres, algunos ejemplos son: CPU External Clock, CPU Host Frequency, FSB Bus Frequency, CPU FSB Clock (todos se refieren al mismo concepto).

 

 

1.4  - Cuando lo encontremos, simplemente debemos fijarnos en su valor nominal e ir aumentándolo. Si no sabemos cómo, hay que consultar la ayuda de la BIOS o su manual. Hay versiones en que aparece una lista desplegable y hay que elegir, hay otras versiones que permiten introducir la frecuencia manualmente mediante el teclado numérico.

 

Page 242: Curso de arquitectura

 

1.5  - Guardamos cambios y reiniciamos el sistema. Si todo ha ido bien, el sistema arrancará mostrando la nueva frecuencia. Si hay problemas, ver sección más adelante.

 

2. Aumentar el valor del multiplicador:

Esto sólo puede ser realizado en procesadores AMD (actualmente también están empezando a ser bloqueados), el proceso es muy similar al anterior, hay que seguir los mismos pasos como si fueramos a modificar el FSB pero ahora buscaremos en la BIOS otro parámetro diferente, éste recibe diversos nombres según el tipo de BIOS, los más comunes son: Multiplier Factor, Adjust CPU Ratio, CPU Ratio, Clock Ratio.

 

Page 243: Curso de arquitectura

 

Aumentaremos el valor a nuestro gusto, guardaremos los cambios y verificaremos en el arranque que el nuevo valor de la frecuencia es el correcto. A diferencia del FSB, el aumento del multiplicador no conlleva problemas con otros buses. Si el equipo no arranca o hay problemas, ver sección más adelante.

 

En la siguiente imagen podemos ver otra modalidad de mostrar el valor del multiplicador, en la lista se aprecia el multiplicador seleccionado (x20) y cuál sería la frecuencia total del procesador teniendo en cuenta el FSB seleccionado (en ese caso de 200MHz, ya que 200MHz · x20 = 4000MHz).

 

 

Page 244: Curso de arquitectura

3. Aumentar FSB y multiplicador:

Sólo podremos aplicar ambas técnicas en procesadores AMD, los pasos a seguir son los mismos que hemos comentado en las dos secciones anteriores teniendo en cuenta que debemos aplicar los cambios de manera secuencial, es decir, o bien aumentamos primero el FSB y luego el multiplicador, o bien al revés.

 

Comentarios adicionales y consejos

 

Existe otro parámetro a tener en cuenta cuando se realiza OC, es el valor del voltaje del núcleo del procesador (Vcore). Puesto que su modificación es compleja y sólo necesaria en el OC extremo, no vamos a tratarla aquí.

Nunca se debe aumentar con grandes saltos ninguno de los parámetros comentados (FSB y multiplicador), siempre debemos probar con pequeños incrementos y verificar que todo funciona correctamente.

Al final del documento ponemos un sencillo ejemplo de overclocking a un procesador.

 

Precauciones a tener en cuenta

 

Aumentar la frecuencia de un procesador es un riesgo importante si no se hace con sumo cuidado, una de las consecuencias más fatales es que se estropee de por vida o se queme, aunque lo más normal suele ser que el sistema no arranque o se cuelgue con alta carga de trabajo (baja estabilidad). Además, aplicar OC anula la garantía de un procesador. Por tanto, debe quedar claro que:

 

La práctica del Overclocking conlleva riesgos y cualquier daño provocado al ordenador queda bajo tu responsabilidad.

 

El aumento de temperatura en la aplicación del OC se produce por cambios físicos relacionados con la Ley de Joule, dicho aumento de temperatura es el causante de los daños en el procesador, por tanto, cuando apliquemos técnicas de OC debemos asegurarnos de que el sistema que vamos a forzar está bien refrigerado (tanto en procesadores como en otro tipo de dispositivos: memorias, tarjetas gráficas, etc). Para ello es posible que necesitemos limpiar bien a fondo los ventiladores y disipadores que ya tengamos, o incluso añadir otros de mejor calidad. Comprobar que el flujo de aire en el interior de la torre es adecuado y que la refrigeración es correcta es fundamental en el éxito del OC, además de que mantener una temperatura baja otorga una mayor vida a los componentes y asegurar su estabilidad durante el funcionamiento.

 

Como valor de referencia, no deberíamos dejar que la temperatura del procesador fuera superior a 60º una vez hecho el OC y con el sistema a plena carga (ejecutando muchos programas por ejemplo).

 

Problemas en el OC y solución

 

Page 245: Curso de arquitectura

            Cuando aumentamos FSB, multiplicador o ambas cosas, y reiniciamos el sistema pueden ocurrir varias cosas:

 

 

1. El sistema no arranca:

Seguramente nos hayamos pasado al aumentar algún valor. Debemos restaurar los valores originales, para ello es necesario resetear la BIOS; se pueden emplear 2 métodos: mediante un jumper o bien retirando durante unos momentos la pila de botón que alimenta a la placa base. Para esa operación es recomendable consultar el manual de la placa, y en general siempre que tengamos dudas.

 

2. El sistema emite pitidos al encenderlo:

En este caso debemos consultar el manual de la placa base para identificar la causa de dichos pitidos. No obstante, si esto se produce después de aplicar OC, es muy probable que la causa sea la misma que en el punto anterior. Debemos actuar de la misma manera.

 

3. El sistema arranca correctamente:

Enhorabuena, los cambios se han aceptado, pero no hemos terminado todavía. Ahora hay que comprobar que el sistema es estable, es decir, funciona correctamente sin calentarse de manera excesiva, sin colgarse ni mostrar errores. Para ello, se recomienda tener el equipo encendido el mayor tiempo posible y hacer que ejecute programas con gran carga de trabajo. Los juegos de última generación son una de las mejores pruebas que podemos hacer. Si el sistema se “congela” al poco tiempo de encenderlo o al trabajar con alta carga, debemos reducir la frecuencia. Para ello seguiremos los mismos pasos que aplicamos para aumentarla pero en este caso reduciremos un poco el FSB y/o el multiplicador y volveremos a ejecutar la prueba.

Si el sistema se comporta correctamente y no da muestras de inestabilidad, podemos dar por concluido el proceso de manera exitosa.

 

NOTA: Los casos de cuelgues comentados en el párrafo anterior pueden solventarse sin reducir la frecuencia de dos maneras: mejorando la refrigeración o aumentando el voltaje del núcleo (como ya hemos dicho esto no lo vamos a comentar debido a su complejidad y su falta de utilidad para pequeños aumentos de frecuencia).

 

Si después de aplicar OC el sistema presenta fallos, especialmente en el arranque, y no podemos solucionarlos, debemos acudir a un especialista informático.

 

Ejemplo sencillo de aplicación del OC

 

Supongamos que tenemos un procesador Intel Pentium® 4 (núcleo Prescott) a 3GHz (frecuencia original) con una placa base normalita (ASUS P4P800) y unas memorias DDR400. Vamos a intentar conseguir una frecuencia de 3,3GHz (300MHz más que el valor original).

 

            Puesto que el Pentium 4 tiene el multiplicador bloqueado, sólo podremos jugar con el valor del FSB e ir aumentándolo. Nominalmente los valores son:

Page 246: Curso de arquitectura

 

Frecuencia FSB: 200MHz

Multiplicador: x15

Frecuencia del procesador: 200·15 = 3000 MHz (3GHz)

 

Como habíamos recomendado, los incrementos los vamos a ir haciendo poco a poco, empezaremos con +10MHz. Colocamos el valor de FSB en 210MHz y arrancamos. Ahora la velocidad que se muestra es 210·15 = 3150MHz (3,15GHz), comprobamos que el sistema es estable y la temperatura prácticamente no sufre aumento. Vamos allá con el segundo incremento, accedemos a BIOS y marcamos el valor de FSB en 220MHz, arrancamos y podemos apreciar que ahora la frecuencia del procesador es: 220·15 = 3300MHz (3,3GHz). Al hacer las pruebas pertinentes el sistema responde bien y únicamente notamos el aumento de algunos grados en la temperatura, pero como hemos tenido la precauciones de comprar un ventilador de buena calidad, esto no es un problema.

 

¿Podemos seguir aumentando?. La posibilidad existe, con una buena refrigeración, unas buenas memorias y subiendo el voltaje, hemos llegado a poner este procesador en 3750MHz = 3,75GHz (FSB a 250 MHz), pero siempre hemos tomado las precauciones oportunas.

 

Notas finales

 

            Esta guia está realizada con la intención de aclarar y simplificar los conceptos relativos al Overclocking para aquellos que se inician en el tema. Es evidente que se ha procurado evitar un nivel elevado de complejidad y meticulosidad que no tendría sentido para un usuario medio. El OC puede llegar a tener mucha profundidad teórica y práctica, que, insisto, de nada sirve a un usuario iniciado en el tema. Siguiendo el hilo de la complejidad, en el OC de procesadores AMD modernos hay unas diferencias de conceptos (se introduce el HTT por ej.) pero debido a que esta guía, no quiero ser redundante, evita la especificidad, no se va a tratar concretamente.

 

Para aplicar OC hay que tener paciencia y precaución, el punto óptimo se obtiene mediante pruebas y experimentos. También quiero aclarar que realizando OC al procesador no está todo terminado en cuanto a las mejoras de las prestaciones de un sistema informático. Si queremos sacar todo el partido al equipo sería más que aconsejable realizar OC a las memorias y a la tarjeta gráfica como mínimo, pero es algo que se escapa al alcance de este manual.

 

Muy probablemente, dentro de un tiempo, tratemos con mayor complejidad aspectos concretos en el OC y extendamos más conceptos, además de tratar aplicaciones software que nos ayudarán en nuestro cometido.

 

COMO REDUCIR EL RUIDO EN UN PC.

Uno de los mayores inconvenientes que plantea un ordenador es el ruido que genera.

Las fuentes de este ruido son los ventiladores, llegando este sonido constante a ser bastante molesto, sobre todo en esas horas en las que nos quedamos en nuestro ordenador y todo está en silencio.

Page 247: Curso de arquitectura

Bien, esto es algo que no se puede evitar, pero si que podemos intentar minimizarlo lo más posible.

El origen de este ruido se centra en tres fuentes diferentes. Las tres se pueden mejorara sustancialmente, aunque los costos son muy diferentes.

Vamos a estudiarlas una a una:

- Fuente de alimentación.

Quizás sea el mayor generador de ruido de todo el PC, y al mismo tiempo el más caro de solucionar (aunque como veremos más adelante puede ser también el más barato).

En el mercado hay una buena variedad de fuentes de alimentación cada vez más silenciosas, con ventiladores de 12 cm y de baja velocidad, que mantienen el mismo caudal de aire a menos revoluciones y, sobre todo, generando bastante menos ruido.

Esto soluciona una buena parte del problema, pero su costo es alto, ya que estamos hablando de cambiar la fuente de alimentación y de un gasto de al menos 35 euros.

Fuente ATX silenciosa, con ventilador de 12 cm.

Pero tenemos otra solución para este problema.

Las fuentes de alimentación llevan normalmente un ventilador de 8 cm. Pues bien, podemos comprar un ventilador de esta misma medida que sea silencioso y cambiar el ventilador de nuestra fuente de alimentación.

Este es un proceso que nos pueden hacer en cualquier taller de electrónica, pero que si somos un poco hábiles podemos también hacer nosotros mismos.

Para ello tan solo necesitamos un ventilador de igual medida, pero de la serie silence o ultra - silence (son ventiladores muy silenciosos, pudiendo llegar hasta los 9 db, que mantienen el mismo caudal de aire, pero con un número mayor aspas, con una geometría diferente de estas y a una menor velocidad), un destornillador de estrella, algo para cortar y pelar los cables y cinta aislante (aunque es mucho mejor el protector termofungible).

Lo primero que hacemos es desenchufar el ordenador y tenerlo al menos 5 minutos desconectado antes de hacer nada. A continuación desconectamos la fuente de alimentación y la sacamos de la caja, abriendola para acceder a su interior.

Al abrir la fuente de alimentación, observamos que el ventilador está conectado a la fuente por dos cables de alimentación (uno negro de masa y uno rojo, normalmente de 12 v) y unido al chasis de la fuente por cuatro tornillos. Bien, quitamos el ventilador que trae la fuente y cortamos los cables, dejando un buen trozo en la parte que va soldada a la placa de la fuente. Una vez quitado,

Page 248: Curso de arquitectura

pelamos 1.5 cm de estos cables. Por otro lado, cortamos el conector del ventilador que vamos a poner en su lugar, dejando la mitad aproximadamente del cable, y pelamos los extremos del cable que queda en el ventilador del mismo modo y tamaño del que hemos dejado en la fuente.

A la izquierda un ventilador silencioso de 8 cm, ideal para fuentes de alimentación. A la derecha, ventilador desmontado de la fuente.

Ya solo nos queda unir estos cables (el rojo con el rojo y en negro con el negro), aislar bien esta unión y volver a poner en su sitio en ventilador.

Evidentemente se puede desoldar los cables y soldar los nuevos, pero la forma anterior nos evita usar soldador y resulta igual de efectiva.

A continuación conectamos la fuente, probamos que funciona correctamente y si es así solo nos queda cerrar la fuente y colocarla en si sitio.

¿El precio de este cambio?. Pues unos 5 o 6 euros del ventilador y lo que nos cueste la cinta aislante.

- Ventiladores de refrigeración de la caja.

Para esto usamos el mismo tipo de ventilador que hemos utilizado para la fuente, solo que en este caso tan solo tenemos que reemplazar unos por los otros.

Page 249: Curso de arquitectura

Ventiladores silenciosos para cajas. A la izquierda dos de 9 cm y a la derecha uno ultra silencioso de 12 cm.

Solo tenemos que mirar, antes de comprarlos, que existen dos tipos de conectores que se usan en estos ventiladores. Uno es el tipo molex (ancho y con 4 pines) y el otro es el pequeño de 3 pines, que es para los que se conectan directamente a la placa base. Venden ventiladores con ambos tipos de conectores, por lo que podemos comprarlos con el conector que necesitemos.

Hay un tercer tipo de conector, que es el utilizado en algunas cajas para los ventiladores que llevan en uno de los laterales, que consiste en una especie de bayoneta con dos pines. En estos casos procederemos igual que hemos hecho con el de la fuente de alimentación, sustituyendo un conector por el otro.

- Ventilador del disipador del procesador.

En este caso el tema es algo más complicado, ya que en la mayoría de los casos vamos a tener que sustituir el disipador completo. No obstante, salvo que ya queramos poner un disipador de una gran potencia, los disipadores dotados de ventiladores silenciosos no suelen ser excesivamente caros (sobre los 15 - 20 euros) y los hay para prácticamente todos los modelos de socket.

Cambiar el disipador si es una labor que requiere bastante atención y en muchos casos quitar al menos la fuente de alimentación, pero con paciencia y cuidado es algo que está al alcance de cualquiera.

Page 250: Curso de arquitectura

Dos modelos de disipadores silenciosos de Zalman.

También, para reducir su ruido, nos podemos valer de las tecnologías que tanto AMD como Intel ponen a nuestra disposición, tales como Cool'n'Quiet (AMD) o Enhanced Speedstep (Intel). Tanto una como la otra lo que hacen es adecuar la frecuencia del procesador a las necesidades del ordenador en cada momento, reduciendo al mismo tiempo tanto el consumo energético como el calor disipado, por lo que se reduce la velocidad de giro del ventilador del procesador y por lo tanto el ruido que genera.

- Resto de elementos.

También tenemos en el mercado ventiladores silenciosos para el chipset y para las tarjetas gráficas.

Estos son fáciles de cambiar, si bien en la mayoría de los casos implica desmontar totalmente el ordenador, ya que necesitamos sacar la placa base de la caja para poder cambiar estos ventiladores.

Juego de disipadores silenciosos de la marca Zalman para chipset o para tarjetas gráficas que utilicen este tipo de didipador.

Otra fuente de ruido (aunque esta bastante menor) son las vibraciones del disco duro y de las unidades ópticas.

Esto lo podemos paliar en parte interponiendo entre estos elementos y el chasis de la caja unas

Page 251: Curso de arquitectura

pequeñas arandelitas de cartón (son arandelas aislantes) justo donde ponemos los tornillos.

Bien, con todo esto podemos reducir el ruido generado por nuestro ordenador a la mitad.

Hay en el mercado algunas cajas especiales, con un recubrimiento aislante en su interior. Este es un muy buen sistema, pero implica un gasto bastante grande, ya que se trata de cajas bastante caras.

Cuidados de un PC.Conectar más dispositivos IDE a una placa base.Cómo manipular correctamente un CD / DVD.Cómo saber que ordenador tengo.Herramientas necesarias para reparar un PC.Administrar particiones con Gparted.Utilizar 4GB de RAM en Windows Vista 32 bits.Incompatibilidades en memorias RAM.Barebone: La otra alternativa.Particionar discos. Cuando y como se debe hacer.Qué es el chipset de una placa base.Configuración de un PC para un Cibercafé.Cuidados de un ordenador portátil.Instalación de un ordenador nuevo.TurboCaché e HyperMemory.Configuración de un PC para servidor de música.El teclado en el ordenador.Configuración de un PC para edición fotográfica.Configuración de un PC para uso en oficinas.Configuración de un PC para edición de vídeo y sonido.Qué es la BIOS.Configuración de un PC para juegos.Por qué se pierde capacidad en un disco duro.Tarjetas de expansión.Refrigerar un portátil.USB 2.0 o Firewire (IEEE1394).

Page 252: Curso de arquitectura

Temperaturas de un PC.Configuración de un PC para uso medio.Modelos de procesadores y su evolución (2ª parte). Configuración de un PC para uso básico.Qué es la memoria caché.Qué es un HTPC.Como podemos cambiar la letra de una unidad.Como averiguar que drivers de audio y de video necesitamos.Instalar un disco SATA.Diferencias entre FAT, FAT32 y NTFS.Averías más frecuentes en un portátil.Actualizar ordenadores portátiles.Que portátil comprar.Teclados especiales.Factores a tener en cuenta al comprar un periférico.El PC no arranca: Detectar la avería.Problemas y averías en monitores.Averías de la placa base.Por qué se suele bloquear un PC.¿Merece la pena montar nosotros mismos nuestro PC?.Averías más frecuentes en un ratón.Aumentar la capacidad de almacenamiento en un portátil.Tarjeta de sonido interna o externa.Tipo de cables y conectores que utiliza un PC.Modelos de procesadores y su evolución (1ª parte).Por qué se suele reiniciar un PC.Cámaras IP.¿Comprar un PC de 2ª mano?.Problemas con la tarjeta gráfica.Formatear un disco duro: Tipos de formatos.Averias típicas de un teclado.Impresora láser o de tinta.Averias de los puertos USB.¿Cuando se debe ampliar un PC?.¿Es conveniente crear una segunda partición en un disco duro?.¿Merece la pena gastarse 200€ en una tarjeta grafica?.¿Más memoria o más procesador?.Como hacer más silencioso un PC.¿Es malo tener el PC encendido las 24 horas?.Averias de lectoras y regrabadoras de CD y DVD.Elegir una caja para el PC.Comprar cartuchos de tinta originales o compatibles.Fallos de la disquetera.Avería del procesador.Conectar y configurar la tarjeta de sonido.Formatear Pendrive.Averias en la fuente de alimentación.Identificar y conectar los cables de un PC.Qué es el sistema SLI y el sistema CrossFire.Consejos para comprar una placa base.Como visualizar la temperatura de un ordenador.Por qué se rompe la memoria.Tipos de sockets y slots para procesadores.Averia del disco duro.Identificar memoria RAM.Consejos para comprar un escáner.Que fuente de alimentación comprar.Refrigeración del ordenador. Tipos de slot para tarjetas gráficas.Qué debemos tener en cuenta para comprar un monitor.

Page 253: Curso de arquitectura

Comprar Ordenador portatil o de sobremesaPuertos de comunicación del PC.Qué debemos tener en cuenta para comprar una impresora.¿Qué es y para qué sirve un KVM?.¿Que medio de almacenamiento es mejor?.Habilitar los Puertos USB¿Cual es mejor AMD o INTEL?.Instalación de una unidad de CD/DVDColocación del microprocesador.Instalación de una placa baseInstalación y ampliacion de módulos de memoria.El Bus de datosInstalación de un 2º disco duroMontar un disco duro en otra tarjeta para evitar conflictos.Lectoras y regrabadoras de CD y DVDScsi y tipos de RaidGuía de Tarjetas Gráficas (nivel básico)PLACA BASE: COMPONENTES Y FUNCIONES.Que son los condensadores y tipos.Configurar un PCConsejos para alargar la vida útil de la batería de un portátil.Que es el Stand by, como funciona y si se debe de usar.Tipo de medios de almacenamiento de datos.Mantenimiento y limpieza del OrdenadorComo desfragmentar un disco duro.Como imprimir desde el puerto LPT1 (DOS) a uno USB.¿Que es un SAI?.Como Cambiar la Unidad Óptica de un Portátil.Hacer una limpieza y mantenimiento de hardware.Solucionar problemas de arranque del PC.Código de colores para cables de red con conectores RJ45.Evitar y prevenir cuelgues, reinicios y pantallas azules.¿Como configurar la Bios? (Setup)¿Que es el Overclocking?Niveles OSI de ISO y transmisión¿Que es Firewire?.¿Qué es SATA (Serial ATA)?Cambiar de letra una unidad.¿Cómo puedo saber si un dispositivo es compatible con XP?Como funcionan las memorias RAM?Formatear disco duroDispositivos ÓpticosAcelerar volúmenes NTFS prescindiendo de algunas opciones Administrador de discos, cambiar letra a unidadCrear una partición a un disco duro y formatearlo.Construye tu PC.¿Que diferencia existe entre una cable de datos IDE de 40 hilos y otro de 80?.Ahorrar Energía en el PC.Montaje de varias fuentes ATX en un mismo ordenador.Consejos para mejorar la Ventilación de un Ordenador.Todo lo que necesites saber de las tarjetas GraficasGestión de memoria.Conflictos entre dispositivos.¿Que son las peticiones de interrupción (irq)?.Como configurar un Microprocesador.¿Que función desempeña la bateria en una placa base?.Formatear un disquette de 3 1/2" desde Windows.Formatear un disquette desde una ventana de ms-dos.Como limpiar un lector de Cd´s.Reparar un Cd que esté rayado.

Page 254: Curso de arquitectura

Consejos para comprar un Portátil de Ocasión.Tensiones de salida de una fuente de alimentación ATX. ¿EN QUÉ SE DIFERENCIAN UN CD-ROM Y UN DVD-ROM?Funcionamiento de un Disco Duro.Limpiar la unidad CD-RW (por JoSeMi. Fotos de Manuel Ramos)¿Que es un SAI?.Diferencias entre DVD y CDROM.¿Que es una disquetera?Que es la Memoria Ram, tipos y como se instala.El monitor y sus Características.CPU Soft Menú

COMO CREAR PARTICIONES EN WINDOWS XP.

Windows XP, como la gran mayoría de sistemas operativos, no permite modificar las particiones una vez instalado, salvo que recurramos a programas externos del tipo Partition Magic, con los riesgos que esto siempre implica.

Pero lo que si que nos permite es definir las particiones y tamaño de estas durante la instalación. Vamos a ver como podemos hacer esto, partiendo de la base de que estamos instalando en un disco nuevo o que podemos eliminar todo su contenido.

Lo primero que debemos hacer es una planificación de como vamos a querer particionar el disco.

Cuando estamos instalando Windows XP nos pregunta en que partición queremos instalar, mostrándose las particiones existentes o bien el espacio no particionado que tenemos.

En esta misma pantalla se nos ofrece la opción de eliminar las particiones (opción D). Si tenemos particiones creadas procedemos a eliminarlas.

Page 255: Curso de arquitectura

Bien, una vez que tengamos la totalidad del disco disponible y sin particionar, escogemos la opción C, con lo que pasamos a la siguiente pantalla.

En esta nos pregunta el tamaño que queremos para la partición donde se va a instalar Windows. Yo recomiendo un tamaño de entre 40 y 50Gb para Windows XP Profesional.

Page 256: Curso de arquitectura

Una vez creada esta partición continuamos con la instalación de Windows.

Elegida la partición para instalar Windows, nos solicita el tipo de formato que deseamos hacer. En discos que tengamos la seguridad de que están en buen estado es suficiente con la opción de Formatear la partición utilizando el sistema de archivos NTFS (rápido). En el caso de que tengamos dudas es preferible utilizar el otro formateo, que si bien va a tardar bastante más también nos va a localizar los sectores dañados.

Page 257: Curso de arquitectura

Una vez formateada la partición, el instalador de Windows XP continua con la instalación.

Hasta aquí hemos creado la partición principal (C:>) y hemos instalado nuestro XP. Ahora vamos a ver los pasos a seguir para particionar el espacio de disco que se ha quedado libre.

Bien, una vez que tengamos totalmente instalado Windows con todos sus drivers, damos con el botón derecho del ratón en Mi Pc y en el menú que se nos muestra vamos a la opción Administrar.

Page 258: Curso de arquitectura

Dentro de la ventana que se nos muestra nos vamos a Administrar discos y se abre la ventana del Administrador de discos.

Page 259: Curso de arquitectura

Dentro del Administrador de discos podemos ver que tenemos en la parte superior la reseña de las unidades que tenemos creadas y activas. Como podemos ver, en la parte inferior nos aparecen TODAS las unidades, y vemos (señalada en rojo) la parte del disco que aun está sin asignar.

Damos sobre esta parte que aparece cono Sin asignar con el botón secundario del ratón y nos aparece un desplegable. Elegimos la primera opción (Partición nueva...) y pasamos a la siguiente ventana.

Page 260: Curso de arquitectura

En esta ventana nos da a elegir el tipo de partición que queremos. En este caso elegimos una Partición Primaria y damos a Siguiente para ir a la siguiente ventana.

En esta ventana se nos indica el tamaño máximo disponible y se nos da la posibilidad de elegir el tamaño de la partición que queremos hacer. En este caso yo he elegido todo el espacio, pero podemos elegir solo una parte y repetir el proceso para crear otra partición.

Damos a Siguiente y pasamos a la siguiente ventana.

Page 261: Curso de arquitectura

Bien, en esta ventana nos da la opción de asignarle una letra a esta unidad. Le podemos asignar la letra que queramos, siempre que esta aparezca en el desplegable.

Damos a Siguiente y pasamos a la siguiente ventana.

En esta ventana procedemos a formatear la partición. En particiones pequeñas (de menos de 40Gb) nos va a dar la posibilidad de formatear en FAT32 o en NTFS. También podemos elegir el formateo rápido, así como asignarle un nombre de volumen.

Elegimos las opciones que deseemos y damos a Siguiente y pasamos a la siguiente ventana.

Page 262: Curso de arquitectura

En esta nueva (y última) ventana se nos muestra toda la información sobre las diferentes opciones que hemos elegido.

Si no estamos de acuerdo con alguna podemos ir dando al botón Atrás hasta llegar a la ventana donde se encuentra la opción que queremos modificar o bien dar al botón Cancelar y empezar de nuevo.

Si estamos de acuerdo con las opciones marcadas, damos al botón Terminar, el sistema realiza las operaciones necesarias y se termina el proceso.

En esta vista del Administrador de discos podemos ver como ha quedado nuestro sistema.

Vemos ya en la parte superior las dos particiones que hemos creado y en la inferior vemos el esquema, ya con ambas particiones correctas, por lo que ya podemos acceder a ellas desde el Explorador de Windows.

Page 263: Curso de arquitectura

Ya tenemos nuestro PC listo para trabajar, particionado a nuestro gusto.