52
Ventajas y desventajas de una red de computadoras Ventajas: Permiten compartir el hardware: periféricos (impresoras, escáneres, módems, etc.), dispositivos de almacenamiento, la CPU incrementándose la capacidad de procesamiento. En una oficina con cinco computadoras no sería necesario tener cinco impresoras láser, por lo que también se reducen costos. Permiten compartir programas de aplicación y datos: de esta manera la información está centralizada, siendo el sistema mucho más rápido y eficiente, la información se mantiene actualizada para todos los usuarios que acceden a ella. En un supermercado se comparte la información relacionada con los precios de los productos, todas las cajeras acceden a una base de datos donde se encuentran los precios de los productos. Si se desea realizar una oferta se modifica solamente la base de datos y al consultar el precio de cualquier caja se accede a la oferta. También se pueden compartir programas como el procesador de texto, planilla de cálculo, etc. No es necesario tener los programas instalados en todas las computadoras. Por lo que también se reducen costos. Permiten que se pueda trabajar en grupo o colaborativamente: Es decir que los usuarios de la red trabajen sobre un mismo documento o en una pizarra en forma simultánea. Esta forma de trabajo se conoce como Groupware, y se necesita software especial para este propósito. Se utiliza principalmente en entornos virtuales.

Libro Electronico de Redes de Computadoras

  • Upload
    andres

  • View
    224

  • Download
    2

Embed Size (px)

DESCRIPTION

fomentar la mayor informacion al usuario

Citation preview

Ventajas y desventajas de una red de computadoras

Ventajas:

Permiten compartir el hardware: periféricos (impresoras, escáneres,

módems, etc.), dispositivos de almacenamiento, la CPU

incrementándose la capacidad de procesamiento. En una oficina con

cinco computadoras no sería necesario tener cinco impresoras láser,

por lo que también se reducen costos.

Permiten compartir programas de aplicación y datos: de esta manera

la información está centralizada, siendo el sistema mucho más rápido

y eficiente, la información se mantiene actualizada para todos los

usuarios que acceden a ella.

En un supermercado se comparte la información relacionada con los

precios de los productos, todas las cajeras acceden a una base de

datos donde se encuentran los precios de los productos. Si se desea

realizar una oferta se modifica solamente la base de datos y al

consultar el precio de cualquier caja se accede a la oferta.

También se pueden compartir programas como el procesador de

texto, planilla de cálculo, etc. No es necesario tener los programas

instalados en todas las computadoras. Por lo que también se reducen

costos.

Permiten que se pueda trabajar en grupo o colaborativamente: Es

decir que los usuarios de la red trabajen sobre un mismo documento

o en una pizarra en forma simultánea.

Esta forma de trabajo se conoce como Groupware, y se necesita

software especial para este propósito.

Se utiliza principalmente en entornos virtuales.

Desventajas:

Las principales desventajas tienen que ver con cuestiones éticas, si bien

están asociadas con dos aspectos:

1. La privacidad de la información: es todo lo relativo al uso que se le da,

o se hace, de la información que se tiene de los usuarios o clientes.

Desde la venta a otras empresas, la instalación de programas espías,

banners de publicidad, hasta el envió de publicidad no deseada a través

del correo electrónico.

2. La seguridad de la información: tiene que ver con el acceso no

autorizado. Puede ser física, en el caso de querer ingresar a las

instalaciones del centro de cómputos, o lógica en el caso del software,

al querer ingresar en el sistema violando nombre de usuario y

contraseña. Otra forma de atacar la seguridad de la red es a través de

virus.

Computadora

Computadora personal, vista del hardware típico.

1: Monitor

2: Placa principal

3: Microprocesador o CPU

4: Puertos IDE

5: Memoria RAM

6: Placas de expansión

7: Fuente de alimentación

8: Unidad de disco óptico

9: Unidad de disco duro, Unidad de estado sólido

10: Teclado

11: Ratón

Computadora de Escritorio.

Fuente de alimentación.

La computadora (del inglés: computar; y este del latín: computare,

'calcular'), también denominada computador u ordenador (del

francés: ordinateur; y este del latín: ordenador), es una máquina

electrónica que recibe y procesa datos para convertirlos en información

conveniente y útil. Una computadora está formada, físicamente, por

numerosos circuitos integrados y otros muchos componentes de apoyo,

extensión y accesorios, que en conjunto pueden ejecutar tareas diversas

con suma rapidez y bajo el control de un programa.

Dos partes esenciales la constituyen, el hardware, que es su

composición física (circuitos electrónicos, cables, gabinete, teclado,

etcétera) y su software, siendo ésta la parte intangible (programas,

datos, información, etcétera). Una no funciona sin la otra.

Desde el punto de vista funcional es una máquina que posee, al menos,

una unidad central de procesamiento, una memoria principal y algún

periférico o dispositivo de entrada y otro de salida. Los dispositivos de

entrada permiten el ingreso de datos, la CPU se encarga de su

procesamiento (operaciones aritmético-lógicas) y los dispositivos de

salida los comunican a otros medios. Es así, que la computadora recibe

datos, los procesa y emite la información resultante, la que luego puede

ser interpretada, almacenada, transmitida a otra máquina o dispositivo

o sencillamente impresa; todo ello a criterio de un operador o usuario y

bajo el control de un programa.

El hecho de que sea programable, le posibilita realizar una gran

diversidad de tareas, esto la convierte en una máquina de propósitos

generales (a diferencia, por ejemplo, de una calculadora cuyo único

propósito es calcular limitadamente). Es así que, en base a datos de

entrada, puede realizar operaciones y resolución de problemas en las

más diversas áreas del quehacer humano (administrativas, científicas,

de diseño, ingeniería, medicina, comunicaciones, música, etc), incluso

muchas cuestiones que directamente no serían resolubles o posibles sin

su intervención.

Básicamente, la capacidad de una computadora depende de sus

componentes hardware, en tanto que la diversidad de tareas radica

mayormente en el software que admita ejecutar y contenga instalado.

Si bien esta máquina puede ser de dos tipos diferentes, analógica o

digital, el primer tipo es usado para pocos y muy específicos

propósitos; la más difundida, utilizada y conocida es la computadora

digital (de propósitos generales); de tal modo que en términos

generales (incluso populares), cuando se habla de "la computadora" se

está refiriendo a computadora digital. Las hay de arquitectura mixta,

llamadas computadoras híbridas, siendo también éstas de propósitos

especiales.

En la Segunda Guerra mundial se utilizaron computadoras analógicas

mecánicas, orientadas a aplicaciones militares, y durante la misma se

desarrolló la primera computadora digital, que se llamó ENIAC; ella

ocupaba un enorme espacio y consumía grandes cantidades de energía,

que equivalen al consumo de cientos de computadores actuales

(PC’s).1 Los computadores modernos están basados en circuitos

integrados, miles de millones de veces más veloces que las primeras

máquinas, y ocupan una pequeña fracción de su espacio. 2

Computadoras simples son lo suficientemente pequeñas para residir en

los dispositivos móviles. Las computadoras portátiles, tales como

tabletas, notebooks, notebooks, ultrabooks, pueden ser alimentadas por

pequeñas baterías. Computadoras personales en sus diversas formas

son iconos de la Era de la información y son lo que la mayoría de la

gente considera como "computadoras". Sin embargo, los

computadores integrados se encuentran en muchos dispositivos

actuales, tales como reproductores MP4; teléfonos celulares; aviones

de combate, y, desde juguetes hasta robot industriales.

Componentes

Artículo principal: Arquitectura de computadoras

Las tecnologías utilizadas en computadoras digitales han evolucionado

mucho desde la aparición de los primeros modelos en los años 1940,

aunque la mayoría todavía utiliza la Arquitectura de von Neumann,

publicada por John von Neumann a principios de esa década, que otros

autores atribuyen a John Presper Eckert y John William Mauchly.

La arquitectura de Von Neumann describe una computadora con cuatro (4)

secciones principales: la unidad aritmético lógica, la unidad de control, la

memoria primaria, principal o central, y los dispositivos de entrada y salida

(E/S). Estas partes están interconectadas por canales de conductores

denominados buses.

Unidad central de procesamiento

Artículo principal: Unidad central de procesamiento

La unidad central de procesamiento (CPU, por sus siglas del inglés:

Central Processing Unit) consta de manera básica de los siguientes tres

elementos:

Un típico símbolo esquemático para una ALU: A y B son operandos; R es

la salida; F es la entrada de la unidad de control; D es un estado de la

salida.

La unidad aritmético lógica (ALU, por sus siglas del inglés:

Arithmetic-Logic Unit) es el dispositivo diseñado y construido para

llevar a cabo las operaciones elementales como las operaciones

aritméticas (suma, resta, ...), operaciones lógicas (Y, O, NO), y

operaciones de comparación o relacionales. En esta unidad es en

donde se hace todo el trabajo computacional.

La unidad de control (UC) sigue la dirección de las posiciones en

memoria que contienen la instrucción que el computador va a

realizar en ese momento; recupera la información poniéndola en la

ALU para la operación que debe desarrollar. Transfiere luego el

resultado a ubicaciones apropiadas en la memoria. Una vez que

ocurre lo anterior, la unidad de control va a la siguiente instrucción

(normalmente situada en la siguiente posición, a menos que la

instrucción sea una instrucción de salto, informando al ordenador de

que la próxima instrucción estará ubicada en otra posición de la

memoria).

Los registros: de datos, de memoria, registros constantes, de coma

flotante, de propósito general, de propósito específico.

Los procesadores pueden constar de además de las anteriormente citadas,

de otras unidades adicionales como la unidad de coma flotante.

Memoria primaria

Véanse también: Jerarquía de memoria, Memoria principal, Memoria

(Informática) y RAM.

La memoria principal (MP), conocida como memoria de acceso aleatorio

(RAM, por sus siglas del inglés: Random-Access Memory), es una

secuencia de celdas de almacenamiento numeradas, donde cada una es un

bit o unidad de información. La instrucción es la información necesaria

para realizar lo que se desea con el computador. Las «celdas» contienen

datos que se necesitan para llevar a cabo las instrucciones, con el

computador. El número de celdas varían mucho de computador a

computador, y las tecnologías empleadas para la memoria han cambiado

bastante; van desde los relés electromecánicos, tubos llenos de mercurio en

los que se formaban los pulsos acústicos, matrices de imanes permanentes,

transistores individuales a circuitos integrados con millones de celdas en un

solo chip se subdividen en memoria estática (SRAM) con seis transistores

por bit y la mucho más utilizada memoria dinámica (DRAM) un transistor

y un condensador por bit. En general, la memoria puede ser reescrita varios

millones de veces (memoria RAM); se parece más a una pizarra que a una

lápida (memoria ROM) que sólo puede ser escrita una vez.

Periféricos de Entrada, de Salida o de Entrada/Salida

Véanse también: Periférico (informática), Periférico de entrada y

Periférico de Entrada/Salida.

Los dispositivos de Entrada/Salida (E/S) sirven a la computadora para

obtener información del mundo exterior y/o comunicar los resultados

generados por el computador al exterior. Hay una gama muy extensa de

dispositivos E/S como teclados, monitores, unidades de disco flexible o

cámaras web.

Buses

Las tres unidades básicas en una computadora: la CPU, la MP y el

subsistema de E/S, están comunicadas entre sí por buses o canales de

comunicación:

Bus de direcciones, para seleccionar la dirección del dato o del

periférico al que se quiere acceder,

Bus de control, básicamente para seleccionar la operación a realizar

sobre el dato (principalmente lectura, escritura o modificación) y

Bus de datos, por donde circulan los datos.

Otros conceptos

En la actualidad se puede tener la impresión de que los computadores están

ejecutando varios programas al mismo tiempo. Esto se conoce como

multitarea, y es más común que se utilice el segundo término. En realidad,

la CPU ejecuta instrucciones de un programa y después tras un breve

periodo de tiempo, cambian a un segundo programa y ejecuta algunas de

sus instrucciones. Esto crea la ilusión de que se están ejecutando varios

programas simultáneamente, repartiendo el tiempo de la CPU entre los

programas. Esto es similar a la película que está formada por una sucesión

rápida de fotogramas. El sistema operativo es el programa que

generalmente controla el reparto del tiempo. El procesamiento simultáneo

viene con computadoras de más de un CPU, lo que da origen al

multiprocesamiento.

El sistema operativo es una especie de caja de herramientas lleno de

utilerías que sirve para decidir, por ejemplo, qué programas se ejecutan, y

cuándo, y qué fuentes (memoria o dispositivos E/S) se utilizan. El sistema

operativo tiene otras funciones que ofrecer a otros programas, como los

códigos que sirven a los programadores, escribir programas para una

máquina sin necesidad de conocer los detalles internos de todos los

dispositivos electrónicos conectados.

En la actualidad se están empezando a incluir en las distribuciones donde

se incluye el sistema operativo, algunos programas muy usados, debido a

que es ésta una manera económica de distribuirlos. No es extraño que un

sistema operativo incluya navegadores de Internet, procesadores de texto,

programas de correo electrónico, interfaces de red, reproductores de

películas y otros programas que antes se tenían que conseguir e instalar

separadamente.

Los primeros computadores digitales, de gran tamaño y coste, se utilizaban

principalmente para hacer cálculos científicos. ENIAC, uno de los primeros

computadores, calculaba densidades de neutrón transversales para ver si

explotaría la bomba de hidrógeno. El CSIR Mk I, el primer ordenador

australiano, evaluó patrones de precipitaciones para un gran proyecto de

generación hidroeléctrica. Los primeros visionarios vaticinaron que la

programación permitiría jugar al ajedrez, ver películas y otros usos.

La gente que trabajaba para los gobiernos y las grandes empresas también

usó los computadores para automatizar muchas de las tareas de recolección

y procesamiento de datos, que antes eran hechas por humanos; por ejemplo,

mantener y actualizar la contabilidad y los inventarios. En el mundo

académico, los científicos de todos los campos empezaron a utilizar los

computadores para hacer sus propios análisis. El descenso continuo de los

precios de los computadores permitió su uso por empresas cada vez más

pequeñas. Las empresas, las organizaciones y los gobiernos empezaron a

emplear un gran número de pequeños computadores para realizar tareas que

antes eran hechas por computadores centrales grandes y costosos. La

reunión de varios pequeños computadores en un solo lugar se llamaba torre

de servidores[cita requerida]

.

Con la invención del microprocesador en 1970, fue posible fabricar

computadores muy baratos. Nacen los computadores personales (PC), los

que se hicieron famosos para llevar a cabo diferentes tareas como guardar

libros, escribir e imprimir documentos, calcular probabilidades y otras

tareas matemáticas repetitivas con hojas de cálculo, comunicarse mediante

correo electrónico e Internet. Sin embargo, la gran disponibilidad de

computadores y su fácil adaptación a las necesidades de cada persona, han

hecho que se utilicen para varios propósitos.

Al mismo tiempo, los pequeños computadores son casi siempre con una

programación fija, empezaron a hacerse camino entre las aplicaciones del

hogar, los coches, los aviones y la maquinaria industrial. Estos

procesadores integrados controlaban el comportamiento de los aparatos

más fácilmente, permitiendo el desarrollo de funciones de control más

complejas como los sistemas de freno antibloqueo en los coches. A

principios del siglo XXI, la mayoría de los aparatos eléctricos, casi todos

los tipos de transporte eléctrico y la mayoría de las líneas de producción de

las fábricas funcionan con un computador. La mayoría de los ingenieros

piensa que esta tendencia va a continuar.

Actualmente, los computadores personales son usados tanto para la

investigación como para el entretenimiento (videojuegos), pero los grandes

computadores aún sirven para cálculos matemáticos complejos y para otros

usos de la ciencia, tecnología, astronomía, medicina, etc.

Tal vez el más interesante "descendiente" del cruce entre el concepto de la

PC o computadora personal y los llamados supercomputadores sea la

Workstation o estación de trabajo. Este término, originalmente utilizado

para equipos y máquinas de registro, grabación y tratamiento digital de

sonido, y ahora utilizado precisamente en referencia a estaciones de trabajo

(traducido literalmente del inglés), se usa para dar nombre a equipos que,

debido sobre todo a su utilidad dedicada especialmente a labores de cálculo

científico, eficiencia contra reloj y accesibilidad del usuario bajo programas

y software profesional y especial, permiten desempeñar trabajos de gran

cantidad de cálculos y "fuerza" operativa. Una Workstation es, en esencia,

un equipo orientado a trabajos personales, con capacidad elevada de

cálculo y rendimiento superior a los equipos PC convencionales, que aún

tienen componentes de elevado coste, debido a su diseño orientado en

cuanto a la elección y conjunción sinérgica de sus componentes. En estos

casos, el software es el fundamento del diseño del equipo, el que reclama,

junto con las exigencias del usuario, el diseño final de la Workstation.

Etimología de la palabra ordenador

PC con interfaz táctil.

La palabra española ordenador proviene del término francés ordinateur, en

referencia a Dios que pone orden en el mundo ("Dieu qui met de l'ordre

dans le monde").3 En parte por cuestiones de marketing, puesto que la

descripción realizada por IBM para su introducción en Francia en 1954

situaba las capacidades de actuación de la máquina cerca de la

omnipotencia, idea equivocada que perdura hoy en día al considerar que la

máquina universal de Turing es capaz de computar absolutamente todo.4 En

1984, académicos franceses reconocieron, en el debate Les jeunes, la

technique et nous, que el uso de este sustantivo es incorrecto, porque la

función de un computador es procesar datos, no dar órdenes.5 Mientras que

otros, como el catedrático de filología latina Jacques Perret, conocedores

del origen religioso del término, lo consideran más correcto que las

alternativas.3

El uso de la palabra ordinateur se ha exportado a los idiomas de España: el

aragonés, el asturiano, el gallego, el castellano, el catalán y el euskera. El

español que se habla en Iberoamérica, así como los demás idiomas

europeos, como el portugués, el alemán y el neerlandés, utilizan términos

derivados de computare.

Véase también

Portal:Informática. Contenido relacionado con Informática.

Hardware

Software

Firmware

Historia

Anexo:Historia de la computación

Historia del hardware

Historia del hardware de computadora (1960-presente)

Historia de las computadoras personales

Tipos de computadoras

Computadora analógica

Computadora híbrida

Supercomputadora

Computadora central

Minicomputadora

Microcomputadora

Computadora de escritorio

Computadora personal

Computadora doméstica

Multiseat

Computadora portátil

Tableta (computadora)

Subportátil

PC Ultra Móvil

PDA

Teléfono inteligente

Tabléfono

Cliente (informática)

Cliente liviano

Cliente pesado

Cliente híbrido

Sistema embebido

Componentes y periféricos

Placa base

Unidad central de procesamiento

Microprocesador

BIOS

Memoria de acceso aleatorio

Memoria de solo lectura

Memoria flash

Bus (informática)

Entrada/salida

Fuente eléctrica

Fuente de alimentación

Teclado

Ratón (informática)

Touchpad

Lápiz óptico

Pantalla táctil

Tableta digitalizadora

Monitor

Impresora

Tarjeta de sonido

Tarjeta gráfica

Unidad de procesamiento gráfico

Disco duro

Disquete

CD-ROM

DVD

Otros

Caja de computadora

Puerto serie

Puerto paralelo

PS/2 (puerto)

Universal Serial Bus

IEEE 1394

Tarjeta de red

Peripheral Component Interconnect

Hardware

Software

Programa informático

Aplicación informática

Sistema operativo

Sistema de archivos

Internet

Virtualización

World Wide Web

Referencias

1.

En 1946, ENIAC requería alrededor de 174 kW. En comparación, una

laptop moderna consume alrededor de 30 W; cerca de seis mil veces

menos. «Approximate Desktop & Notebook Power Usage». University of

Pennsylvania. Consultado el 29 de julio de 2014.

Las primeras computadoras tales como Colossus y ENIAC eran

capaces de procesar entre 5 y 100 operaciones por segundo. Un moderno

microprocesador puede procesar miles de millones de operaciones por

segundo, y muchas de estas operaciones son bastante más complejas que en

sus predecesoras. «Intel Core I7 Processor: Features». Intel Corporation.

Consultado el 29 de julio de 2014.

Etimología de la palabra ordenador (en francés).

Ben-Amram, Amir M. (2005). «The Church-Turing thesis and its

look-alikes». SIGACT News 36 (3): 113–114.

doi:10.1145/1086649.1086651. Consultado el 08-11-2009.

5. El uso de la palabra ordenador. El Mundo.es.

Enlaces externos

Wikimedia Commons alberga contenido multimedia sobre

Computadora.

Wikcionario tiene definiciones y otra información sobre

computador.

Wikiquote alberga frases célebres de o sobre Computadora.

Wikilibro de Montaje y Mantenimiento de Equipos Informáticos.

El Diccionario de la Real Academia Española tiene una definición

para computador.

Información sobre qué es una computadora, en monografías.com

Partes de la computadora

1. Unidad central de proceso o CPU

2. Memoria RAM

3. El teclado

4. Monitor

5. Tipos de conexión

6. Valoración del rendimiento de un microprocesador

7. Conclusiones

8. Estructura interna de un disco duro

9. Qué es Internet?

Unidad central de proceso o CPU

(conocida por sus siglas en inglés, CPU), circuito microscópico que

interpreta y ejecuta instrucciones. La CPU se ocupa del control y el proceso

de datos en las computadoras. Generalmente, la CPU es un

microprocesador fabricado en un chip, un único trozo de silicio que

contiene millones de componentes electrónicos. El microprocesador de la

CPU está formado por una unidad aritmético-lógica que realiza cálculos y

comparaciones, y toma decisiones lógicas (determina si una afirmación es

cierta o falsa mediante las reglas del álgebra de Boole); por una serie de

registros donde se almacena información temporalmente, y por una unidad

de control que interpreta y ejecuta las instrucciones. Para aceptar órdenes

del usuario, acceder a los datos y presentar los resultados, la CPU se

comunica a través de un conjunto de circuitos o conexiones llamado bus. El

bus conecta la CPU a los dispositivos de almacenamiento (por ejemplo, un

disco duro), los dispositivos de entrada (por ejemplo, un teclado o un

mouse) y los dispositivos de salida (por ejemplo, un monitor o una

impresora).

Funcionamiento de la CPU Cuando se ejecuta un programa, el registro de la CPU, llamado contador de

programa, lleva la cuenta de la siguiente instrucción, para garantizar que las

instrucciones se ejecuten en la secuencia adecuada. La unidad de control de

la CPU coordina y temporiza las funciones de la CPU, tras lo cual recupera

la siguiente instrucción desde la memoria. En una secuencia típica, la CPU

localiza la instrucción en el dispositivo de almacenamiento

correspondiente.

La instrucción viaja por el bus desde la memoria hasta la CPU, donde se

almacena en el registro de instrucción. Entretanto, el contador de programa

se incrementa en uno para prepararse para la siguiente instrucción. A

continuación, la instrucción actual es analizada por un descodificador, que

determina lo que hará la instrucción. Cualquier dato requerido por la

instrucción es recuperado desde el dispositivo de almacenamiento

correspondiente y se almacena en el registro de datos de la CPU. A

continuación, la CPU ejecuta la instrucción, y los resultados se almacenan

en otro registro o se copian en una dirección de memoria determinada.

Memoria RAM

La memoria principal o RAM, abreviatura del inglés Randon Access

Memory, es el dispositivo donde se almacenan temporalmente tanto los

datos como los programas que la CPU está procesando o va a procesar en

un determinado momento. Por su función, es una amiga inseparable del

microprocesador, con el cual se comunica a través de los buses de datos.

Por ejemplo, cuando la CPU tiene que ejecutar un programa, primero lo

coloca en la memoria y recién y recién después lo empieza a ejecutar. lo

mismo ocurre cuando necesita procesar una serie de datos; antes de poder

procesarlos los tiene que llevar a la memoria principal.

Esta clase de memoria es volátil, es decir que, cuando se corta la energía

eléctrica, se borra toda la información que estuviera almacenada en ella.

por su función, la cantidad de memoria RAM de que disponga una

computadora es una factor muy importante; hay programas y juegos que

requieren una gran cantidad de memoria para poder usarlos. otros andarán

más rápido si el sistema cuenta con más memoria RAM.

La memoria Caché

dentro de la memoria RAM existe una clase de memoria denominada

Memoria Caché que tiene la característica de ser más rápida que las otras,

permitiendo que el intercambio de información entre el procesador y la

memoria principal sea a mayor velocidad.

Memoria de sólo lectura o ROM

Su nombre vienen del inglés Read Only Memory que significa Memoria de

Solo Lectura ya que la información que contiene puede ser leída pero no

modificada. En ella se encuentra toda la información que el sistema

necesita para poder funcionar correctamente ya que los fabricantes guardan

allí las instrucciones de arranque y el funcionamiento coordinado de la

computadora. no son volátiles, pero se pueden deteriorar a causa de campos

magnéticos demasiados potentes.

Al encender nuestra computadora automáticamente comienza a funcionar la

memoria ROM. por supuesto, aunque se apague, esta memoria no se borra.

El BIOS de una PC (Basic Input Operative System) es una memoria ROM,

pero con la facultad de configurarse según las características particulares de

cada máquina. esta configuración se guarda en la zona de memoria RAM

que posee este BIOS y se mantiene sin borrar cuando se apaga la PC

gracias a una pila que hay en la placa principal.

Cuando la pila se agota se borra la configuración provocando, en algunos

equipos, que la máquina no arranque.

Algunas PC tienen la pila soldada a la placa principal por lo que el

cambio de la misma lo debe realizar personal técnico, ya que sino se

corre el riesgo de arruinar otros componentes.

Su Memoria basada en semiconductores que contiene instrucciones o

datos que se pueden leer pero no modificar. En las computadoras IBM

PC y compatibles, las memorias ROM suelen contener el software

necesario para el funcionamiento del sistema. Para crear un chip

ROM, el diseñador facilita a un fabricante de semiconductores la

información o las instrucciones que se van a almacenar.

El fabricante produce entonces uno o más chips que contienen esas

instrucciones o datos. Como crear chips ROM implica un proceso de

fabricación, esta creación es viable económicamente sólo si se producen

grandes cantidades de chips. Los diseños experimentales o los pequeños

volúmenes son más asequibles usando PROM o EPROM. El término ROM

se suele referir a cualquier dispositivo de sólo lectura, incluyendo PROM y

EPROM.

El teclado nos permite comunicarnos con la computadora e ingresar la

información. Es fundamental para utilizar cualquier aplicación. El

teclado más común tiene 102 teclas, agrupadas en cuatro bloques:

teclado alfanumérico, teclado numérico, teclas de función y teclas de

control.

Se utiliza como una máquina de escribir, presionando sobre la tecla

que queremos ingresar.

Algunas teclas tienen una función predeterminada que es siempre la

misma, pero hay otras teclas cuya función cambia según el programa

que estemos usando

Por ejemplo: Un teclado de ordenador de 101/102 teclas lanzado por

IBM mediada la vida del PC/AT de esta compañía. Este diseño se ha

mantenido como teclado estándar de la línea PS/2, y se ha convertido

en la norma de producción de la mayoría de los teclados de los equipos

compatibles con IBM. El teclado extendido difiere de sus predecesores

por tener doce teclas de función en la parte superior, en lugar de diez a

la izquierda.

Tiene además teclas Control y Alt adicionales y un conjunto de teclas para

el movimiento del cursor y para edición entre la parte principal del teclado

y el teclado numérico. Otras diferencias incluyen cambios en la posición de

determinadas teclas, como Escape y Control, y modificaciones en las

combinaciones de teclas, como Pausa e Imprimir Pantalla. El teclado

extendido y su homónimo de Apple son similares en configuración y

diseño.

Las partes del teclado El teclado alfanumérico: Es similar al teclado de la máquina de escribir.

tiene todas las teclas del alfabeto, los diez dígitos decimales y los signos de

puntuación y de acentuación.

El teclado numérico: Para que funciones el teclado numérico debe estar

activada la función "Bloquear teclado numérico". Caso contrario, se debe

pulsar la tecla [Bloq Lock] o [Num Lock] para activarlo. Al pulsarla

podemos observar que, en la esquina superior derecha del teclado, se

encenderá la lucecita con el indicador [Bloq Num] o [Num Lock].

Se parece al teclado de una calculadora y sirve para ingresar rápidamente

los datos numéricos y las operaciones matemáticas más comunes: suma,

resta, multiplicación y división.

Las teclas de Función Estas teclas, de F1 a F12, sirven como "atajos" para acceder más

rápidamente a determinadas funciones que le asignan los distintos

programas. en general, la tecla F1 está asociada a la ayuda que ofrecen los

distintos programas, es decir que, pulsándola, se abre la pantalla de ayuda

del programa que se esté usando en este momento.

Las teclas de Control Si estamos utilizando un procesador de texto, sirve para terminar un párrafo

y pasar a un nuevo renglón. Si estamos ingresando datos, normalmente se

usa para confirmar el dato que acabamos de ingresar y pasar al siguiente.

Estas teclas sirven para mover el cursor según la dirección que indica cada

flecha.

Sirve para retroceder el cursor hacia la izquierda, borrando

simultáneamente los caracteres.

Si estamos escribiendo en minúscula, al presionar esta tecla

simultáneamente con una letra, esta última quedará en mayúscula, y

viceversa, si estamos escribiendo en mayúscula la letra quedará minúscula.

Es la tecla de tabulación. En un procesador de texto sirve para alinear

verticalmente tanto texto como números.

Esta tecla te permite insertar un carácter de manera que todo lo que

escribamos a continuación se irá intercalando entre lo que ya tenemos

escrito.

Fija el teclado alfabético en mayúscula. al pulsarla podemos podemos

observar que, en la esquina superior del teclado, se encenderá la lucecita

con el indicador [Blog Mayús] o [Caps Lock]. Mientras es teclado de

encuentra fijado en mayúscula, al pulsar la tecla de una letra se pondrá

automáticamente en mayúscula. para desactivarla basta con volverla a

pulsar.

La tecla alternar, al igual que la tecla control, se usa para hacer

combinaciones y lograr así ejecutar distintas acciones según el programa

que estemos usando.

En un procesador de texto sirve para borrar el carácter ubicado a la derecha

del cursor.

La tecla de control se usa en combinación con otras teclas para activar

distintas opciones según el programa que se esté utilizando.

Tanto el teclado como el ratón del ordenador nos permiten introducir datos

o información en el sistema. De poco nos sirven si no tenemos algún

dispositivo con el que comprobar que esa información que estamos

suministrando es correcta. Los monitores muestran tanto la información

que aportamos, como la que el ordenador nos comunica. Desde los

primeros que aparecieron con el fósforo verde, la tecnología ha

evolucionado junto con la fabricación de nuevas tarjetas gráficas. Ahora no

se concibe un ordenador sin un monitor en color. Ahora la "guerra" está en

el tamaño y en la resolución que sean capaces de mostrar.

Monitor

La tecnología en la fabricación de monitores es muy compleja y no es

propósito ahora de profundizar en estos aspectos. Sí los vamos a tratar

superficialmente para que sepáis cuáles son los parámetros que más os van

a interesar a la hora de elegir vuestro monitor. Estos parámetros son los

siguientes:

Tamaño

Son las dimensiones de la diagonal de la pantalla que se mide en pulgadas.

Podemos tener monitores de 9, 14, 15, 17, 19, 20 y 21 ó más pulgadas. Los

más habituales son los de 15 pulgadas aunque cada vez son más los que

apuestan por los de 17 pulgadas, que pronto pasarán a ser el estándar. Los

de 14 pulgadas se usan cada vez menos. Todo esto se debe a que que las

tarjetas gráficas que se montan ahora soportan fácilmente resoluciones de

hasta 1600x1280 pixels

Resolución

Un pixel es la unidad mínima de información gráfica que se puede mostrar

en pantalla. Cuantos más pixels pueda mostrar el monitor de más

resolución dispondremos. Traducido a lenguaje "de la calle" quiere decir

que más elementos nos cabrán en ella. Es igual que si vivimos en un

estudio de 25 m2 y nos mudamos ¡Oh fortunal a una casa de 300 m2.

Nosotros somos los mismos, sólo que disponemos de más espacio. Si

trabajas con Windows la resolución ampliada es fundamental, puedes tener

mas iconos en pantalla, puedes tener abiertas varias aplicaciones y verlas a

la vez, sin tener que maximizar cada una cuando cambies a ellas, etc.

La resolución está íntimamente relacionada con las dimensiones del

monitor, pero no podemos guiarnos fiablemente por esto. Por ejemplo, hay

algún monitor de 15 pulgadas que alcanza resoluciones de hasta 1600 x

1280, pero las dimensiones físicas de la pantalla hacen que todo se vea muy

reducido, siendo un engorro y además pagamos por unas características que

nunca utilizaremos. Para estas resoluciones ampliadas le recomendamos:

un monitor de 15 pulgadas para 1024 x 768, y uno de 17 o 20 pulgadas para

1280 x 1024 pixels.

Entrelazado

Es una técnica que permite al monitor alcanzar mayores resoluciones

refrescando el contenido de la pantalla en dlls barridos, en lugar de uno. Lo

malo de esta técnica es que produce un efecto de parpadeo muy molesto,

debido a que el tiempo de refresco no es lo suficientemente pequeño como

para mantener el fósforo activo entre las dos pasadas. Procure que su

monitor sea no-entrelazado.

Frecuencia de barrido vertical

El rayo de electrones debe recorrer toda la superficie de la pantalla

empezando por la esquina superior izquierda, y barriéndola de izquierda a

derecha y de arriba abajo. La frecuencia de refresco, medida en Hertzios, es

el número de veces que el cañón de electrones barre la pantalla por

segundo. ¿Por qué es tan importante este valor? Pues porque si es una

frecuencia baja, se hará visible el recorrido del haz de electrones, en forma

de un molesto parpadeo de la pantalla. El mínimo debe ser de 70 Hz, pero

un buen monitor debe ser capaz de alcanzar frecuencias superior. Cuanto

mayor sea el valor de este parámetro mejor, ya que permitirá mayores

resoluciones sin necesidad de entrelazar. La imagen será más nítida y

estable.

Tamaño del punto (Dot Pltch)

Un punto del monitor es la unidad mínima física que puede mostrarse en la

pantalla. Dependiendo de la resolución lógica que utilicemos se adaptará la

salida para que un pixel ajuste perfectamente con una o un conjunto de

estas celdillas físicas de pantalla. Si un monitor tiene las celdillas muy

pequeñas, menor será el tamaño del pixel lógico, con lo cual las

resoluciones altas serán más precisas en la calidad de la imagen. Un tamaño

muy bueno del punto es de 0.25 mientras que uno de 0.28 o superior

muestran resultados deficientes en resoluciones mayores a 800 x 600

pixels.

Existen otros parámetros interesantes, como por ejemplo la posibilidad de

almacenar configuraciones en la memoria del monitor, que sea de

exploración digital controlada por un microprocesador, la posibilidad de

desmagnetizar el tubo (degauss), de ajustar las dimensiones de la imagen,

control de color, brillo y contraste, ahorro de energía, baja radiación, etc.

Existe una gran variedad de monitores en el mercado entre ellos están los

Sony, Hitachi, Samsung, Philips Brilliance, Eizo, Nanao, Toshiba,

Proview, etc.

Lo que sí debe quedar claro es que si queréis resoluciones de 1024 x 768

optad por uno de 15 pulgadas y mirad muy bien las especificaciones del

entrelazado y tamaño del punto (sobre todo).

Filtros para el monitor

Si el monitor es importante para poder ver qué hacemos y lo que nos dice el

sistema, más importante son nuestros ojos y nuestra salud. Está demostrado

científicamente, y en la práctica, que trabajar ante un monitor produce

cansancio, picor e irritación de ojos, vista cansada, dolor de cabeza y visión

borrosa. El filtro es un elemento imprescindible, y hasta tal punto que es

obligatorio en todos los centros de trabajo. El monitor emite una serie de

radiaciones y acumula en la pantalla electricidad estática, causantes de

estos síntomas. Los filtros de pantalla se encargan de reducir estos efectos

de las radiaciones y de descargar la electricidad estática. Entre las

radiaciones emitidas se encuentran la ultravioleta, la infrarroja, la visible

(luminosidad), y VLF y ELF (generadas por los campos electromagnéticos

que crea el sistema de alimentación). Entre las demás ventajas de instalar

un filtro frente a nosotros destacan la eliminación de los reflejos en la

pantalla, el aumento de la definición de los colores y caracteres y la

reducción de la cantidad de polvo y suciedad que se fija a la pantalla

(principalmente por el humo de tabaco) debido a la electricidad estática.

En el mercado existe una gran cantidad de filtros cuyo precio oscila entre

las 3.000 y 20.000 pesetas. La diferencia se ve sobre todo en el precio,

aunque se justifica en el proceso de fabricación, concretamente en el

tratamiento del cristal. Los mejores están tratados por las dos caras, poseen

filtro ortocromático, un cable para la descarga de la electricidad estática

(generadas sobre todo al encender el monitor) y reducen la radiación

emitida hasta en un 99%.

La alternativa LCD

Últimamente se habla del avance de la tecnología LCD o cristal líquido,

llegando incluso a citarse como posible alternativa de futuro frente al

tradicional CRT. Ventajas como el ahorro de consumo y de espacio (LCD

posibilita la fabricación de pantalla extra-planas, de muy poca

profundidad), así como la prácticamente nula emisión de radiaciones,

aportan un gran interés a este tipo de dispositivos. No obstante, su elevado

costo unido a los continuos avances en la tecnología CRT hacen que, por el

momento, ésta última sea la opción más recomendable. En cualquier caso,

no hay que perder de vista esta alternativa; nunca se sabe...

Es el cerebro del ordenador. Se encarga de realizar todas las operaciones de

cálculo y de controlar lo que pasa en el ordenador recibiendo información y

dando órdenes para que los demás elementos trabajen. Es el jefe del equipo

y, a diferencia de otros jefes, es el que más trabaja. En los equipos actuales

se habla de los procesadores Pentium MMX y Pentium II/III de Intel

además de las alternativas de AMD (familias K6 y K7) y Cyrix (6x86,

MII).

Tipos de conexión El rendimiento que dan los microprocesadores no sólo dependen de ellos

mismos, sino de la placa donde se instalan. Los diferentes micros no se

conectan de igual manera a las placas:

En las placas base más antiguas, el micro iba soldado, de forma que no

podía actualizarse (486 a 50 MHz hacia atrás). Hoy día esto no se ve.

En las de tipo Pentium (Socket 7) normales el microprocesador se instala

en un zócalo especial llamado ZIF (Zero Insertion Force) que permite

insertar y quitar el microprocesador sin necesidad de ejercer alguna presión

sobre él. Al levantar la palanquita que hay al lado se libera el

microprocesador, siendo extremadamente sencilla su extracción. Estos

zócalos aseguran la actualización del microprocesador. Por ejemplo un

zócalo ZIF Socket-3 permite la inserción de un 486 y de un Pentium

Overdrive. Existen 8 tipos de socket, el 8º es el del Pentium Pro.

Y por otro lado, los procesadores Pentium II y Celeron/A de Intel y el

Athlon (K7) de AMD van conectados de una forma similar a una tarjeta

gráfica o de sonido (por ejemplo). En los procesadores de Intel, el lugar

donde se instala es el Slot1 (o Slot2 en las versiones Xeon profesionales) y

en el caso del K7 se instala en el SlotA. En ambos existen unas guías de

plástico que ayudan a que el microprocesador se mantenga en su posición.

Hay que mencionar que algunos procesadores Celeron utilizan la conexión

PPGA o Socket 370, similar en cierto modo al Socket 8, con nulas

capacidades de ampliación y que sólo ofrece como ventaja un pequeño

ahorro en la compra del equipo.

Valoración del rendimiento de un microprocesador El microprocesador es uno de los componentes que hay que prestar más

atención a la hora de actualizarlo, ya que en su velocidad y prestaciones

suele determinar la calidad del resto de elementos. Esta afirmación implica

lo siguiente: por ejemplo, en un Pentium de baja gama es absurdo poner 8

Mb. de RAM y un disco duro de 3 ó 4 Gb; y en un PII de alta gama

también es absurdo poner 32 Mb. de RAM y un disco duro de 2 Gb. Hay

que hacer una valoración de todos los elementos del ordenador,

actualmente en las tiendas suelen venderse digamos "motores de un

mercedes en la carrocería de un 600". Esto tenemos que evitarlo. Además

del microprocesador, la velocidad general del sistema se verá muy

influenciada (tanto o más que por el micro) debido a la placa base, la

cantidad de memoria RAM, la tarjeta gráfica y el tipo de disco duro.

Profundizar sobre estos temas se escapa de esta sección de

microprocesadores, accede a la sección de componente en particular para

más información.

Hoy día, hay que fijarse el propósito de la utilización del ordenador para

elegir el correcto microprocesador. Por ejemplo, si se va a trabajar con los

típicos programas de ofimática (Word, Excel...), un 486 con Windows 95 y

16 Mb. de RAM es más que suficiente, al igual que para navegar por

Internet. Sin embargo, según sean más complejos los programas, más

complejos serán los equipos. Los programas multimedia y enciclopedias,

requieren un procesador Pentium de gama media. A los programas de

retoque fotográfico se les puede poner también un procesador Pentium de

gama media, aunque influirá sobre todo la memoria RAM (harán falta un

mínimo de 128 Mb. para un rendimiento óptimo, según nuestras pruebas).

Y últimamente se está incitando a la adquisición de equipos mejores debido

sobre todo a los últimos juegos 3D, descompresión MPEG-2 por software

para visualizar DVDs (la tarea la realiza el micro conjuntamente con la

tarjeta gráfica)... y a un nivel menos doméstico, la renderización de gráficos

tridimensionales o la ejecución multitarea de servidores de red. Para esto,

nada es suficiente, por ello los micros son cada vez más y más rápidos y

complejos. Aunque si lo que quieres son juegos, mejor decántate por una

aceleradora 3D, ya que se tiene una experiencia mejor en un Pentium a 133

MHz con una Voodoo Graphics que en un Pentium II/K6-2 a 300 MHz sin

aceleradora. Lo ideal, lógicamente, es un PII/K6-2 con una aceleradora

gráfica

Y ya por último, diremos que el disipador + ventilador puede reducir la

temperatura del micro unos 40 grados centígrados y aumentar el

rendimiento un 30%. En los procesadores actuales este componente es

imprescindible para el funcionamiento del microprocesador, que de lo

contrario terminaría quemado.

Conclusiones Como conclusiones, veamos los procesadores que os recomendamos. de

una manera totalmente subjetiva.

Sobre los procesadores de Intel. El Celeron de Intel, alias "Covington", al

carecer de memoria caché L2, va bastante mal, incluso con un rendimiento

a veces inferior al Pentium MMX (el Celeron no es más que una estrategia

de Intel para que el mercado evolucione hacia el Slot 1). Por ello, descarta

el Celeron, ya que, aunque puede ser bueno para algunas tareas, le supera

algunos procesadores de otras marcas en el mismo nivel de precio, como el

K6 o el K6-2 de AMD (procura que no te vendan un ordenador Celeron

con una frase que se está volviendo bastante típica "Todo un Pentium II por

xxx ptas". Un procesador a considerar es el nuevo Celeron "A", alias

"Mendocino", el cual lleva 128 Kb. de caché L2, el cual tiene un

rendimiento prácticamente igual que el Pentium II de sus mismos MHz. Si

duda, este procesador reemplazará tanto a los Celeron como a los Pentium

II de sus mismos MHz (266-333 por ahora). También Intel posee unos

micros Celeron A con otro tipo de conexión, PPGA (similar al socket 8),

que ofrecen un ahorro a la hora de comprar la placa base, pero que

descartaremos sin dudarlo, ya que los micros están al mismo precio y el

socket PPGA ofrece capacidades de ampliación totalmente nulas. Sobre el

Pentium II, muy popular y extendido, es un micro muy interesante. Más

caro que el Mendocino y con rendimientos no muy superiores, ofrece muy

buenos resultados a la hora del trabajo en programas tridimensionales

gracias a la avanzada unidad de cálculo de coma flotante, así como una

buena ejecución de programas en entorno multitarea como Windows NT.

Sin embargo, en tareas más sencillas, como el uso de Windows 95/98 o los

programas de ofimática, se ven claramente superados por los procesadores

de AMD, mucho más económicos, como veremos dentro de poco. Sobre la

última baza de Intel, el Pentium III, en realidad no es más que un Pentium

II con nuevas instrucciones multimedia. Sin estas instrucciones, va

prácticamente igual que su predecesor y bajo ciertas situaciones peor (se ve

compensado por un aumento en los MHz). Los procesadores de Intel hasta

el Pentium III han sido superados de lejos por los micros de AMD,

veremos qué tal van los próximos de Intel: Coppermine (un Pentium III con

bus de 133 MHz, tecnología de 0,18 micras y 256 kb de caché L2 en el

micro a la misma velocidad de reloj). Sin embargo, en caso de querer hacer

una configuración multiprocesador (2 o 4 micros en adelante), sólo puede

hacerse con micros de Intel, ya que los AMD no soportan tales conexiones,

al menos hasta la llegada del Athlon (K7).

Y ya por último comentaremos los micros de AMD. Todo empezó por una

auténtica joya que dio y está dando mucha guerra a Intel: el K6-2 de AMD.

Este procesador incorpora la nueva tecnología 3D Now!, 21 nuevas

instrucciones en el procesador, la cual ha echo a Intel adelantar medio año

el lanzamiento de su procesador "Katmai" (el Pentium III, que no es más

que un Pentium II con MMX2). El K6-2 tiene un bus de 100 MHz, ancho

de transistor de 0,25 micras, soporta AGP y todo el resto de características

que tiene el Pentium II, pero en una plataforma Socket 7 como la del

Pentium II. Y el 3D Now! del K6-2 verdaderamente funciona, por lo menos

el Quake II va bastante más rápido en la versión especial para 3D Now!.

Con el 3D Now!, el rendimiento de un K6-2 a 300 Mhz pasa de igualar en

rendimiento de un Pentium II 300 a casi un Pentium II 400. Más

recientemente, AMD ha lanzado su nuevo K6-3. Más que un K6-2

mejorado, es un procesador totalmente nuevo, con un diseño especial de 3

tipos de memoria caché (L1 y L2 en el micro y L3 en la placa) que ha sido

el primer micro de AMD en superar en prácticamente todos los aspectos a

un Intel y en dejarle atrás, ya que el K6-2 tenía ciertas flaquezas en la

unidad de coma flotante (si el programa que ejecuta no usa 3DNow!) .

Actualmente es el micro más recomendable, de mejor calidad precio,

marcha mucho mejor que un K6-2 y la placa base es relativamente más

económica. Y la última bomba es el Athlon (K7) que aún no está a la venta,

pero que supera y deja muy muy atrás a micros de Intel en todos los

aspectos, incluida la unidad de cálculo de coma flotante.

Estructura interna de un disco duro

Tamaño de clúster y espacio disponible

Un cluster se trata de una agrupación de varios sectores para formar una

unidad de asignación. Normalmente, el tamaño de cluster en la FAT del

DOS o de Windows 95 es de 32 Kb; ¿y qúe? Esto no tendría importancia si

no fuera porque un cluster es la mínima unidad de lectura o escritura, a

nivel lógico, del disco. Es decir, cuando grabamos un archivo, por ejemplo

de 10 Kb, estamos empleando un cluster completo, lo que significa que se

desperdician 22 Kb de ese culster. Imaginaos ahora que grabamos 100

ficheros de 10 Kb; perderíamos 100x22 Kb, más de 2 Megas. Por ello, el

OSR2 de Windows 95 y Windows 98 implementan una nueva FAT, la FAT

32, que subsana esta limitación, además de otros problemas.

Un disco duro se compone de muchos elementos; citaremos los más

importantes de cara a entender su funcionamiento. En primer lugar, la

información se almacena en unos finos platos o discos, generalmente de

aluminio, recubiertos por un material sensible a alteraciones magnéticas.

Estos discos, cuyo número varía según la capacidad de la unidad, se

encuentran agrupados uno sobre otro y atravesados por un eje, y giran

continuamente a gran velocidad.

Asimismo, cada disco posee dos diminutos cabezales de lectura/escritura,

uno en cada cara. Estos cabezales se encuentran flotando sobre la superficie

del disco sin llegar a tocarlo, a una distancia de unas 3 o 4 micropulgadas

(a título de curiosidad, podemos comentar que el diámetro de un cabello

humano es de unas 4.000 pulgadas). Estos cabezales generan señales

eléctricas que alteran los campos magnéticos del disco, dando forma a la

información. (dependiendo de la dirección hacia donde estén orientadas las

partículas, valdrán 0 o valdrán 1).

La distancia entre el cabezal y el plato del disco también determinan la

densidad de almacenamiento del mismo, ya que cuanto más cerca estén el

uno del otro, más pequeño es el punto magnético y más información podrá

albergar.

Algunos conceptos Antes hemos comentado que los discos giran continuamente a gran

velocidad; este detalle, la velocidad de rotación, incide directamente

en el rendimiento de la unidad, concretamente en el tiempo de

acceso. Es el parámetro más usado para medir la velocidad de un

disco duro, y lo forman la suma de dos factores: el tiempo medio de

búsqueda y la latencia; el primero es lo que tarde el cabezal en

desplazarse a una pista determinada, y el segundo es el tiempo que

emplean los datos en pasar por el cabezal.

Si se aumenta la velocidad de rotación, la latencia se reduce; en

antiguas unidades era de 3.600 rpm (revoluciones por minuto), lo

que daba una latencia de 8,3 milisegundos. La mayoría de los discos

duros actuales giran ya a 7.200 rpm, con lo que se obtienen 4,17 mb

de latencia. Y actualmente, existen discos de alta gama aún más

rápidos, hasta 10.000 rpm.

Es preciso comentar también la estructura lógica del disco, ya que

contiene importantes conceptos que todos habréis oído; para

empezar, la superficie del disco se divide en una serie de anillos

concéntricos, denominados pistas. Al mismo tiempo, las pistas son

divididas en trames de una misma longitud, llamados sectores;

normalmente un sector contiene 512 bytes. Otro concepto es el de

cilindro, usado para describir las pistas que tienen el mismo número

pero en diferentes discos. Finalmente, los sectores suelen agruparse

en clusters o unidades de asignación. Estos conceptos son

importantes a la hora de instalar y configurar un disco duro, y

haremos uso de alguna de esta información cuando subamos al nivel

lógico del disco. Muchas placas base modernas detectan los discos

duros instalados, mientras que en otras más antiguas hay que meter

algunos valores uno por uno (siempre vienen escritos en una etiqueta

pegada en la parte superior del disco).

El estándar IDE "Integrated Drive Electronics", o IDE, fue creado por la firma

Western Digital, curiosamente por encargo de Compaq para una

nueva gama de ordenadores personales. Su característica más

representativa era la implementación de la controladora en el propio

disco duro, de ahí su denominación. Desde ese momento,

únicamente se necesita una conexión entre el cable IDE y el Bus del

sistema, siendo posible implementarla en la placa base (como de

hecho ya se hace desde los 486 DX4 PCI) o en tarjeta (equipos 486

VLB e inferiores). Igualmente se eliminó la necesidad de disponer de

dos cables separados para control y datos, bastando con un cable de

40 hilos desde el bus al disco duro. Se estableció también el término

ATA (AT Attachment) que define una serie de normas a las que

deben acogerse los fabricantes de unidades de este tipo.

IDE permite transferencias de 4 Megas por segundo, aunque dispone de

varios métodos para realizar estos movimientos de datos, que veremos en el

apartado "Modos de Transferencia". La interfaz IDE supuso la

simplificación en el proceso de instalación y configuración de discos duros,

y estuvo durante un tiempo a la altura de las exigencias del mercado.

No obstante, no tardaron en ponerse en manifiesto ciertas modificaciones

en su diseño. Dos muy importantes eran de capacidad de almacenamiento,

de conexión y de ratios de transferencia; en efecto, la tasa de transferencia

se iba quedando atrás ante la demanda cada vez mayor de prestaciones por

parte del software (¿estás ahí, Windows?). Asimismo, sólo podían coexistir

dos unidades IDE en el sistema, y su capacidad (aunque ero no era del todo

culpa suya, lo veremos en el apartado "El papel de la BIOS") no solía

exceder de los 528 Megas. Se imponía una mejora, y ¿quién mejor para

llevarla a cabo que la compañía que lo creó?

Enhanced IDE

La interfaz EIDE o IDE mejorado, propuesto también por Western Digital,

logra una mejora de flexibilidad y prestaciones. Para empezar, aumenta su

capacidad, hasta 8,4 Gigas, y la tasa de transferencia empieza a subir a

partir de los 10 Megas por segundo, según el modo de transferencia usado.

Además, se implementaron dos sistemas de traducción de los parámetros

físicos de la unidad, de forma que se pudiera acceder a superiores

capacidades. Estos sistemas, denominados CHS y LBA aportaron ventajas

innegables, ya que con mínimas modificaciones (aunque LBA exigía

también cambios en la BIOS del PC) se podían acceder a las máximas

capacidades permitidas.

Otra mejora del EIDE se reflejó en el número de unidades que podían ser

instaladas al mismo tiempo, que se aumentó a cuatro. Para ello se obligó a

fabricantes de sistemas y de BIOS a soportar los controladores secundarios

(dirección 170h, IRQ 15) siempre presentes en el diseño del PC pero nunca

usados hasta el momento, de forma que se pudieran montar una unidad y

otra esclava, configuradas como secundarias. Más aún, se habilitó la

posibilidad de instalar unidades CD-ROM y de cinta, coexistiendo

pacíficamente en el sistema (más sobre esto en el apartado "Otros

términos"). A nivel externo, no existen prácticamente diferencias con el

anterior IDE, en todo caso un menor tamaño o más bien una superior

integración de un mayor número de componentes en el mismo espacio.

Periféricos de entrada de información. Son los elementos a través de los que se introduce información a la

computadora. En este apartado se encuentran el teclado, el ratón, los

scanners, etc.

Periféricos de almacenamiento de la información. Son subsistemas que permiten a la computadora almacenar, temporal o

indefinidamente, la información o los programas.

Los dispositivos de almacenamiento, llamados también memorias

auxiliares o masivas, son un soporte de apoyo para la computadora en la

realización de sus tareas, ya que puede enviar a ellos, temporalmente, desde

la memoria principal parte de la información que no van a utilizar en esos

momentos, dejando parte del área de trabajo libre para trabajar más

comodamente, y mantenerla almacenada hasta que sea necesaria su

utilización, momento en que la volverá a trasladar a la memoria principal.

Entre los dispositivos de almacenamiento se pueden destacar los discos

magnéticos y las cintas. Un elemento que está obteniendo cada vez mayor

aceptación es el CD-ROM.

Periféricos de salida de la información. Son los periféricos que transmiten los resultados obtenidos tras el proceso

de la información por la computadora al exterior del sistema informático

para que pueda ser utilizado por los seres humanos u otros sistemas

diferentes.

Las pantallas de computadora e impresoras conectadas a los sistemas

informáticos son los medios de representación de la información más

extendidos

Periféricos de comunicaciones.

Estos subsistemas están dedicados a permitir la conexión de la

computadora con otros sistemas informáticos a través de diversos medios;

el medio más común es la línea telefónica. El periférico de comunicaciones

más utilizado es el modem.

También existen periféricos que comparten características particulares de

varios de ellos

Internet ha supuesto una revolución sin precedentes en el mundo de la

informática y de las comunicaciones. Los inventos del telégrafo, teléfono,

radio y ordenador sentaron las bases para esta integración de capacidades

nunca antes vivida. Internet es a la vez una oportunidad de difusión

mundial, un mecanismo de propagación de la información y un medio de

colaboración e interacción entre los individuos y sus ordenadores

independientemente de su localización geográfica.

La Internet ha significado una revolución sin precedentes en el mundo de la

informática y de las comunicaciones y que ha transformado a la

humanidad. Han contribuido a ello los inventos del teléfono, la radio, los

satélites, las computadoras, dispositivos de hardware, los protocolos o

estándares de comunicaciones y software especializados, tales como

navegadores, correo electrónico, FTP, video conferencias, etc.

Conviene ir poniéndose al día en esta nueva jerga, no tanto por el hecho de

"estar a la última", sino por aprovechar las innegables y enormes

posibilidades que se abren y se presentan en este ámbito. Ya se habla de

ello como de "un nuevo tipo de ocio". Actualmente, ya se pueden hacer

cosas tan dispares como comprar entradas para conciertos, comunicarse

mediante correo electrónico, ver qué está ocurriendo en la Plaza de Bolivar

en este momento o consultar las imágenes que manda el Meteosat para

hacer nuestra propia predicción del tiempo.

Informarse de las posibilidades de Internet y de cómo acceder a ellas es el

primer paso para empezar a caminar por estas carreteras del futuro.

Qué es Internet?

Internet es una "red de redes" de ordenadores distribuidos por todo el

mundo. Quizá esto no signifique mucho para un usuario final, pero sí lo

hará el saber que esta red permite ejecutar un programa, ver un documento,

enviar un mensaje o cientos de cosas más a miles de kilómetros de

distancia y sin que el usuario sea consciente de ello.

Detrás de esta aparente simplicidad, se esconden millones de ordenadores

que funcionan con sistemas operativos distintos, y que están a su vez

conectados a redes más pequeñas, que muchas veces, nada tienen que ver

con lo que es Internet. Para que esta comunicación sea posible, es necesario

establecer una forma de "hablar" las máquinas, de manera que se puedan

entender entre ellas. Esto se consigue con una serie de protocolos (acuerdos

para comunicarse) estándar. Los más importantes son IP (Internet Protocol)

y TCP (Transmission Control Protocol).

El éxito y crecimiento de Internet se debe fundamentalmente a dos razones.

La primera e imprescindible, es el espectacular desarrollo en los últimos

años de las capacidades de procesamiento y almacenamiento de los

ordenadores, así como el gran aumento en la capacidad de transmisión de

las redes de las computadoras. La segunda se refiere a factores sociológicos

relacionados con la denominada "Sociedad de la Información", la cual

demanda día a día mayor cantidad de información de la forma más fiable,

rápida y segura posible.

PARA QUE SIRVE LA COMPUTADORA

Para que sirve la computadora, para realizar captura de textos, diseñar

imágenes, mediciones, cálculos, hasta para editar imágenes y vídeos,

películas, conexión a internet, transmitir información mediante wifi o

3g 4g. etc.

Actualmente tratar de dar una respuesta concreta a la interrogante, ¿para

que sirve la computadora? Cualquier persona le daría una respuesta

efectivamente concreta de acuerdo al uso personal que le da.

Por mi parte, te daré un respuesta amplía con respecto para que sirve la

computadora, de acuerdo al sistema operativo que tenga instalado las pc´s.

Con el pasar de los años los sistemas operativos se han multiplicado, así

como la presentación física de una computadora, ahora ya es normal ver a

una computadora en su presentación:

Computadora de escritorio.

Computadora portatil: Notebook, minicomputadora.

Tablet o Ipads.

Teléfonos inteligentes como los smartphones, blackberry,

Iphones,etc.

Y hasta en relojes de pulso con teléfono inteligente.

Para que sirve la computadora, según el sistema operativo

La importancia de diseños y para que sirve la computadora en nuestro

quehacer diario.

El conocer para que sirve la computadora con los sistemas operativo

como:

1. Windows.

2. GNU/Linux.

3. Unix.

4. MSDOS.

5. Mac – Os.

6. Symbian OS.

7. Android.

8. windows phone.

9. Blackberry OS.

10. Bada.

Nos permitirá saber con exactitud su aplicación y finalmente dar una

respuesta amplía y acertada de para que sirve la computadora.

Windows.- Es un sistema operativo creado por Microsoft. Y su paquetería

se renueva constantemente, tanto que posee una amplía variada para el uso

que el usuario requiera, las hay por su apariencia y capacidad, para el

usuario estudiante, para el usuario empresarial, etc. Con windows incluye

una paqueteria de office. Con el cual el estudiante o profesionista puede

desde realizar sencillas tareas como captura de texto con Word, hasta

diseñar carteles o periódicos con Publisher, inclusive un profesional de la

contabilidad o de alguien que maneje sus cuentas financieras o productos

puede ayudarse perfectamente con Excell. O bien editar fotos con paint o

crear dibujos. La desventaja con estos sistemas operativos es que son

altamente vulnerables a ataques de virus que se filtran por la conexión a

internet o bien mediante el traspaso de información por las memorias flash.

Aunque también por Cd´s o disquett en caso que algún usuario lo utilice

aun.

GNU/Linux.- Este sistema operativo básicamente está pensado para

personas con conocimientos avanzados en informática, y aunque es gratuito

y modificable. No cualquier persona puede usarlo. Tiene ventaja, porque no

se llena de virus. Y se debe a que la mayoría de los usuarios comunes

prefieren a windows. Con este sistema operativo se pueden realizar

múltiples tareas. Un ejemplo de ello es la realización de películas en 3D. Y

notable el uso de linux en servidores hosting, como aquellos que aloja sitios

webs.

Unix.- Las cualidades de este sistema operativo son de servidor, sistema de

pruebas, para aprender comandos, y más.

Mac OS.- Es un sistema menos complicado, intuitivo y fácil de usar, está

expuesto a menos ataques de virus. También permite su uso desde el

momento que lo enciendes a diferencia de Windows. Este sistema

operativo posee sus propios programas y por obvias razones no son

compatibles con la paqueteria de windows. Y su desventaja suele ser el

precio.

Para que sirve la computadora en la actualidad, como has podido leer con

las breves explicaciones de 4 sistemas operativos. Te darás cuenta que el

uso es infinito y todo depende del usuario.

Una computadora sirve para medir distancias de una galaxia a otra. Hasta

proyectar aproximaciones de impactos de asteriodes. O diseños de

arquitectos a gran escala. Todo depende de la capacidad y de los programas

que se ejecutan y que sean compatibles con los distintos sistemas

operativos con los cuales funcionaran para que sirve la computadora en

relación a su meta y para que ha sido construida.

Tipos de redes

1. Que es red?

2. Tipos de redes

3. Topologías

4. Protocolos

5. Modelo OSI 6. Fuentes consultadas

INTRODUCCIÓN

Este trabajo es una guía básica acerca de los conceptos fundamentales de

las redes computacionales; Así como a su vez, es un ayuda para aquellas

personas que desean reforzar sus conocimientos acerca de este tema.

QUE ES RED?

Existen varias definiciones acerca de que es una red, algunas de las cuales

son:

Conjunto de operaciones centralizadas o distribuidas, con el fin de

compartir recursos "hardware y software".

Sistema de transmisión de datos que permite el intercambio de

información entre ordenadores.

Conjunto de nodos "computador" conectados entre sí.

TIPOS DE REDES

Existen varios tipos de redes, los cuales se clasifican de acuerdo a su

tamaño y distribución lógica.

Clasificación segun su tamaño

Las redes PAN (red de administración personal) son redes pequeñas,

las cuales están conformadas por no más de 8 equipos, por ejemplo:

café Internet.

CAN: Campus Area Network, Red de Area Campus. Una CAN es una

colección de LANs dispersadas geográficamente dentro de un campus

(universitario, oficinas de gobierno, maquilas o industrias) pertenecientes a

una misma entidad en una área delimitada en kilometros. Una CAN utiliza

comúnmente tecnologías tales como FDDI y Gigabit Ethernet para

conectividad a través de medios de comunicación tales como fibra óptica y

espectro disperso.

Las redes LAN (Local Area Network, redes de área local) son las redes

que todos conocemos, es decir, aquellas que se utilizan en nuestra empresa.

Son redes pequeñas, entendiendo como pequeñas las redes de una oficina,

de un edificio. Debido a sus limitadas dimensiones, son redes muy rápidas

en las cuales cada estación se puede comunicar con el resto. Están

restringidas en tamaño, lo cual significa que el tiempo de transmisión, en el

peor de los casos, se conoce. Además, simplifica la administración de la

red.

Suelen emplear tecnología de difusión mediante un cable sencillo (coaxial

o UTP) al que están conectadas todas las máquinas. Operan a velocidades

entre 10 y 100 Mbps.

Características preponderantes:

Los canales son propios de los usuarios o empresas.

Los enlaces son líneas de alta velocidad.

Las estaciones están cercas entre sí.

Incrementan la eficiencia y productividad de los trabajos de oficinas

al poder compartir información.

Las tasas de error son menores que en las redes WAN.

La arquitectura permite compartir recursos.

LANs mucha veces usa una tecnología de transmisión, dada por un simple

cable, donde todas las computadoras están conectadas. Existen varias

topologías posibles en la comunicación sobre LANs, las cuales se verán

mas adelante.

Las redes WAN (Wide Area Network, redes de área extensa) son redes

punto a punto que interconectan países y continentes. Al tener que recorrer

una gran distancia sus velocidades son menores que en las LAN aunque

son capaces de transportar una mayor cantidad de datos. El alcance es una

gran área geográfica, como por ejemplo: una ciudad o un continente. Está

formada por una vasta cantidad de computadoras interconectadas (llamadas

hosts), por medio de subredes de comunicación o subredes pequeñas, con el

fin de ejecutar aplicaciones, programas, etc.

Una red de área extensa WAN es un sistema de interconexión de equipos

informáticos geográficamente dispersos, incluso en continentes distintos.

Las líneas utilizadas para realizar esta interconexión suelen ser parte de las

redes públicas de transmisión de datos.

Las redes LAN comúnmente, se conectan a redes WAN, con el objetivo de

tener acceso a mejores servicios, como por ejemplo a Internet. Las redes

WAN son mucho más complejas, porque deben enrutar correctamente toda

la información proveniente de las redes conectadas a ésta.

Una subred está formada por dos componentes:

Líneas de transmisión: quienes son las encargadas de llevar los bits entre

los hosts.

Elementos interruptores (routers): son computadoras especializadas

usadas por dos o más líneas de transmisión. Para que un paquete llegue de

un router a otro, generalmente debe pasar por routers intermedios, cada uno

de estos lo recibe por una línea de entrada, lo almacena y cuando una línea

de salida está libre, lo retransmite.

INTERNET WORKS: Es una colección de redes interconectadas, cada

una de ellas puede estar desallorrada sobre diferentes software y hardware.

Una forma típica de Internet Works es un grupo de redes LANs conectadas

con WANs. Si una subred le sumamos los host obtenemos una red.

El conjunto de redes mundiales es lo que conocemos como Internet.

Las redes MAN (Metropolitan Area Network, redes de área

metropolitana) , comprenden una ubicación geográfica determinada

"ciudad, municipio", y su distancia de cobertura es mayor de 4 Kmts. Son

redes con dos buses unidireccionales, cada uno de ellos es independiente

del otro en cuanto a la transferencia de datos. Es básicamente una gran

versión de LAN y usa una tecnología similar. Puede cubrir un grupo de

oficinas de una misma corporación o ciudad, esta puede ser pública o

privada. El mecanismo para la resolución de conflictos en la transmisión de

datos que usan las MANs, es DQDB.

DQDB consiste en dos buses unidireccionales, en los cuales todas las

estaciones están conectadas, cada bus tiene una cabecera y un fin. Cuando

una computadora quiere transmitir a otra, si esta está ubicada a la izquierda

usa el bus de arriba, caso contrario el de abajo.

Redes Punto a Punto. En una red punto a punto cada computadora puede

actuar como cliente y como servidor. Las redes punto a punto hacen que el

compartir datos y periféricos sea fácil para un pequeño grupo de gente. En

una ambiente punto a punto, la seguridad es difícil, porque la

administración no está centralizada.

Redes Basadas en servidor. Las redes basadas en servidor son mejores

para compartir gran cantidad de recursos y datos. Un administrador

supervisa la operación de la red, y vela que la seguridad sea mantenida.

Este tipo de red puede tener uno o mas servidores, dependiendo del

volumen de tráfico, número de periféricos etc. Por ejemplo, puede haber un

servidor de impresión, un servidor de comunicaciones, y un servidor de

base de datos, todos en una misma red.

Clasificación según su distribución lógica

Todos los ordenadores tienen un lado cliente y otro servidor: una máquina

puede ser servidora de un determinado servicio pero cliente de otro

servicio.

Servidor. Máquina que ofrece información o servicios al resto de los

puestos de la red. La clase de información o servicios que ofrezca

determina el tipo de servidor que es: servidor de impresión, de archivos, de

páginas web, de correo, de usuarios, de IRC (charlas en Internet), de base

de datos...

Cliente. Máquina que accede a la información de los servidores o utiliza

sus servicios. Ejemplos: Cada vez que estamos viendo una página web

(almacenada en un servidor remoto) nos estamos comportando como

clientes. También seremos clientes si utilizamos el servicio de impresión de

un ordenador remoto en la red (el servidor que tiene la impresora

conectada).

Todas estas redes deben de cumplir con las siguientes características:

Confiabilidad "transportar datos".

Transportabilidad "dispositivos".

Gran procesamiento de información.

y de acuerdo estas, tienen diferentes usos, dependiendo de la necesidad del

usuario, como son:

Compañías - centralizar datos.

Compartir recursos "periféricos, archivos, etc".

Confiabilidad "transporte de datos"aumentar la disponibilidad de la

información.

Comunicación entre personal de las mismas áreas.

Ahorro de dinero.

Home Banking.

Aportes a la investigación "vídeo demanda,line T.V,Game

Interactive".

TOPOLOGIAS

Bus: esta topología permite que todas las estaciones reciban la

información que se transmite, una estación trasmite y todas las

restantes escuchan.

Ventajas: La topologia Bus requiere de menor cantidad de cables para una

mayor topologia; otra de las ventajas de esta topologia es que una falla en

una estación en particular no incapacitara el resto de la red.

Desventajas: al existir un solo canal de comunicación entre las estaciones

de la red, si falla el canal o una estación, las restantes quedan

incomunicadas. Algunos fabricantes resuelven este problema poniendo un

bus pararelo alternativo, para casos de fallos o usando algoritmos para

aislar las componentes defectuosas.

Existen dos mecanismos para la resolución de conflictos en la transmisión

de datos:

CSMA/CD: son redes con escucha de colisiones. Todas las estaciones son

consideradas igual, por ello compiten por el uso del canal, cada vez que una

de ellas desea transmitir debe escuchar el canal, si alguien está

transmitiendo espera a que termine, caso contrario transmite y se queda

escuchando posibles colisiones, en este último espera un intervalo de

tiempo y reintenta nuevamente.

Token Bus: Se usa un token (una trama de datos) que pasa de estación en

estación en forma cíclica, es decir forma un anillo lógico. Cuando una

estación tiene el token, tiene el derecho exclusivo del bus para transmitir o

recibir datos por un tiempo determinado y luego pasa el token a otra

estación, previamente designada. Las otras estaciones no pueden transmitir

sin el token, sólo pueden escuchar y esperar su turno. Esto soluciona el

problema de colisiones que tiene el mecanismo anterior.

Redes en Estrella

Es otra de las tres principales topologías. La red se une en un único punto,

normalmente con control centralizado, como un concentrador de cableado.

Redes Bus en Estrella

Esta topología se utiliza con el fin de facilitar la administración de la red.

En este caso la red es un bus que se cablea físicamente como una estrella

por medio de concentradores.

Redes en Estrella Jerárquica

Esta estructura de cableado se utiliza en la mayor parte de las redes locales

actuales, por medio de concentradores dispuestos en cascada para formar

una red jerárquica.

Redes en Anillo

Es una de las tres principales topologías. Las estaciones están unidas una

con otra formando un círculo por medio de un cable común. Las señales

circulan en un solo sentido alrededor del círculo, regenerándose en cada

nodo.

Ventajas: los cuellos de botellas son muy pocos frecuentes

Desventajas: al existir un solo canal de comunicación entre las estaciones

de la red, si falla el canal o una estación, las restantes quedan

incomunicadas. Algunos fabricantes resuelven este problema poniendo un

canal alternativo para casos de fallos, si uno de los canales es viable la red

está activa, o usando algoritmos para aislar las componentes defectuosas.

Es muy compleja su administración, ya que hay que definir una estación

para que controle el token.

Existe un mecanismo para la resolución de conflictos en la transmisión de

datos:

Token Ring: La estación se conecta al anillo por una unidad de interfaz

(RIU), cada RIU es responsable de controlar el paso de los datos por ella,

así como de regenerar la transmisión y pasarla a la estación siguiente. Si la

dirección de cabecera de una determinada transmisión indica que los datos

son para una estación en concreto, la unidad de interfaz los copia y pasa la

información a la estación de trabajo conectada a la misma.

Se usa en redes de área local con o sin prioridad, el token pasa de estación

en estación en forma cíclica, inicialmente en estado desocupado. Cada

estación cuando tiene el token (en este momento la estación controla el

anillo), si quiere transmitir cambia su estado a ocupado, agregando los

datos atrás y lo pone en la red, caso contrario pasa el token a la estación

siguiente. Cuando el token pasa de nuevo por la estación que transmitió,

saca los datos, lo pone en desocupado y lo regresa a la red.

PROTOCOLOS

Características

Un protocolo es el conjunto de normas para comunicarse dos o más

entidades ( objetos que se intercambian información ) . Los elementos que

definen un protocolo son :

Sintaxis : formato , codificación y niveles de señal de datos .

Semántica : información de control y gestión de errores .

Temporización : coordinación entre la velocidad y orden secuencial

de las señales .

Las características más importantes de un protocolo son :

Directo/indirecto : los enlaces punto a punto son directos pero los

enlaces entre dos entidades en diferentes redes son indirectos ya que

intervienen elementos intermedios .

Monolítico/estructurado : monolítico es aquel en que el emisor tiene

el control en una sola capa de todo el proceso de transferencia . En

protocolos estructurados , hay varias capas que se coordinan y que

dividen la tarea de comunicación .

Simétrico/asimétrico : los simétricos son aquellos en que las dos

entidades que se comunican son semejantes en cuanto a poder tanto

emisores como consumidores de información . Un protocolo es

asimétrico si una de las entidades tiene funciones diferentes de la

otra ( por ejemplo en clientes y servidores ) .

Funciones

1. Segmentación y ensamblado :generalmente es necesario dividir los

bloques de datos en unidades pequeñas e iguales en tamaño , y este proceso

se le llama segmentación . El bloque básico de segmento en una cierta capa

de un protocolo se le llama PDU ( Unidad de datos de protocolo ) . La

necesidad de la utilización de bloque es por :

La red sólo admite la transmisión de bloques de un cierto tamaño .

El control de errores es más eficiente para bloques pequeños .

Para evitar monopolización de la red para una entidad , se emplean bloques

pequeños y así una compartición de la red .

Con bloques pequeños las necesidades de almacenamiento temporal son

menores .

Hay ciertas desventajas en la utilización de segmentos :

La información de control necesaria en cada bloque disminuye la eficiencia

en la transmisión .

Los receptores pueden necesitar interrupciones para recibir cada bloque ,

con lo que en bloques pequeños habrá más interrupciones .

Cuantas más PDU , más tiempo de procesamiento .

2. Encapsulado : se trata del proceso de adherir información de control al

segmento de datos . Esta información de control es el direccionamiento del

emisor/receptor , código de detección de errores y control de protocolo .

3. Control de conexión : hay bloques de datos sólo de control y otros de

datos y control . Cuando se utilizan datagramas , todos los bloques incluyen

control y datos ya que cada PDU se trata como independiente . En circuitos

virtuales hay bloques de control que son los encargados de establecer la

conexión del circuito virtual . Hay protocolos más sencillos y otros más

complejos , por lo que los protocolos de los emisores y receptores deben de

ser compatibles al menos .Además de la fase de establecimiento de

conexión ( en circuitos virtuales ) está la fase de transferencia y la de corte

de conexión . Si se utilizan circuitos virtuales habrá que numerar los PDU y

llevar un control en el emisor y en el receptor de los números .

4. Entrega ordenada : el envío de PDU puede acarrear el problema de que

si hay varios caminos posibles , lleguen al receptor PDU desordenados o

repetidos , por lo que el receptor debe de tener un mecanismo para

reordenar los PDU . Hay sistemas que tienen un mecanismo de numeración

con módulo algún número ; esto hace que el módulo sean lo

suficientemente alto como para que sea imposible que haya dos segmentos

en la red al mismo tiempo y con el mismo número .

5. Control de flujo : hay controles de flujo de parada y espera o de

ventana deslizante . El control de flujo es necesario en varios protocolos o

capas , ya que el problema de saturación del receptor se puede producir en

cualquier capa del protocolo .

6. Control de errores : generalmente se utiliza un temporizador para

retransmitir una trama una vez que no se ha recibido confirmación después

de expirar el tiempo del temporizador . Cada capa de protocolo debe de

tener su propio control de errores .

7. Direccionamiento : cada estación o dispositivo intermedio de

almacenamiento debe tener una dirección única . A su vez , en cada

terminal o sistema final puede haber varios agentes o programas que

utilizan la red , por lo que cada uno de ellos tiene asociado un puerto .

Además de estas direcciones globales , cada estación o terminal de una

subred debe de tener una dirección de subred ( generalmente en el nivel

MAC ) .

Hay ocasiones en las que se usa un identificador de conexión ; esto se hace

así cuando dos estaciones establecen un circuito virtual y a esa conexión la

numeran ( con un identificador de conexión conocido por ambas ) . La

utilización de este identificador simplifica los mecanismos de envío de

datos ya que por ejemplo es más sencillo que el direccionamiento global .

Algunas veces se hace necesario que un emisor emita hacia varias

entidades a la vez y para eso se les asigna un direccionamiento similar a

todas .

8. Multiplexación : es posible multiplexar las conexiones de una capa

hacia otra , es decir que de una única conexión de una capa superior , se

pueden establecer varias conexiones en una capa inferior ( y al revés ) .

9. Servicios de transmisión : los servicios que puede prestar un protocolo

son :

Prioridad : hay mensajes ( los de control ) que deben tener prioridad

respecto a otros .

Grado de servicio : hay datos que deben de retardarse y otros acelerarse (

vídeo ) .

Seguridad .

Protocolo CSMA/CD.

Carrier Sense Mutiple Acces with Collision Detection. En este tipo de red

cada estación se encuentra conectada bajo un mismo bus de datos, es decir

las computadoras se conectan en la misma línea de comunicación

(cablado), y por esta transmiten los paquetes de información hacia el

servidor y/o los otros nodos. Cada estacion se encuentra monitoriando

constantemente la línea de comunicación con el objeto de transmitir o

resibir sus mensajes.

Estándares para redes de la IEEE.

- IEEE 802.1

Estándar que especifica la relación de los estándares IEEE y su interacción

con los modelos OSI de la ISO, así como las cuestiones de

interconectividad y administración de redes.

- IEEE 802.2

Control lógico de enlace (LLC), que ofrece servicios de "conexión lógica"

a nivel de capa 2.

- IEEE 802.3

El comité de la IEEE 802. 3 definió un estándar el cual incluye el formato

del paquete de datos para EtherNet, el cableado a usar y el máximo de

distancia alcanzable para este tipo de redes. Describe una LAN usando una

topologia de bus, con un metodo de acceso al medio llamado CSMA/CD y

un cableado coaxial de banda base de 50 ohms capaz de manejar datos a

una velocidad de 10 Mbs.

- IEEE 802.3 10Base5.

El estándar para bus IEEE 802.3 originalmente fue desarrollado para cable

coaxial de banda base tipo Thick como muna norma para EtherNet,

especificación a la cual se hace referencia como 10Base5 y describe un bus

de red de compuesto por un cable coaxial de banda base de tipo thick el

cual puede transmitir datos a una velocidad de 10Mbs. sobre un máximo de

500 mts.

- IEEE 802.3 10Base2.

Este estándar describe un bus de red el cual puede transmitir datosa una

velocidad de 10 Mbs sobre un cable coaxial de banda base del tipo Thin en

una distancia máxima de 200 mts.

- IEEE 802.3 STARLAN.

El comité IEEE 802 desarrllo este estándar para una red con protocolo

CSMA el cual hace uso de una topología de estrella agrupada en la cual las

estrellas se enlazan con otra. También se le conoce con la especificación

10Base5 y describe un red la cual puede transmitir datos a una velocidad de

1 Mbs hasta una distancia de 500 mts. usando un cableado de dos pares

trenzados calibres 24.

- IEEE 802.3 10BaseT.

Este estándar describe un bus lógico 802.3 CSMA/CD sobre un cableado

de 4 pares trenzados el cual esta configurado físicamente como una estrella

distribuida, capas de transmitir datos a 10 Mbs en un máximo de distancia

de 100 mts.

- IEEE 802.4

Define una red de topología usando el método de acceso al medio de Token

Paassing.

- IEEE 802.5 Token Ring.

Este estándar define una red con topología de anillo la cual usa token

(paquete de datos) para transmitir información a otra. En una estación de

trabajo la cual envía un mensaje lo sitúa dentro de un token y lo direcciona

especificamente a un destino, la estacion destino copia el mensaje y lo

envía a un token de regreso a la estación origen la cual remueve el mensaje

y pasa el token a la siguiente estación.

- IEEE 802.6

Red de área metropolitana (MAN), basada en la topologia popuesta por la

University of Western Australia, conocida como DQDB (Distribuited

Queue Dual Bus) DQDB utiliza un bus dual de fibra óptica como medio de

transmisión. Ambos buses son unidireccionales, y en contra-sentido. Con

esta tecnologia el ancho de banda es distribuido entre los usuarios , de

acuerdo a la demanda que existe, en proceso conocido como "inserción de

ranuras temporales". Puesto que puede llevar transmisión de datos

síncronicos y asíncronicos, soporta aplicaciones de video, voz y datos.

IEEE 802.6 con su DQDB, es la alternativa de la IEEE para ISDN.

- IEEE 802.12

Se prevé la posibilidad de que el Fast EtherNet, adémdum de 802.3, se

convierta en el IEEE 802.12.

MODELO OSI

Definición

Modelo abierto para arquitecturas funcionales de red, periféricos , archivos

a compartir , utilidad de red.El sistema de comunicaciones del modelo OSI

estructura el proceso en varias capas que interaccionan entre sí . Un capa

proporciona servicios a la capa superior siguiente y toma los servicios que

le presta la siguiente capa inferior .De esta manera , el problema se divide

en subproblemas más pequeños y por tanto más manejables .

Para comunicarse dos sistemas , ambos tienen el mismo modelo de capas .

La capa más alta del sistema emisor se comunica con la capa más alta del

sistema receptor , pero esta comunicación se realiza vía capas inferiores de

cada sistema .La única comunicación directa entre capas de ambos sistemas

es en la capa inferior ( capa física ) .

Los datos parten del emisor y cada capa le adjunta datos de control hasta

que llegan a la capa física . En esta capa son pasados a la red y recibidos

por la capa física del receptor . Luego irán siendo captados los datos de

control de cada capa y pasados a una capa superior . Al final , los datos

llegan limpios a la capa superior .

Cada capa tiene la facultad de poder trocear los datos que le llegan en

trozos más pequeños para su propio manejo . Luego serán reensamblados

en la capa paritaria de la estación de destino .

Características

1. Arquitectura:

Conocimiento del trafico.

Trama - división de la información.

Paquete - todos los datos a ser enviados.

Segmento - Conjunto de trama.

2. Medio de Transmisión:

Nic - red

Asociación -router,bridge,gateway.

Tecnología - red "lan, wan,man".

3. Topología:

Distancia.

Distribución.

Enrutamiento

4. Capacidad mucha de banda:

Proceso estocastico.

Probabilidad de llegada.

Distribución "binomial- normal ".

Primitivas de servicio y parámetros

Las capas inferiores suministran a las superiores una serie de funciones o

primitivas y una serie de parámetros .La implementación concreta de estas

funciones está oculta para la capa superior ., ésta sólo puede utilizar las

funciones y los parámetros para comunicarse con la capa inferior( paso de

datos y control).

Características de las redes

23. mar

/

Gnu/Linux

/

9 comentarios

Las redes de computadoras nos

permiten interactuar entre 2 o más dispositivos entre sí a través de un

medio físico que se conoce como “cable” o también puede ser por medios

inalámbricos.

Principalmente usados para la compartición de recursos.

Y pueden encontrar mucha más información si buscan un poco.

Ahora bien de forma general podemos decir que las características de una

red serian:

Compartición de arhivos: Fue la razón principal para tener una red. Para

que se cumpla se requiere de un directorio compartido que pueda ser

accesado por muchos usarios de la red, junto a toda la lógica asociada para

que más de una persona no realice cambios conflictivos a un archivo al

mismo tiempo.

Compartición de impresoras: Con esto reducimos el número de

impresoras en la organización. Se hace necesario el uso de colas de

impresión para que las impresiones se lleven a cabo y de forma automática

enviar los trabajos en espera en dicha cola.

Servicios de aplicación: Así como se pueden compartir archivos o carpetas

en una red, se pueden comparti aplicaciones, las más comunes son

aplicativos de contabilidad. Si se requiere por ejemplo de instalar algún

programa en diversas computadoras de la red, en lugar de ir colocando el

CD-ROM en cada una, se puede tener una carpeta con el contenido del

mismo y ejecutar el instalador desde cada equipo.

Correo electrónico: Es un recurso bastante valioso y que incluso muchas

organizaciones no lo aprovechan al máximo. No solamente es útil para las

comunicaciones internas sino también para las externas.

Acceso remoto: Se usa principalmente para acceder desde el exterior a los

recursos de la red interna. Los usuarios la utilizan para ver sus archivos,

correo electrónico ya sea que se encuentren de viaje, desde su hogar, etc.

Por supuesto no son las únicas, pero las que más se usan hoy en día. Si se

encuentra dentro de una organización y su red no está operando como

debiera, busque replantearse si es lo que necesita, necesita que sea

reparada, modificada o ampliada. Las redes bien implementadas pueden ser

de gran ayuda y utilidad para la organización y con gusto se le puede

asesorar para su mejora.

COMO SE CONECTA A UNA RED

una es la red fisica: el cableado, las targetas de red, las

computadoras y demas equipos que utiliza la red para

trasmitir datos

la otra parte es la disposision logica de esos componentes

fisicos: las reglas que permiten a los componentes fisicos

trabajar en conjunto. en el trascurso de esta guia veremos las

subdivisiones

La parte fisica: el hardware

La red fisica para muchos es facil de ntender porque es la parte

visible ...el hardware (bueno para mi es un poco complicado todo lo

del hardware pero vamos a darle igual)

el hardware de una red esta formado por el cableado, las

targetas de red, las computadoras, los hubs y todo el material

adicional que permiteque la red funcione. si no sabes lo que son

algunas de esas cosas no te preocupes voy intertar explicarlo aunque

si queres ampliar los terminos podes preguntar en la seccion de

hardware..pero por ahora yo voy a definir XD

lo mas importante que se tiene que acordar es que la parte fisica de

la conectividad de redes es totalmente hardware. es algo

tangible que podes tocar o tener agarrado

Topologias fisicas

el aspecto fisico de la red, esta en su forma mas simple, construido

por cables (actualmente cables coaxiales los cuales son muy

similares a los que utilizan la tv por cable) tendidos entre las

computadoras y otros dispositivos de red. Los cables se

conectan a las NICs o targetas de interfaz de red que estan

istaladas en las computadoras; las NICs manejan la

interaccion de las computadoras con el resto de la red. con

estos dos componentes pueden crear una red sencilla basada

en lo que se llama red 10base2 con topologia de bus (vean la

figura)

las imagenes las saco de google simplemente porque no dispongo de

recursos para crearlas

nota: lo mas importante aqui no es que todas las redes utilicen

cableado coaxial (algunas no lo utilizan como lo veran mas tarde); lo

mas importante es que las redes ethernet mas sencillas - las mas

sencillas que existe- utilizan 10base2. los siguientes parrafos

comparan la topologia de bus con una topologia estrella. la cual se

utiliza para describir a las redes que se basan en UTP y que corren

sobre 10base-t o 100base-t

una topologia fisica es simplemente la forma en que se dispone

una red. existen 3 tipos de topologias: bus, anillo y estrella

las topologias bus y de estrella se utilizan a menudo en las redes

ethernet que son las mas populares; las topologias de anillo se

utilizan para token ring. que son menos populares pero igualmente

funcionales.

las redes FDDI (interfaz de datos distribuidos por fibra optica), que

corren a traves de los cables de fibra optica en lugar de cables de

cobre, utilizan una topologia compleja de estrella

las principales diferencias entre las topologías Ethernet, toquen ring y

FDDI estriban en la forma en que se hacen posible la comunicacion

entre computadoras. Sin embargo, para los propositos de este

ejemplo, todo lo que nesesitan saber es que ninguna de estas

topologias puede comunicarse directamente con las demas - es decir,

no coexisten en el mismo cable de red.-

asimismo, a ethernet ,token ring y FDDI se les conoce como

topologias logicas. A diferencia de las topologias fisicas, las cuales

pueden tocar y levantar, las topologias logicas no tienen que ver con

los alambre, el cableado y el hardware XD Las topologias logicas

son las reglas de transito para las redes

Topologias de bus

la ventaja de una red 10base2 con topologia de bus es su simplicidad

-es la mas sencilla que existe- una vez que las computadoras estan

fisicamente conectadas al alambre, todo lo que ustedes tienen que

hacer es instalar el software de red en cada computadora;

generalmente todas las computadoras seran capaces de verse entre

si sin dificultad. el lado malo de una red de bus es que tiene

muchos puntos de fallas. si uno de los dos enlaces entre cualquiera

de las computadoras se rompe, la red deja de funcionar

Topologias de estrella

Existen redes mas complejas contruidas con topologia de estrella. en

contraste con la topologia de bus en la que el cable corre de una

computadora a la otra. las redes con topologia de estrella tienen

una caja de conexiones llamada hub o concentrador en el

centro de la red. todas las computadoras se conectan al hub el

cual administra las comunicaciones entre computadoras. esta imagen

es una red 10base-t con topologia de estrella

se me hizo un poco complicado conseguir la imagen y esta no es del

todo explicativa...vamos a modificar algo....para empezar le dicen

estrella porque si estiran bien los cables de las maquinas con el hub

mas o menos quedaria una estrella y para seguir....para que sea

parecido a al primera imagen y mas explicativo reemplazen una

maquina por una impresora...si ya se la imaginaron veran que es algo

un poco sencillo todavia esto de las redes

aclaracion:10base2 es el estandar mas antiguo, utiliza cable coaxial,

parecodo al de la tv por cable. 10base-t se ve como un conector

telefonico de gran tamaño con muchas conexiones,ademas, estos

estandares no trabjan en conjunto sin equipo especial

no confundan una 10base2 con una 10base-t

las redes que estan construidas con una topologia de estrella

tiene un par de ventajas sobre la de topologia bus, la primera

y mas importante es la confiabilidad. en una red con topologia de

bus, desconectar una computadora es suficiente para que toda la red

colapse, en una red tipo estrella, ustedes pueden conectar

computadoras a pesar de que la red este operando sin causar

ninguna falla en la misma.

las rees topologia de estrella cuestan un poco mas que la de bus -

porque requieren un hub que es un hardware adicional- pero este

costo vala la pena debido al incremento en la confiabilidad inherente

a este diseño.

Topologia de anillo

en una topologia de anillo, la cual se utiliza en las redes token

ring y FDDI el cableado y la disposicion fisica son similares a los de

una topologia de estrella. sin embargo, en lugar de que la red de

anillo tenga un concentrador en el centro tiene un dispositivo

llamado MAU (unidad de acceso a multiestaciones). la MAU realiza

la misma tarea que el concentrador, pero en lugar de trabajar con

redes ethernet lo hace con redes token ring y maneja la

comunicacion entre computadoras de una manera ligeramente

distintas

esto es una red token ring (recuerden que para compararlo con las

otras redes cambien una estacion de trabajo por una impresora y ya

estaria)

En contraste con las demas topologias que mostre, las redes FDDI

operan sobre cables de fibra optica en lugar de cables de

cobre. la topologia de FDDI es muy similar a la de token ring, con

una exepcion: una sola computadora puede ser conectada a dos

concentradores MAUs, por la que si una conexion de red falla, la

otra puede reanudar automaticamente la tarea.

A los sistemas conectados a mas de un concentrador se les

denomina dual homed (la figura que viene a continuacion)

FDDI es muy rapida. sin embargo, su istalacion y operacion son muy

caras, por lo que normalmente se utiliza solo en aplicaciones de

alta tecnologia como terminales de corredores de bolsa y otras

aplicaciones que demanden la capacidad de enviar muchos datos a

traves de un alambre