38
Antes de hablar sobre la historia de Internet, deberíamos definir o decir de alguna forma, que es Internet. Pueden existir varias definiciones de que es Internet, ya sean definiciones técnicas o populares: Una posible definición técnica de Internet sería, "un sistema mundial de redes de computadoras, un conjunto integrado por las diferentes redes de cada país del mundo, por medio del cual un usuario en cualquier computadora puede, en caso de contar con los permisos apropiados, acceder información de otra computadora y poder tener inclusive comunicación directa con otros usuarios en otras computadoras." Para otros Internet es simplemente la fuente de información más grande que se conoce, en breves palabras "una Gran Enciclopedia" Una de las cualidades o características mas importantes de Internet, es la de facilitar el acceso a la información a las personas siendo uno de los principales motores de la globalización Los inicios de Internet (web ) nos remontan a los años 60. En plena guerra fría, Estados Unidos crea una red exclusivamente militar, con el objetivo de que, en el hipotético caso de un ataque ruso, se pudiera tener acceso a la información militar desde cualquier punto del país. Este red se creó en 1969 y se llamó ARPANET. En principio, la red contaba con 4 ordenadores distribuidos entre distintas universidades del país. Dos años después, ya contaba con unos 40 ordenadores conectados. Tanto fue el crecimiento de la red que su sistema de comunicación se quedó obsoleto. Entonces dos investigadores crearon el Protocolo TCP/IP, que se convirtió en el estándar de comunicaciones dentro de las redes informáticas (actualmente seguimos utilizando dicho protocolo) ARPANET siguió creciendo y abriéndose al mundo, y cualquier persona con fines académicos o de investigación podía tener acceso a la red. Las funciones militares se desligaron de ARPANET y fueron a parar a MILNET, una nueva red creada por los

Los inicios de Internet

Embed Size (px)

Citation preview

Page 1: Los inicios de Internet

Antes de hablar sobre la historia de Internet, deberíamos definir o decir de alguna forma, que es Internet. Pueden existir varias definiciones de que es Internet, ya sean definiciones técnicas o populares:

Una posible definición técnica de Internet sería, "un sistema mundial de redes de computadoras, un conjunto integrado por las diferentes redes de cada país del mundo, por medio del cual un usuario en cualquier computadora puede, en caso de contar con los permisos apropiados, acceder información de otra computadora y poder tener inclusive comunicación directa con otros usuarios en otras computadoras." Para otros Internet es simplemente la fuente de información más grande que se conoce, en breves palabras "una Gran Enciclopedia"

Una de las cualidades o características mas importantes de Internet, es la de facilitar el acceso a la información a las personas siendo uno de los principales motores de la globalización

Los inicios de Internet (web) nos remontan a los años 60. En plena guerra fría, Estados Unidos crea una red exclusivamente militar, con el objetivo de que, en el hipotético caso de un ataque ruso, se pudiera tener acceso a la información militar desde cualquier punto del país. Este red se creó en 1969 y se llamó ARPANET.

En principio, la red contaba con 4 ordenadores distribuidos entre distintas universidades del país. Dos años después, ya contaba con unos 40 ordenadores conectados. Tanto fue el crecimiento de la red que su sistema de comunicación se quedó obsoleto. Entonces dos investigadores crearon el Protocolo TCP/IP, que se convirtió en el estándar de comunicaciones dentro de las redes informáticas (actualmente seguimos utilizando dicho protocolo)

ARPANET siguió creciendo y abriéndose al mundo, y cualquier persona con fines académicos o de investigación podía tener acceso a la red. Las funciones militares se desligaron de ARPANET y fueron a parar a MILNET, una nueva red creada por los Estados Unidos. La NSF (National Science Fundation) crea su propia red informática llamada NSFNET, que más tarde absorbe a ARPANET, creando así una gran red con propósitos científicos y académicos. La promocion y el desarrollo de las redes fue abismal, y se crean nuevas redes de libre acceso que más tarde se unen a NSFNET, formando el embrión de lo que hoy conocemos como INTERNET.

Y la historia de Internet continúa... poco después de la adopción generalizada del protocolo TCP-IP ARPAnet fue desmilitarizada por completo, lo cual sucedio el 1 de Enero de 1983, fecha que algunos mencionan como la de nacimiento de Internet. Para entonces ya estaba claro que las comunidades académicas eran las principales usuarias de la Red de redes, y que su actividad principal era la de mandarse mensajes de correo electrónico. "En 1985 la Internet ya era una tecnología bien establecida", afirma el documento de la Internet Society, pero era conocida sólo para unos pocos, y aún faltaban muchos años antes que comenzara a ser descubierta por la gente común, y ni hablar del sur del planeta.

En cambio muchos aficionados al género de la ciencia ficción se iniciaban en las visiones de la posteridad ciberespacial a través de una novela muy premiada y traducida, "Neuromante". El autor William Gibson hizo allí una revelación: el término ciberespacio. En esos tiempos la Red

Page 2: Los inicios de Internet

era básicamente textual, así que el escritor se inspiró más bien en los videojuegos. Pero con el tiempo la palabra iba a consolidarse, y ciberespacio terminó por ser sinónimo de Internet.

A esas alturas el futuro estaba desatado. En 1986 la Fundación Nacional de las Ciencias (NSF) de Estados Unidos estableció una 'backbone' o troncal de Internet, con cinco nodos interconectados a altas velocidades. ARPAnet vivía sus últimos momentos, llegaba la hora de su extinción al borde de los 90. En ese momento la acción se trasladó a Suiza.

En el Centro Europeo de Investigaciones Nucleares (CERN), que tiene su sede en esa neutral nación europea, Tim Berners Lee dirigía la búsqueda de un sistema de almacenamiento y recuperación de datos. Rescató entonces un proyecto alucinante llamado 'Xanadú' que había sido proclamado por Ted Nelson, quien anunció el advenimiento del 'hipertexto' como una fórmula para vincular todo el conocimiento humano. Berners Lee retomó la idea de Nelson de usar los 'hipervínculos' y en 1989 presentó un trabajo titulado "El manejo de la información: una propuesta". Robert Caillau, quien cooperó en el proyecto, cuenta que en octubre de 1990 decidieron ponerle un nombre a este sistema, y entonces lo llamaron World Wide Web (WWW) o Telaraña Mundial.

Era el detonador de una explosión. La nueva fórmula permitía vincular la información en forma lógica y a través de las redes. El contenido se programaba mediante un lenguaje de hipertexto con 'etiquetas' que asignaban una función a cada parte del contenido. Y luego un programa de computación, un intérprete, era capaz de leer esas etiquetas para desplegar la información. Ese interprete sería conocido como 'browser' o navegador.

En 1993 ocurrió algo muy importante: Marc Andreesen produjo la primera versión del navegador Mosaic, que permitió acceder con mayor naturalidad a la WWW. La interfaz gráfica iba más allá de lo previsto y la facilidad con la que podía manejarse el programa abría la Red a los legos. Poco después, Andreesen encabezó la creación del programa Netscape.

A partir de entonces Internet comenzó a crecer más rápido que ningún otro medio de comunicación en la historia de la humanidad, convirtiendose en lo que hoy todos conocemos.

Historia de los Buscadores

Por el final de los '80, sin embargo, la cantidad de datos era demasiado grande para confiar en ayudas de otros usuarios. Desde su comienzo en 1983, Internet había crecido a 1000 ordenadores en 1984, a 10.000 en 1987, a 100.000 en 1990 y a 1.000.000 en 1992. La recuperación de datos y clasificación de información se convertía en un cuello de botella y una serie de innovaciones surgieron para resolver el problema.

El principio de Internet , en 1990 se desarrolla en la Universidad de McGill (Montreal) el primer Motor de Búsqueda para buscar, encontrar y extraer archivos. En ese entonces, los archivos de datos y programas fueron colocados en dos categorías: abierto y cerrado. Un usuario podía tener acceso a los archivos 'abiertos' simplemente utilizando el e-mail como contraseña. Después, podía explorar la lista de archivos y descargar cualquiera de ellos utilizando FTP. Uno de estos recopiladores de archivos era Archie, el cual automáticamente, en la noche (cuando el

Page 3: Los inicios de Internet

tráfico era menor) visitaba los archivos conocidos y copiaba la lista en una base de datos investigable (este componente del software era conocido como Spider). Cuando un usuario se registraba en un sitio Archie (por telnet), éste le informaba la ubicación de cualquier archivo y se podían mandar los resultados recuperados vía e-mail. Un comentario llamativo en ese entonces y que la Universidad de McGill pronto descubrió, era que la mitad del tráfico de Estados Unidos y Canadá pasaba a través de su servidor Archie, así que se cerró el acceso público. Para ese entonces, sin embargo, había muchos sitios alternativos que prestaban este mismo servicio.

Durante el transcurso de 1991, el sistema Gopher es desarrollado en la Universidad de Minnesota, lo cual representó una mejora en la recuperación utilizando FTP. Los servidores pusieron sus archivos en forma de menú y los diversos menús de los servidores fueron mezclados. Ahora, un usuario se registraba en cualquier servidor Gopher y podía preguntarle a esos servidores por información ingresando palabras claves y, como en el Archie, se conseguiría una lista de ítems. Pero ahora, en vez de auto enviarse la lista e individualmente buscar los ítems, el usuario miraba la lista, presionaba 'enter' y lo transferían directamente a la dirección 'Gopher' relevante, donde el usuario podía leer los contenidos. Entonces, si el usuario quería, se le enviaba el archivo vía e-mail. Puesto que el 'Gopher' era una manera útil para guardar datos, el sistema se hizo popular muy rápidamente. Dentro del Motor de Búsqueda 'Gopherspace' llamado Veronica (supuestamente por Very Easy Rodent-Oriented Network Index to Computerised Archives) el cual fue desarrollado en la Universidad de Nevada, operaba el mismo principio que en el Archie, pero también permitía la distinción entre una búsqueda de 'directorios' y una búsqueda que combinara directorios y archivos (el último era mucho más grande y consumía más tiempo). Una vez más, después de localizar algo, el usuario se lo auto enviaba a su e-mail.

También 1991 fue el año del nacimiento de WAIS (Wide Area Information Server) que fue desarrollado por Thinking Machines Corporation. WAIS buscaba información en base al contenido. Así pues, si usar el Archie y el Veronica era como buscar con un índice de tarjeta sobre títulos de libro, WAIS era como usar un índice del libro. La base de datos de WAIS era más pequeña que la de los otros dos, pero aun así, buscar en ella era desalentadora y consumía mucho tiempo. Entonces WAIS dividió sus bases de datos en índices separados por tema y el investigador podía entonces restringir la búsqueda de la palabra dentro de la categoría relevante. En su pico, el WAIS conectó 600 bases de datos de todas partes del mundo. WAIS ordenaba los resultados según la frecuencia de aparición y puesto que estaba basado en Gopher, uno podía hacer clic en un documento y leer su contenido (y también mandarlo por e-mail).

Uno puede tener una idea de lo increíble de estos Motores de Búsqueda leyendo /GAF 93/, una publicación contemporánea que dedica capítulos separados a Archie, a Gopher, a Veronica y a WAIS.

Por lo tanto, se podría decir que estos primeros Motores de Búsqueda: - tenían un Robot que recorría la Web descubriendo y analizando las páginas allí existentes - tenían bases de datos construidas tanto de directorios como de archivos - tenían categorías construidas

Page 4: Los inicios de Internet

(específicamente limitados en rango, pero supuestamente realizados para mejorar sitios) y - podían también calificar un documento por términos

Ninguno de los Motores de Búsqueda de la primera generación mencionados anteriormente, al igual que los dinosaurios, ha sobrevivido, pero sí residen en mejores versiones que han sido adaptadas. Los principios que han desarrollado, los cuales han sido refinados y hechos más poderosos, sostienen el diseño de casi todos los Motores de Búsqueda subsecuentes Ésta era la situación a comienzos de los años 90. Entonces, también según /GRI 99/, en 1991 se desarrolló el WWW y dos años más tarde el navegador gráfico Mosaic. Éstos contribuyeron a una expansión enorme de la red, pero también ofrecieron el desarrollo de una nueva generación de Motores de Búsqueda amigables. En 1992 el número de computadores conectados a la red había alcanzado 1.000.000, por 1996 el número había sobrepasado los 10.000.000. Por otra parte, el número de sitios Web comenzaba a aumentar en forma exponencial. Dos años más tarde había 36 millones de computadoras conectadas y 4 millones de sitios Web.

Hay más información de la Web de la nunca antes hubo, pero de muchas formas es más fácil encontrar la información deseada. El usuario puede lograr esto si trabaja sistemática e inteligentemente y tiene un poco de paciencia.

A continuación, se verá brevemente, la historia de los principales Motores de Búsqueda existentes en Internet ordenados por su año de creación y observando las innovaciones que aportaron cada uno de ellos.

1994 - WebCrawler  

Nació a principios de 1994, como un proyecto universitario, en la Universidad de Washington (EE.UU.) Su creador, Brian Pinkerton vendió el Motor de Búsqueda a AOL a mediados de 1995 el cual a fines de 1996 fue adquirido por Excite!.

A pesar de pertenecer a Excite! su funcionamiento es totalmente independiente. WebCrawler, fue el primer Motor de Búsqueda en crear y utilizar el estándar de exclusión de Robots o Spiders, el cual será analizado más adelante. 

Actualmente pertenece a InfoSpace, una empresa de soluciones inalámbricas de Internet.

 

1994 - Lycos

Fundado en Enero de 1994, y lanzado en Internet en Junio del mismo año. Su nombre proviene del latín, por "Lobo Araña". Al igual que otros Motores de Búsqueda, Lycos nació como proyecto de Investigación de la Universidad de Carnegie Mellon por el Dr. Michael Mauldin. Lycos fue la primera empresa en Internet en basar su publicidad en CPM (costo por miles de visualizaciones) la cual es actualmente un estándar en la industria de Internet.

En Abril de 1998, Lycos adquirió la corporación WiseWire la cual es destacada por su software de creación de directorios. Ahora, WiseWire respalda los Directorios Web de Lycos, las cuales son creadas automática y colaborativamente por los usuarios. También incluyó en su base al directorio ODP (Open Directory Project, el directorio de sitios del World Wide Web más grande, organizado en categorías y totalmente construido de forma manual, por usuarios de Internet. Más adelante se presenta al ODP con mayor detalle).

Actualmente Lycos pertenece a la empresa española de contenidos de Internet Terra.

Page 5: Los inicios de Internet

1994 - Excite! 

Fundado por Mark Van Haren, Ryan McIntyre, Ben Lutch, Joe Kraus, Graham Spencer y Martin Reinfried. Estas personas (cinco hackers y un experto en ciencias políticas), investigaron para la Biblioteca de la Universidad de Stanford, cual sería la mejor forma de buscar y recuperar información para solucionar el problema de dicha biblioteca. En Diciembre de 1994, Kleiner, Perkins, Caulfield, Byers y una empresa constituida por capitales de riesgo invirtieron en Excite! USD 4000 para la compra de los primeros equipos. Su lanzamiento en Internet fue un año después (Diciembre de 1995). A mediados de 1996 adquieren al Motor de Búsqueda Magellan y a fines del mismo año adquieren también WebCrawler.

Anteriormente denominado Architext, está siendo desarrollado y administrado en California y ofrece búsquedas basadas en palabras claves o basadas en conceptos (no sólo buscando los términos deseados por el usuario sino también los similares). También Excite! provee una interesante forma de alineación de páginas dinámicas para diferentes sistemas operativos. Por ejemplo, los usuarios de WebTV tiene su vista adaptada a sus requerimientos.

1995 - AltaVista 

AltaVista nació en Abril de 1995, en los Laboratorios de Digital Equipment Corp. (DEC Research) en Palo Alto, California, EE.UU. Sus dueños actuales son COMPAQ y CMGI Inc.

La idea original del nombre AltaVista surge de la conjunción de las palabras Alto (de Palo Alto) con la palabra Vista, siendo el nombre original de dicho Motor Alto Vista, derivándose en el tiempo a la palabra en castellano AltaVista.

En primer término, los ingenieros de DEC Research, crearon un software llamado "Spider" o "Crawl" el cual rastreaba Internet, indizando y mostrando la información recolectada.

La innovación más notable de este Motor de Búsqueda, fue la inclusión de búsqueda multi lengua en Internet, siendo el primero en soportar chino, japonés y coreano utilizando los servicios del traductor Babel Fish (Primer traductor en línea en Internet). Otra de las innovaciones presentadas por este Motor, fue la de permitir búsquedas multimedia, para explorar Internet por fotografías, videos y música, estimados en aquel momento en más de 90 millones de objetos. 

En abril de 2003 fue adquirido por Overture, empresa que luego fue adqurida por Yahoo! por su experiencia en el ramo de promocion web mediante pay per clic.

1995 -Yahoo! 

El de Yahoo! es un caso muy especial porque debe ser el portal de búsqueda de Internet, más viejo, conocido y visitado, pero la mayoría de sus usuarios no saben que Yahoo! es principalmente un directorio Web y no un verdadero Motor de Búsqueda. Por lo tanto, su estructura está basada en sitios Web propuestos por usuarios y no por los encontrados por un Robot o Spider.

Creado por David Filo y Jerry Yang, Ingenieros Eléctricos de la Universidad de Stanford, comenzaron su catálogo en Abril de 1994, para mantener y rastrear los sitios de su propio interés.

El nombre de Yahoo!, supuestamente surge de la frase "Yet Another Hierarchical Officious Oracle", pero Filo y Yang insisten que el nombre fue elegido, porque ellos mismos se consideran yahoos (bárbaros)

Yahoo! en sus inicios residía en la máquina de Yang, llamada, "akebono", mientras que el Motor de Búsqueda se encontraba en la maquina de Filo llamada "konishiki" (ambos nombres en homenaje a los legendarios luchadores de sumo Hawaianos).

Su lanzamiento en Internet fue en Agosto de 1994. Yahoo! es el portal favorito de muchos usuarios de Internet. A pesar de ello, en el último año, agregó servicios alternativos como chat, Correo Electrónico gratis, hosting y la posibilidad de crear comunidades virtuales.

Page 6: Los inicios de Internet

Contrariamente al favoritismo que tienen los usuarios, los administradores de sitios Web de todo el mundo deben lidiar con la ardua tarea de ser incluidos en dicho catálogo (se estima que solo un 4% de los sitios sugeridos son dados de alta en la base).

El Motor de Búsqueda de Yahoo fue Google hasta Febero de 2004. Actualmente Yahoo usa su propio motor de búsqueda el cual esta basado en Inktomi (buscador que adquirió en Marzo de 2003) y basado también en Altavista y en AllTheWeb. Utiliza la tecnología de Overture para las campañas Pay Per Clic.

1996 - Inktomi 

Inktomi deriva de un Motor de Búsqueda desarrollado por la Universidad de Berkeley, California, EE.UU. Fue fundado en 1996 por dos estudiantes de dicha Universidad, llamados Eric Brewer y Paul Gauthier. Su nombre deriva de una leyenda de los Indios Lakota, que trata de una araña tramposa. (Hay que recordar que a los Robots se les llama también Spiders) Inktomi, es conocido por su habilidad en derrotar a sus adversarios comerciales con ingenio y astucia.

Provee servicio de búsqueda a una importante legión de empresas de la web como: HotBot, AOL, ICQ, GeoCities, Search MSN, GoTo, Canada.com, RadarUol, entre otros.

Inktomi no sólo es conocido por su potente Motor de Búsqueda, sino también por lograr la confección de directorios utilizando las páginas obtenidas por su Spider. La tecnología llamada "Concept Induction™" automáticamente analiza y categoriza millones de documentos. Esta tecnología incorpora algoritmos, que tratan de modelar la concepción humana para comprender la información. 

En marzo de 2003 fue adquirido por Yahoo, para ser la base del nuevo motor de búsqueda de Yahoo!.

1996 - HotBot 

Fue lanzada en Internet en 1996. Su diseño y operación estuvieron a cargo de la revista Wired, siendo vendida a Lycos. Actualmente los resultados de HotBot son provistos por otro Motor de Búsqueda: Inktomi u otros motores, el cual se vio anteriormente.

1997 - Google 

Google al igual que la mayoría de los Motores de Búsqueda de Internet, nació como un proyecto de investigación universitaria de dos alumnos: Sergey Brin y Larry Page. Fue en la Universidad de Stanford, EE.UU. en 1997. En 1999, recibió más de 20 millones de dólares de capitales privados, lo cual le permitió estar ubicado dentro de los mejores Buscadores del Netscape Netcenter. A partir de Julio del 2000, paso a ser el principal Motor de Búsqueda de Yahoo!.

En marzo del 2000, innovó el mercado de Motores de Búsqueda con su algoritmo PageRank, siendo usado por primera vez en el proyecto Open Directory. Dicho algoritmo, convirtió a Google en uno de los Buscadores más efectivos del mercado, utilizando dicho sistema. El sistema llamado PageRank, permite a Google filtrar una gran porción de resultados irrelevantes. Este sistema identifica cuántas páginas apuntan a una página en particular para poder así decidir cuáles son las páginas más relevantes. También su arquitectura innova el mercado diferenciando sitios Educativos y Gubernamentales de los sitios Comerciales, los cuales, tienden a utilizar spam contra los Motores de Búsqueda.

El origen del nombre Google, es de un error deliberado de escritura de la palabra "googol", la cual significa 10 a la potencia de 100. Pero en verdad fue escogido porque el nombre sonaba fonéticamente agradable.

1997 - Fast 

El Motor de Búsqueda Fast Search & Transfer, conocido como FAST o como AllTheWeb.com, fue creado en la Universidad de Ciencia y Tecnología de Noruega (NTNU) en Julio de 1997. Su dueño y administrador es Fast Search & Transfer ASA Technologies y fue lanzado a Internet a mediados de 1998; posee una de las bases de datos más grandes de la actualidad. Su sostén principal ha sido la búsqueda especifica de multimedia. A modo de ejemplo, el conjunto de direcciones de FTP para MP3,

Page 7: Los inicios de Internet

WAV, RA y otros tipos de archivos multimedia, es una de las colecciones más grandes de la Web. Fue addqurido por Yahoo.

1998 - DirectHit 

DirectHit fue creado en Marzo de 1998. Su trabajo consiste en monitorear los clics que realizan los usuarios en otros Motores de Búsqueda de los resultados que ven. Cuanto más veces se visita un sitio, mejor es su posición en la calificación. También reconoce frases directamente. Pero, por otro lado, tiene las desventajas que muestra sólo los primeros diez hipervínculos y es imposible buscar dentro de una categoría determinada. Adquirido posteriormente por Ask Jeeves, dueño de Teoma

1998 - Teoma 

Es uno de los últimos Motores de Búsqueda, el cual ha realizado su presentación pública (Versión Beta) a fines del mes de mayo de 1998. Utilizando tecnología desarrollada por una Fundación Federal de Proyectos de Investigación, se implementó en 1998 en los laboratorios de la Universidad de Rutgers.

Teoma devuelve tres tipos diferentes de resultados. En la parte superior de la pantalla, se observan los tópicos relacionados con la palabra clave buscada agrupados en forma de carpetas. Esta estructura, facilita el refinamiento de la búsqueda con un simple clic en el tópico asociado a la palabra buscada.

En la parte inferior, se agrupan los resultados recuperados, ordenados por relevancia que Teoma le ha asignado respecto a la palabra clave buscada.

Teoma calcula la relevancia de una página, analizando los hipervínculos, para identificar "comunidades" en Internet, determinando luego cuales son las autoridades, encontrando así las mejores páginas. Su funcionamiento es similar a Google, pero con algunas diferencias importantes. Por ejemplo, mientras Google utiliza la "sabiduría" de todo Internet para calificar una página, Teoma trata de buscar las autoridades "locales" de determinado tópico para encontrar la información deseada sobre ese tópico en particular. En septiembre de 2001 fue adquirido por Ask Jeeves

1998 - Open Directory Project (ODP) 

Es el directorio más grande y fraternal de la Web, el cual es construido y mantenido por un gran número de voluntarios. Su principal misión es la de colaborar en forma constructiva en el crecimiento de Internet. El ODP provee los medios necesarios para una organización eficiente.

Algunos de los usuarios de ODP (llamados editores), organizan pequeñas porciones de la red para descartar los sitios de pobre contenido y quedarse sólo con los más relevantes. Por esta razón es que el ODP podría llegar a convertirse en el directorio definitivo de la Web. Fue fundado bajo el espíritu del movimiento "Open Source", siendo un directorio sin fines de lucro el cual es muy respetado. No hubo, ni habrá costo alguno para sugerir un sitio a este directorio, así como tampoco habrá costo alguno por su uso.

El ODP provee de información a los Motores de Búsqueda y portales más populares de la Web, incluyendo Netscape Search, AOL Search, Google, Lycos, HotBot, DirectHit y muchos otros.

Los orígenes de Internet en México se remontan a 1987. En 1992 se crea MEXNET, A.C. una organizacion de instituciones académicas que buscaba en ese momento: promover el desarrollo de Internet Mexicano, establecer un Backbone Nacional, crear y difundir una cultura de redes y aplicaciones en relación al Internet y contar con conexiones a nivel mundial.

Logros: diseñamos y operamos el primer Backbone Nacional de 64 kbps en asociación con RTN, ahora de 2 mbps. Fuimos líderes en experimentación de nuevas tecnologías en Internet. Se cuenta ahora con dos salidas internacionales.

Page 8: Los inicios de Internet

WWW en México, orígenes:

A principios de 1994 se da la iniciativa de Mexnet para desarrollar servicios en la red.

El ITESM inicia un home page experimental. La UDLA desarrolla su Mosaic. La UDG presenta su Mosaic y desarrolla una sección sobre arte y cultura mexicana.

1994 Situación de la Red Nacional:

Bajo el dominio mx estaban declaradas 44 instituciones académicas, cinco empresas en com.mx y una institución en gob.mx.

Se habían asignado 150 direcciones IP en México de las cuales 50 eran clase B y 100 clase C.

Para este año existían ya nueve enlaces internacionales: dos del ITESM, dos de RTN, dos de Red UNAM, uno de CEtyS, uno de I.T. Mexicali y uno de UABC.

En 1995 teníamos la posición 31 en base al número de hosts registrados y todavía ocupamos el segundo lugar en Latinoamérica después de Brasil.

El número de servidores World Wide Web creció 160% entre 1994 y 1995, actualmente es de cerca de 2000%.

Para diciembre de 1996 los dominios .mx eran 2,618.

Qué esperamos:

Un mayor ancho de banda. Nuevos servicios telefónicos digitales. Modems por el coaxial de la CATV. Tecnología satelital digital. Nuevos dispositivos y equipos como PDA's, Palmtops, integración al 100% de

celulares con computadoras, la WebTV.

Tendencias:

Redes más solidas y estables. Crecimiento en negocios. Comercio electrónico. Más y mejores servicios de red. Nuevas oportunidades de estudios. Explotación del área de educación. Migración de herramientas de edición publicitaria, groupware, de oficina, de

entrenamiento y tutoriales, de multimedia, todos en versiones Internet. Las nuevas tecnologías y medios de transmisión reducirán significativamente los

precios y aumentarán la facilidad de uso. La nueva televisión digital será la última frontera.

Crecimiento de la industria de entretenimiento. Nueva legislación para regular el medio. Nuevas aplicaciones de audio y videoconferencia. El correo electrónico será una necesidad social.

Page 9: Los inicios de Internet

Internet ha supuesto una revolución sin precedentes en el mundo de la informática y de las comunicaciones. Los inventos del telégrafo, teléfono, radio y ordenador sentaron las bases para esta integración de capacidades nunca antes vivida. Internet es a la vez una oportunidad de difusión mundial, un mecanismo de propagación de la información y un medio de colaboración e interacción entre los individuos y sus ordenadores independientemente de su localización geográfica.

Internet representa uno de los ejemplos más exitosos de los beneficios de la inversión sostenida y del compromiso de investigación y desarrollo en infraestructuras informáticas. A raíz de la primitiva investigación en conmutación de paquetes, el gobierno, la industria y el mundo académico han sido copartícipes de la evolución y desarrollo de esta nueva y excitante tecnología. Hoy en día, términos como [email protected] y http: www.acm.org fluyen fácilmente en el lenguaje común de las personas (1).

Esta pretende ser una historia breve y, necesariamente, superficial e incompleta, de Internet. Existe actualmente una gran cantidad de material sobre la historia, tecnología y uso de Internet. Un paseo por casi cualquier librería nos descubrirá un montón de estanterías con material escrito sobre Internet (2).

En este artículo (3), varios de nosotros, implicados en el desarrollo y evolución de Internet, compartimos nuestros puntos de vista sobre sus orígenes e historia. Esta historia gira en torno a cuatro aspectos distintos. Existe una evolución tecnológica que comienza con la primitiva investigación en conmutación de paquetes, ARPANET y tecnologías relacionadas en virtud de la cual la investigación actual continúa tratando de expandir los horizontes de la infraestructura en dimensiones tales como escala, rendimiento y funcionalidades de alto nivel. Hay aspectos de operación y gestión de una infraestructura operacional global y compleja. Existen aspectos sociales, que tuvieron como consecuencia el nacimiento de una amplia comunidad de internautas trabajando juntos para crear y hacer evolucionar la tecnología. Y finalmente, el aspecto de comercialización que desemboca en una transición enormemente efectiva desde los resultados de la investigación hacia una infraestructura informática ampliamente desarrollada y disponible.

Internet hoy en día es una infraestructura informática ampliamente extendida. Su primer prototipo es a menudo denominado National Global or Galactic Information Infrastructure (Infraestructura de Información Nacional Global o Galáctica). Su historia es compleja y comprende muchos aspectos: tecnológico, organizacional y comunitario. Y su influencia alcanza no solamente al campo técnico de las comunicaciones computacionales sino también a toda la sociedad en la medida en que nos movemos hacia el incremento del uso de las herramientas online para llevar a cabo el comercio electrónico, la adquisición de información y la acción en comunidad.

Page 10: Los inicios de Internet

Orígenes de Internet

La primera descripción documentada acerca de las interacciones sociales que podrían ser propiciadas a través del networking (trabajo en red) está contenida en una serie de memorándums escritos por J.C.R. Licklider, del Massachusetts Institute of Technology, en Agosto de 1962, en los cuales Licklider discute sobre su concepto de Galactic Network (Red Galáctica). El concibió una red interconectada globalmente a través de la que cada uno pudiera acceder desde cualquier lugar a datos y programas. En esencia, el concepto era muy parecido a la Internet actual. Licklider fue el principal responsable del programa de investigación en ordenadores de la DARPA (4) desde Octubre de 1962. Mientras trabajó en DARPA convenció a sus sucesores Ivan Sutherland, Bob Taylor, y el investigador del MIT Lawrence G. Roberts de la importancia del concepto de trabajo en red.

En Julio de 1961 Leonard Kleinrock publicó desde el MIT el primer documento sobre la teoría de conmutación de paquetes. Kleinrock convenció a Roberts de la factibilidad teórica de las comunicaciones vía paquetes en lugar de circuitos, lo cual resultó ser un gran avance en el camino hacia el trabajo informático en red. El otro paso fundamental fue hacer dialogar a los ordenadores entre sí. Para explorar este terreno, en 1965, Roberts conectó un ordenador TX2 en Massachusetts con un Q-32 en California a través de una línea telefónica conmutada de baja velocidad, creando así la primera (aunque reducida) red de ordenadores de área amplia jamás construida. El resultado del experimento fue la constatación de que los ordenadores de tiempo compartido podían trabajar juntos correctamente, ejecutando programas y recuperando datos a discreción en la máquina remota, pero que el sistema telefónico de conmutación de circuitos era totalmente inadecuado para esta labor. La convicción de Kleinrock acerca de la necesidad de la conmutación de paquetes quedó pues confirmada.

A finales de 1966 Roberts se trasladó a la DARPA a desarrollar el concepto de red de ordenadores y rápidamente confeccionó su plan para ARPANET, publicándolo en 1967. En la conferencia en la que presentó el documento se exponía también un trabajo sobre el concepto de red de paquetes a cargo de Donald Davies y Roger Scantlebury del NPL. Scantlebury le habló a Roberts sobre su trabajo en el NPL así como sobre el de Paul Baran y otros en RAND. El grupo RAND había escrito un documento sobre redes de conmutación de paquetes para comunicación vocal segura en el ámbito militar, en 1964. Ocurrió que los trabajos del MIT (1961-67), RAND (1962-65) y NPL (1964-67) habían discurrido en paralelo sin que los investigadores hubieran conocido el trabajo de los demás. La palabra packet (paquete) fue adoptada a partir del trabajo del NPL y la velocidad de la línea propuesta para ser usada en el diseño de ARPANET fue aumentada desde 2,4 Kbps hasta 50 Kbps (5).

En Agosto de 1968, después de que Roberts y la comunidad de la DARPA hubieran refinado la estructura global y las especificaciones de ARPANET, DARPA lanzó un RFQ para el desarrollo de uno de sus componentes clave: los conmutadores de paquetes llamados interface message processors (IMPs,

Page 11: Los inicios de Internet

procesadores de mensajes de interfaz). El RFQ fue ganado en Diciembre de 1968 por un grupo encabezado por Frank Heart, de Bolt Beranek y Newman (BBN). Así como el equipo de BBN trabajó en IMPs con Bob Kahn tomando un papel principal en el diseño de la arquitectura de la ARPANET global, la topología de red y el aspecto económico fueron diseñados y optimizados por Roberts trabajando con Howard Frank y su equipo en la Network Analysis Corporation, y el sistema de medida de la red fue preparado por el equipo de Kleinrock de la Universidad de California, en Los Angeles (6).

A causa del temprano desarrollo de la teoría de conmutación de paquetes de Kleinrock y su énfasis en el análisis, diseño y medición, su Network Measurement Center (Centro de Medidas de Red) en la UCLA fue seleccionado para ser el primer nodo de ARPANET. Todo ello ocurrió en Septiembre de 1969, cuando BBN instaló el primer IMP en la UCLA y quedó conectado el primer ordenador host. El proyecto de Doug Engelbart denominado Augmentation of Human Intelect (Aumento del Intelecto Humano) que incluía NLS, un primitivo sistema hipertexto en el Instituto de Investigación de Standford (SRI) proporcionó un segundo nodo. El SRI patrocinó el Network Information Center, liderado por Elizabeth (Jake) Feinler, que desarrolló funciones tales como mantener tablas de nombres de host para la traducción de direcciones así como un directorio de RFCs (Request For Comments). Un mes más tarde, cuando el SRI fue conectado a ARPANET, el primer mensaje de host a host fue enviado desde el laboratorio de Leinrock al SRI. Se añadieron dos nodos en la Universidad de California, Santa Bárbara, y en la Universidad de Utah. Estos dos últimos nodos incorporaron proyectos de visualización de aplicaciones, con Glen Culler y Burton Fried en la UCSB investigando métodos para mostrar funciones matemáticas mediante el uso de "storage displays" (N. del T.: mecanismos que incorporan buffers de monitorización distribuidos en red para facilitar el refresco de la visualización) para tratar con el problema de refrescar sobre la red, y Robert Taylor y Ivan Sutherland en Utah investigando métodos de representación en 3-D a través de la red. Así, a finales de 1969, cuatro ordenadores host fueron conectados cojuntamente a la ARPANET inicial y se hizo realidad una embrionaria Internet. Incluso en esta primitiva etapa, hay que reseñar que la investigación incorporó tanto el trabajo mediante la red ya existente como la mejora de la utilización de dicha red. Esta tradición continúa hasta el día de hoy.

Se siguieron conectando ordenadores rápidamente a la ARPANET durante los años siguientes y el trabajo continuó para completar un protocolo host a host funcionalmente completo, así como software adicional de red. En Diciembre de 1970, el Network Working Group (NWG) liderado por S.Crocker acabó el protocolo host a host inicial para ARPANET, llamado Network Control Protocol (NCP, protocolo de control de red). Cuando en los nodos de ARPANET se completó la implementación del NCP durante el periodo 1971-72, los usuarios de la red pudieron finalmente comenzar a desarrollar aplicaciones.

En Octubre de 1972, Kahn organizó una gran y muy exitosa demostración de ARPANET en la International Computer Communication Conference. Esta fue la primera demostración pública de la nueva tecnología de red. Fue también en

Page 12: Los inicios de Internet

1972 cuando se introdujo la primera aplicación "estrella": el correo electrónico. 

En Marzo, Ray Tomlinson, de BBN, escribió el software básico de envío-recepción de mensajes de correo electrónico, impulsado por la necesidad que tenían los desarrolladores de ARPANET de un mecanismo sencillo de coordinación. En Julio, Roberts expandió su valor añadido escribiendo el primer programa de utilidad de correo electrónico para relacionar, leer selectivamente, almacenar, reenviar y responder a mensajes. Desde entonces, la aplicación de correo electrónico se convirtió en la mayor de la red durante más de una década. Fue precursora del tipo de actividad que observamos hoy día en la World Wide Web, es decir, del enorme crecimiento de todas las formas de tráfico persona a persona.

Conceptos iniciales sobre Internetting

La ARPANET original evolucionó hacia Internet. Internet se basó en la idea de que habría múltiples redes independientes, de diseño casi arbitrario, empezando por ARPANET como la red pionera de conmutación de paquetes, pero que pronto incluiría redes de paquetes por satélite, redes de paquetes por radio y otros tipos de red. Internet como ahora la conocemos encierra una idea técnica clave, la de arquitectura abierta de trabajo en red. Bajo este enfoque, la elección de cualquier tecnología de red individual no respondería a una arquitectura específica de red sino que podría ser seleccionada libremente por un proveedor e interactuar con las otras redes a través del metanivel de la arquitectura de Internetworking (trabajo entre redes). Hasta ese momento, había un sólo método para "federar" redes. Era el tradicional método de conmutación de circuitos, por el cual las redes se interconectaban a nivel de circuito pasándose bits individuales síncronamente a lo largo de una porción de circuito que unía un par de sedes finales. Cabe recordar que Kleinrock había mostrado en 1961 que la conmutación de paquetes era el método de conmutación más eficiente. Juntamente con la conmutación de paquetes, las interconexiones de propósito especial entre redes constituían otra posibilidad. Y aunque había otros métodos limitados de interconexión de redes distintas, éstos requerían que una de ellas fuera usada como componente de la otra en lugar de actuar simplemente como un extremo de la comunicación para ofrecer servicio end-to-end (extremo a extremo).

En una red de arquitectura abierta, las redes individuales pueden ser diseñadas y desarrolladas separadamente y cada una puede tener su propia y única interfaz, que puede ofrecer a los usuarios y/u otros proveedores, incluyendo otros proveedores de Internet. Cada red puede ser diseñada de acuerdo con su entorno específico y los requerimientos de los usuarios de aquella red. No existen generalmente restricciones en los tipos de red que pueden ser incorporadas ni tampoco en su ámbito geográfico, aunque ciertas consideraciones pragmáticas determinan qué posibilidades tienen sentido. La idea de arquitectura de red abierta fue introducida primeramente por Kahn un poco antes de su llegada a la DARPA en 1972. Este trabajo fue originalmente parte de su programa de paquetería por radio, pero más tarde se convirtió por derecho propio en un programa separado. Entonces, el programa fue llamado

Page 13: Los inicios de Internet

Internetting. La clave para realizar el trabajo del sistema de paquetería por radio fue un protocolo extremo a extremo seguro que pudiera mantener la comunicación efectiva frente a los cortes e interferencias de radio y que pudiera manejar las pérdidas intermitentes como las causadas por el paso a través de un túnel o el bloqueo a nivel local. Kahn pensó primero en desarrollar un protocolo local sólo para la red de paquetería por radio porque ello le hubiera evitado tratar con la multitud de sistemas operativos distintos y continuar usando NCP.

Sin embargo, NCP no tenía capacidad para direccionar redes y máquinas más allá de un destino IMP en ARPANET y de esta manera se requerían ciertos cambios en el NCP. La premisa era que ARPANET no podía ser cambiado en este aspecto. El NCP se basaba en ARPANET para proporcionar seguridad extremo a extremo. Si alguno de los paquetes se perdía, el protocolo y presumiblemente cualquier aplicación soportada sufriría una grave interrupción. En este modelo, el NCP no tenía control de errores en el host porque ARPANET había de ser la única red existente y era tan fiable que no requería ningún control de errores en la parte de los hosts.

Así, Kahn decidió desarrollar una nueva versión del protocolo que pudiera satisfacer las necesidades de un entorno de red de arquitectura abierta. El protocolo podría eventualmente ser denominado "Transmisson-Control Protocol/Internet Protocol" (TCP/IP, protocolo de control de transmisión /protocolo de Internet). Así como el NCP tendía a actuar como un driver (manejador) de dispositivo, el nuevo protocolo sería más bien un protocolo de comunicaciones.

Reglas clave

Cuatro fueron las reglas fundamentales en las primeras ideas de Kahn:

Cada red distinta debería mantenerse por sí misma y no deberían requerirse cambios internos a ninguna de ellas para conectarse a Internet.

Las comunicaciones deberían ser establecidas en base a la filosofía del "best-effort" (lo mejor posible). Si un paquete no llegara a su destino debería ser en breve retransmitido desde el emisor.

Para interconectar redes se usarían cajas negras, las cuales más tarde serían denominadas gateways (pasarelas) y routers (enrutadores). Los gateways no deberían almacenar información alguna sobre los flujos individuales de paquetes que circulasen a través de ellos, manteniendo de esta manera su simplicidad y evitando la complicada adaptación y recuperación a partir de las diversas modalidades de fallo.

No habría ningún control global a nivel de operaciones.

Otras cuestiones clave que debían ser resueltas eran:

Algoritmos para evitar la pérdida de paquetes en base a la invalidación de las comunicaciones y la reiniciación de las mismas para la

Page 14: Los inicios de Internet

retransmisión exitosa desde el emisor. Provisión de pipelining ("tuberías") host a host de tal forma que se

pudieran enrutar múltiples paquetes desde el origen al destino a discreción de los hosts participantes, siempre que las redes intermedias lo permitieran.

Funciones de pasarela para permitir redirigir los paquetes adecuadamente. Esto incluía la interpretación de las cabeceras IP para enrutado, manejo de interfaces y división de paquetes en trozos más pequeños si fuera necesario.

La necesidad de controles (checksums) extremo a extremo, reensamblaje de paquetes a partir de fragmentos, y detección de duplicados si los hubiere.

Necesidad de direccionamiento global. Técnicas para el control del flujo host a host. Interacción con varios sistemas operativos. Implementación eficiente y rendimiento de la red, aunque en principio

éstas eran consideraciones secundarias.

Kahn empezó a trabajar en un conjunto de principios para sistemas operativos orientados a comunicaciones mientras se encontraba en BBN y escribió algunas de sus primeras ideas en un memorándum interno de BBN titulado "Communications Principles for Operating Systems". En ese momento, se dió cuenta de que le sería necesario aprender los detalles de implementación de cada sistema operativo para tener la posibilidad de incluir nuevos protocolos de manera eficiente. Así, en la primavera de 1973, después de haber empezado el trabajo de "Internetting", le pidió a Vinton Cerf (entonces en la Universidad de Stanford) que trabajara con él en el diseño detallado del protocolo. Cerf había estado íntimamente implicado en el diseño y desarrollo original del NCP y ya tenía conocimientos sobre la construcción de interfaces con los sistemas operativos existentes. De esta forma, valiéndose del enfoque arquitectural de Kahn en cuanto a comunicaciones y de la experiencia en NCP de Cerf, se asociaron para abordar los detalles de lo que acabaría siendo TCP/IP.

El trabajo en común fue altamente productivo y la primera versión escrita (7) bajo este enfoque fue distribuida en una sesión especial del INWG (International Network Working Group, Grupo de trabajo sobre redes internacionales) que había sido convocada con motivo de una conferencia de la Universidad de Sussex en Septiembre de 1973. Cerf había sido invitado a presidir el grupo y aprovechó la ocasión para celebrar una reunión de los miembros del INWG, ampliamente representados en esta conferencia de Sussex.

Estas son las directrices básicas que surgieron de la colaboración entre Kahn y Cerf:

Las comunicaciones entre dos procesos consistirían lógicamente en un larga corriente de bytes; ellos los llamaban "octetos". La posición de un octeto dentro de esta corriente de datos sería usada para identificarlo.

Page 15: Los inicios de Internet

El control del flujo se realizaría usando ventanas deslizantes y acks (N. del T.: abreviatura de acknowledgement, acuse de recibo). El destinatario podría decidir cuando enviar acuse de recibo y cada ack devuelto correspondería a todos los paquetes recibidos hasta el momento.

Se dejó abierto el modo exacto en que emisor y destinatario acordarían los parámetros sobre los tamaños de las ventanas a usar. Se usaron inicialmente valores por defecto.

Aunque en aquellos momentos Ethernet estaba en desarrollo en el PARC de Xerox, la proliferación de LANs no había sido prevista entonces y mucho menos la de PCs y estaciones de trabajo. El modelo original fue concebido como un conjunto, que se esperaba reducido, de redes de ámbito nacional tipo ARPANET. De este modo, se usó una dirección IP de 32 bits, de la cual los primeros 8 identificaban la red y los restantes 24 designaban el host dentro de dicha red. La decisión de que 256 redes sería suficiente para el futuro previsible debió empezar a reconsiderarse en cuanto las LANs empezaron a aparecer a finales de los setenta.

El documento original de Cerf y Kahn sobre Internet describía un protocolo, llamado TCP, que se encargaba de proveer todos los servicios de transporte y reenvío en Internet. Kahn pretendía que TCP diera soporte a un amplio rango de servicios de transporte, desde el envío secuencial de datos, totalmente fiable (modelo de circuito virtual) hasta un servicio de datagramas en el que la aplicación hiciera un uso directo del servicio de red subyacente, lo que podría implicar pérdida ocasional, corrupción o reordenación de paquetes.

Sin embargo, el esfuerzo inicial de implementación de TCP dio lugar a una versión que sólo permitía circuitos virtuales. Este modelo funcionaba perfectamente en la transferencia de ficheros y en las aplicaciones de login remoto, pero algunos de los primeros trabajos sobre aplicaciones avanzadas de redes (en particular el empaquetamiento de voz en los años 70) dejó bien claro que, en ciertos casos, el TCP no debía encargarse de corregir las pérdidas de paquetes y que había que dejar a la aplicación que se ocupara de ello. Esto llevó a la reorganización del TCP original en dos protocolos: uno sencillo, IP, que se encargara tan sólo de dar una dirección a los paquetes y de reenviarlos; y un TCP que se dedicara a una serie de funcionalidades como el control del flujo y la recuperación de los paquetes perdidos. Para aquellas aplicaciones que no precisan los servicios de TCP, se añadió un protocolo alternativo llamado UDP (User Datagram Protocol, protocolo de datagramas de usuario) dedicado a dar un acceso directo a los servicios básicos del IP.

Una de las motivaciones iniciales de ARPANET e Internet fue compartir recursos, por ejemplo, permitiendo que usuarios de redes de paquetes sobre radio pudieran acceder a sistemas de tiempo compartido conectados a ARPANET. Conectar las dos redes era mucho más económico que duplicar estos carísimos ordenadores. Sin embargo, mientras la transferencia de ficheros y el login remoto (Telnet) eran aplicaciones muy importantes, de todas las de esta época probablemente sea el correo electrónico la que haya tenido un impacto más significativo. El correo electrónicodio lugar a un nuevo modelo

Page 16: Los inicios de Internet

de comunicación entre las personas y cambió la naturaleza de la colaboración. Su influencia se manifestó en primer lugar en la construcción de la propia Internet (como veremos más adelante), y posteriormente, en buena parte de la sociedad.

Se propusieron otras aplicaciones en los primeros tiempos de Internet, desde la comunicación vocal basada en paquetes (precursora de la telefonía sobre Internet) o varios modelos para compartir ficheros y discos, hasta los primeros "programas-gusano" que mostraban el concepto de agente (y, por supuesto, de virus). Un concepto clave en Internet es que no fue diseñada para una única aplicación sino como una infraestructura general dentro de la que podrían concebirse nuevos servicios, como con posterioridad demostró la aparición de la World Wide Web. Este fue posible solamente debido a la orientación de propósito general que tenía el servicio implementado mediante TCP e IP.

Ideas a prueba

DARPA formalizó tres contratos con Stanford (Cerf), BBN (Ray Tomlinson) y UCLA (Peter Kirstein) para implementar TCP/IP (en el documento original de Cerf y Kahn se llamaba simplemente TCP pero contenía ambos componentes). El equipo de Stanford, dirigido por Cerf, produjo las especificaciones detalladas y al cabo de un año hubo tres implementaciones independientes de TCP que podían interoperar.

Este fue el principio de un largo periodo de experimentación y desarrollo para evolucionar y madurar el concepto y tecnología de Internet. Partiendo de las tres primeras redes ARPANET, radio y satélite y de sus comunidades de investigación iniciales, el entorno experimental creció hasta incorporar esencialmente cualquier forma de red y una amplia comunidad de investigación y desarrollo [REK78]. Cada expansión afrontó nuevos desafíos.

Las primeras implementaciones de TCP se hicieron para grandes sistemas en tiempo compartido como Tenex y TOPS 20. Cuando aparecieron los ordenadores de sobremesa (desktop), TCP era demasiado grande y complejo como para funcionar en ordenadores personales. David Clark y su equipo de investigación del MIT empezaron a buscar la implementación de TCP más sencilla y compacta posible. La desarrollaron, primero para el Alto de Xerox (la primera estación de trabajo personal desarrollada en el PARC de Xerox), y luego para el PC de IBM. Esta implementación operaba con otras de TCP, pero estaba adaptada al conjunto de aplicaciones y a las prestaciones de un ordenador personal, y demostraba que las estaciones de trabajo, al igual que los grandes sistemas, podían ser parte de Internet.

En los años 80, el desarrollo de LAN, PC y estaciones de trabajo permitió que la naciente Internet floreciera. La tecnología Ethernet, desarrollada por Bob Metcalfe en el PARC de Xerox en 1973, es la dominante en Internet, y los PCs y las estaciones de trabajo los modelos de ordenador dominantes. El cambio que supone pasar de una pocas redes con un modesto número de hosts (el

Page 17: Los inicios de Internet

modelo original de ARPANET) a tener muchas redes dio lugar a nuevos conceptos y a cambios en la tecnología. En primer lugar, hubo que definir tres clases de redes (A, B y C) para acomodar todas las existentes. La clase A representa a las redes grandes, a escala nacional (pocas redes con muchos ordenadores); la clase B representa redes regionales; por último, la clase C representa redes de área local (muchas redes con relativamente pocos ordenadores).

Como resultado del crecimiento de Internet, se produjo un cambio de gran importancia para la red y su gestión. Para facilitar el uso de Internet por sus usuarios se asignaron nombres a los hosts de forma que resultara innecesario recordar sus direcciones numéricas. Originalmente había un número muy limitado de máquinas, por lo que bastaba con una simple tabla con todos los ordenadores y sus direcciones asociadas.

El cambio hacia un gran número de redes gestionadas independientemente (por ejemplo, las LAN) significó que no resultara ya fiable tener una pequeña tabla con todos los hosts. Esto llevó a la invención del DNS (Domain Name System, sistema de nombres de dominio) por Paul Mockapetris de USC/ISI. El DNS permitía un mecanismo escalable y distribuido para resolver jerárquicamente los nombres de los hosts (por ejemplo, www.acm.org o www.ati.es) en direcciones de Internet.

El incremento del tamaño de Internet resultó también un desafío para los routers. Originalmente había un sencillo algoritmo de enrutamiento que estaba implementado uniformemente en todos los routers de Internet. A medida que el número de redes en Internet se multiplicaba, el diseño inicial no era ya capaz de expandirse, por lo que fue sustituido por un modelo jerárquico de enrutamiento con un protocolo IGP (Interior Gateway Protocol, protocolo interno de pasarela) usado dentro de cada región de Internet y un protocolo EGP (Exterior Gateway Protocol, protocolo externo de pasarela) usado para mantener unidas las regiones. El diseño permitía que distintas regiones utilizaran IGP distintos, por lo que los requisitos de coste, velocidad de configuración, robustez y escalabilidad, podían ajustarse a cada situación. Los algoritmos de enrutamiento no eran los únicos en poner en dificultades la capacidad de los routers, también lo hacía el tamaño de la tablas de direccionamiento. Se presentaron nuevas aproximaciones a la agregación de direcciones (en particular CIDR, Classless Interdomain Routing, enrutamiento entre dominios sin clase) para controlar el tamaño de las tablas de enrutamiento.

A medida que evolucionaba Internet, la propagación de los cambios en el software, especialmente el de los hosts, se fue convirtiendo en uno de sus mayores desafíos. DARPA financió a la Universidad de California en Berkeley en una investigación sobre modificaciones en el sistema operativo Unix, incorporando el TCP/IP desarrollado en BBN. Aunque posteriormente Berkeley modificó esta implementación del BBN para que operara de forma más eficiente con el sistema y el kernel de Unix, la incorporación de TCP/IP en el sistema Unix BSD demostró ser un elemento crítico en la difusión de los

Page 18: Los inicios de Internet

protocolos entre la comunidad investigadora. BSD empezó a ser utilizado en sus operaciones diarias por buena parte de la comunidad investigadora en temas relacionados con informática. Visto en perspectiva, la estrategia de incorporar los protocolos de Internet en un sistema operativo utilizado por la comunidad investigadora fue uno de los elementos clave en la exitosa y amplia aceptación de Internet.

Uno de los desafíos más interesantes fue la transición del protocolo para hosts de ARPANET desde NCP a TCP/IP el 1 de enero de 1983. Se trataba de una ocasión muy importante que exigía que todos los hosts se convirtieran simultáneamente o que permanecieran comunicados mediante mecanismos desarrollados para la ocasión. La transición fue cuidadosamente planificada dentro de la comunidad con varios años de antelación a la fecha, pero fue sorprendentemente sobre ruedas (a pesar de dar la lugar a la distribución de insignias con la inscripción "Yo sobreviví a la transición a TCP/IP").

TCP/IP había sido adoptado como un estándar por el ejército norteamericano tres años antes, en 1980. Esto permitió al ejército empezar a compartir la tecnología DARPA basada en Internet y llevó a la separación final entre las comunidades militares y no militares. En 1983 ARPANET estaba siendo usada por un número significativo de organizaciones operativas y de investigación y desarrollo en el área de la defensa. La transición desde NCP a TCP/IP en ARPANET permitió la división en una MILNET para dar soporte a requisitos operativos y una ARPANET para las necesidades de investigación.

Así, en 1985, Internet estaba firmemente establecida como una tecnología que ayudaba a una amplia comunidad de investigadores y desarrolladores, y empezaba a ser empleada por otros grupos en sus comunicaciones diarias entre ordenadores. El correo electrónico se empleaba ampliamente entre varias comunidades, a menudo entre distintos sistemas. La interconexión entre los diversos sistemas de correo demostraba la utilidad de las comunicaciones electrónicas entre personas.

La transición hacia una infraestructura global

Al mismo tiempo que la tecnología Internet estaba siendo validada experimentalmente y usada ampliamente entre un grupo de investigadores de informática se estaban desarrollando otras redes y tecnologías. La utilidad de las redes de ordenadores (especialmente el correo electrónico utilizado por los contratistas de DARPA y el Departamento de Defensa en ARPANET) siguió siendo evidente para otras comunidades y disciplinas de forma que a mediados de los años 70 las redes de ordenadores comenzaron a difundirse allá donde se podía encontrar financiación para las mismas. El Departamento norteamericano de Energía (DoE, Deparment of Energy) estableció MFENet para sus investigadores que trabajaban sobre energía de fusión, mientras que los físicos de altas energías fueron los encargados de construir HEPNet. Los físicos de la NASA continuaron con SPAN y Rick Adrion, David Farber y Larry Landweber fundaron CSNET para la comunidad informática académica y de la industria con la financiación inicial de la NFS (National Science Foundation,

Page 19: Los inicios de Internet

Fundación Nacional de la Ciencia) de Estados Unidos. La libre diseminación del sistema operativo Unix de ATT dio lugar a USENET, basada en los protocolos de comunicación UUCP de Unix, y en 1981 Greydon Freeman e Ira Fuchs diseñaron BITNET, que unía los ordenadores centrales del mundo académico siguiendo el paradigma de correo electrónico como "postales". Con la excepción de BITNET y USENET, todas las primeras redes (como ARPANET) se construyeron para un propósito determinado. Es decir, estaban dedicadas (y restringidas) a comunidades cerradas de estudiosos; de ahí las escasas presiones por hacer estas redes compatibles y, en consecuencia, el hecho de que durante mucho tiempo no lo fueran. Además, estaban empezando a proponerse tecnologías alternativas en el sector comercial, como XNS de Xerox, DECNet, y la SNA de IBM (8). Sólo restaba que los programas ingleses JANET (1984) y norteamericano NSFNET (1985) anunciaran explícitamente que su propósito era servir a toda la comunidad de la enseñanza superior sin importar su disciplina. De hecho, una de las condiciones para que una universidad norteamericana recibiera financiación de la NSF para conectarse a Internet era que "la conexión estuviera disponible para todos los usuarios cualificados del campus".

En 1985 Dennins Jenning acudió desde Irlanda para pasar un año en NFS dirigiendo el programa NSFNET. Trabajó con el resto de la comunidad para ayudar a la NSF a tomar una decisión crítica: si TCP/IP debería ser obligatorio en el programa NSFNET. Cuando Steve Wolff llegó al programa NFSNET en 1986 reconoció la necesidad de una infraestructura de red amplia que pudiera ser de ayuda a la comunidad investigadora y a la académica en general, junto a la necesidad de desarrollar una estrategia para establecer esta infraestructura sobre bases independientes de la financiación pública directa. Se adoptaron varias políticas y estrategias para alcanzar estos fines.

La NSF optó también por mantener la infraestructura organizativa de Internet existente (DARPA) dispuesta jerárquicamente bajo el IAB (Internet Activities Board, Comité de Actividades de Internet). La declaración pública de esta decisión firmada por todos sus autores (por los grupos de Arquitectura e Ingeniería de la IAB, y por el NTAG de la NSF) apareció como la RFC 985 ("Requisitos para pasarelas de Internet") que formalmente aseguraba la interoperatividad entre las partes de Internet dependientes de DARPA y de NSF.

Junto a la selección de TCP/IP para el programa NSFNET, las agencias federales norteamericanas idearon y pusieron en práctica otras decisiones que llevaron a la Internet de hoy:

Las agencias federales compartían el coste de la infraestructura común, como los circuitos transoceánicos. También mantenían la gestión de puntos de interconexión para el tráfico entre agencias: los "Federal Internet Exchanges" (FIX-E y FIX-W) que se desarrollaron con este propósito sirvieron de modelo para los puntos de acceso a red y los sistemas *IX que son unas de las funcionalidades más destacadas de la arquitectura de la Internet actual.

Para coordinar estas actividades se formó el FNC (Federal Networking

Page 20: Los inicios de Internet

Council, Consejo Federal de Redes) (9). El FNC cooperaba también con otras organizaciones internacionales, como RARE en Europa, a través del CCIRN (Coordinating Committee on Intercontinental Research Networking, Comité de Coordinación Intercontinental de Investigación sobre Redes) para coordinar el apoyo a Internet de la comunidad investigadora mundial.

Esta cooperación entre agencias en temas relacionados con Internet tiene una larga historia. En 1981, un acuerdo sin precedentes entre Farber, actuando en nombre de CSNET y NSF, y Kahn por DARPA, permitió que el tráfico de CSNET compartiera la infraestructura de ARPANET de acuerdo según parámetros estadísticos.

En consecuencia, y de forma similar, la NFS promocionó sus redes regionales de NSFNET, inicialmente académicas, para buscar clientes comerciales, expandiendo sus servicios y explotando las economías de escala resultantes para reducir los costes de suscripción para todos.

En el backbone NFSNET (el segmento que cruza los EE.UU.) NSF estableció una política aceptable de uso (AUP, Acceptable Use Policy) que prohibía el uso del backbone para fines "que no fueran de apoyo a la Investigación y la Educación". El predecible e intencionado resultado de promocionar el tráfico comercial en la red a niveles locales y regionales era estimular la aparición y/o crecimiento de grandes redes privadas y competitivas como PSI, UUNET, ANS CO+RE, y, posteriormente, otras. Este proceso de aumento de la financiación privada para el uso comercial se resolvió tras largas discusiones que empezaron en 1988 con una serie de conferencias patrocinadas por NSF en la Kennedy School of Government de la Universidad de Harvard, bajo el lema "La comercialización y privatización de Internet", complementadas por la lista "com-priv" de la propia red.

En 1988 un comité del National Research Council (Consejo Nacional de Investigación), presidido por Kleinrock y entre cuyos miembros estaban Clark y Kahn, elaboró un informe dirigido a la NSF y titulado "Towards a National Research Network". El informe llamó la atención del entonces senador Al Gore (N. del T.: Vicepresidente de los EE.UU. desde 1992) le introdujo en las redes de alta velocidad que pusieron los cimientos de la futura «Autopista de la Información».

La política de privatización de la NSF culminó en Abril de 1995 con la eliminación de la financiación del backbone NSFNET. Los fondos así recuperados fueron redistribuidos competitivamente entre redes regionales para comprar conectividad de ámbito nacional a Internet a las ahora numerosas redes privadas de larga distancia.

El backbone había hecho la transición desde una red construida con routers de la comunidad investigadora (los routers Fuzzball de David Mills) a equipos comerciales. En su vida de ocho años y medio, el backbone había crecido desde seis nodos con enlaces de 56Kb a 21 nodos con enlaces múltiples de 45Mb.Había visto crecer Internet hasta alcanzar más de 50.000 redes en los cinco continentes y en el espacio exterior, con aproximadamente 29.000 redes en los Estados Unidos.

El efecto del ecumenismo del programa NSFNET y su financiación (200

Page 21: Los inicios de Internet

millones de dólares entre 1986 y 1995) y de la calidad de los protocolos fue tal que en 1990, cuando la propia ARPANET se disolvió, TCP/IP había sustituido o marginado a la mayor parte de los restantes protocolos de grandes redes de ordenadores e IP estaba en camino de convertirse en el servicio portador de la llamada Infraestructura Global de Información.

"Internet"

Hace unos treinta años, la RAND Corporation, la primera fábrica de ideas de la América de la guerra fría, se enfrentó a un extraño problema estratégico. ¿Cómo se podrían comunicar con éxito las autoridades norteamericanas tras una guerra nuclear?

La América postnuclear necesitaría una red de comando y control enlazada de ciudad a ciudad, estado a estado, base a base. Pero sin importar cómo esa red estuviera de protegida, sus líneas y equipos siempre serían vulnerables al impacto de bombas atómicas. Un ataque nuclear reduciría cualquier red imaginable a pedazos.

¿Cómo sería controlada esa red? Cualquier autoridad central, cualquier núcleo de red centralizado sería un objetivo obvio e inmediato para un misil enemigo. El centro de la red sería el primer lugar a derribar.

La RAND le dio muchas vueltas a este difícil asunto en secreto militar y llegó a una solución atrevida. La propuesta de la RAND se hizo pública en 1964. En primer lugar, la red *no tendría autoridad central*. Además, sería *diseñada desde el principio para operar incluso hecha pedazos.*

Los principios eran simples. Se asumiría que una red era poco fiable en cualquier momento. Se diseñaría para trascender su propia falta de eficacia. Todos los nodos en la red serían iguales entre sí, cada nodo con autoridad para crear, pasar y recibir mensajes. Los mensajes se dividirían en paquetes, cada paquete dirigido por separado. Cada paquete saldría de un nodo fuente específico y terminaría en un nodo destino. Cada paquete recorrería la red según unos principios particulares.

La ruta que tome cada paquete no tendría importancia. Solo contarían los resultados finales. Básicamente, el paquete sería lanzado como una patata de un nodo a otro, más o menos en dirección a su destino, hasta acabar en el lugar adecuado. Si grandes porciones de la red fueran destruidas eso simplemente no importaría; los paquetes permanecerían en la red en los nodos que hubieran sobrevivido. Este sistema de envío tan arbitrario podría parecer "ineficiente" en el sentido usual del término (especialmente comparado con, por ejemplo, el sistema telefónico).

Durante los 60, este intrigante concepto de red de conmutación de paquetes descentralizada y a prueba de bombas caminó sin rumbo entre el RAND, el MIT (Masachussets Institute of Technology) y UCLA (University of California in Los Angeles). El Laboratorio Nacional de Física (National Physical Laboratory) de Gran Bretaña preparó la primera red de prueba basada en estos principios en 1968. Poco después, la Agencia de Proyectos de Investigación Avanzada del Pentágono (ARPA) decidió financiar un proyecto más ambicioso y de mayor embergadura en los Estados Unidos. Los nodos de la red iban a

Page 22: Los inicios de Internet

ser superordenadores de alta velocidad (o lo que se llamara así en aquel momento). Eran máquinas poco usuales y de mucho valor y que estaban necesitadas de un buen entramado de red para proyectos nacionales de investigación y desarrollo.

En el otoño de 1969 el primero de esos nodos fue instalado en UCLA. En diciembre de ese año había cuatro nodos en la pequeña red, que se llamó ARPANET después de que fuera promocionada por el Pentágono. Los cuatro ordenadores podían transferir información sobre líneas dedicadas de alta velocidad. Incluso podían ser programados remotamente desde otros nodos. Gracias a ARPANET, científicos e investigadores podían compartir las facilidades de otros ordenadores en la distancia. Era un servicio muy útil ya que el tiempo de proceso de los ordenadores en los 70 era algo muy codiciado. En 1971 había quince nodos en ARPANET; en 1972, treinta y siete. Todo iba perfecto.

En su segundo año de operatividad, sin embargo, algo extraño se hizo patente. Los usuarios de ARPANET habían convertido la red en una oficina de correos electrónica de alta velocidad subvencionada federalmente. La mayor parte del tráfico de ARPANET no era el proceso de datos a largas distancias. En vez de eso, lo que se movía por allí eran noticias y mensajes personales. Los investigadores estaban usando ARPANET para colaborar en proyectos, intercambiar notas sobre sus trabajos y, eventualmente, chismorrear. La gente tenía sus propias cuentas personales en los ordenadores de ARPANET y sus direcciones personales de correo electrónico. No es que sólo utilizaran ARPANET para la comunicación de persona a persona, pero había mucho entusiasmo por esta posibilidad -- mucho más que por la computación a larga distancia.

Eso no pasó mucho antes del invento de las listas de distribución, una técnica de emisión de información por ARPANET mediante la cual un mismo mensaje se podía enviar automáticamente a una gran cantidad de subscriptores. Es interesante que una de las primeras listas de distribución masivas se llamara "Amantes de la Ciencia Ficción" (SF- LOVERS). Discutir sobre ciencia ficción en la red no tenía nada que ver con el trabajo y eso enfadaba a muchos administradores de sistema de ARPANET, pero eso no impediría que la cosa siguiera.

Durante los 70, ARPANET creció. Su estructura descentralizada facilitó la expansión. Contrariamente a las redes standard de las empresas, la red de ARPA se podía acomodar a diferentes tipos de ordenador. En tanto en cuanto una máquina individual pudiese hablar el lenguaje de conmutación de paquetes de la nueva y anárquica red, su marca, contenidos e incluso su propietario eran irrelevantes.

El estándar de comunicaciones de ARPA era conocido como NCP, "Network Contro Protocol", pero según pasaba el tiempo y la técnica avanzaba, el NCP fue superado por un estándar de más alto nivel y más sofisticado conocido como TCP/IP. El TCP o "Trasmision Control Protocol," convierte los mensajes en un caudal de paquetes en el ordenador fuente y los reordena en el ordenador destino. El IP, o "Internet Protocol", maneja las direcciones comprobando que los paquetes caminan por múltiples nodos e incluso por múltiples redes con múltiples estándards -- no sólo ARPA fue pionera en el stándar NCP, sino también Ethernet, FDDI y X.25.

En 1977, TCP/IP se usaba en otras redes para conectarse a ARPANET.

Page 23: Los inicios de Internet

ARPANET estuvo controlada muy estrictamente hasta al menos 1983, cuando su parte militar se desmembró de ella formando la red MILNET. Pero el TCP/IP las unía a todas. Y ARPANET, aunque iba creciendo, se convirtió en un cada vez más pequeño barrio en medio de la vasta galaxia de otras máquinas conectadas.

Según avanzaban los 70 y 80, distintos grupos sociales se encontraban en posesión de potentes ordenadores. Era muy fácil conectar esas máquinas a la creciente red de redes. Conforme el uso del TCP/IP se hacía más común, redes enteras caían abrazadas y adheridas a Internet. Siendo el software llamado TCP/IP de dominio público y la tecnología básica descentralizada y anárquica por propia naturaleza, era muy difícil parar a la gente e impedir que se conectara. De hecho, nadie quería impedir a nadie la conexión a esta compleja ramificación de redes que llegó a conocerse como "Internet".

Conectarse a Internet costaba al contribuyente muy poco o nada desde que cada nodo era independiente y tenía que arreglárselas con la financiación y los requerimientos técnicos. Cuantos más, mejor. Como la red telefónica, la red de ordenadores era cada vez más valiosa según abarcaba grandes extensiones de terreno, gente y recursos.

Un fax solo es útil si "alguien más" tiene un fax. Mientras tanto no es más que una curiosidad. ARPANET, también, fue una curiosidad durante un tiempo. Después la red de ordenadores se convirtió en una necesidad importante.

En 1984 la Fundación Nacional para la Ciencia (National Science Foundation - NSF) entró en escena a través de su Oficina de Computación Científica Avanzada (Office of Advanced Scientific Computing). La nueva NSFNET supuso un paso muy importante en los avances técnicos conectando nuevas, más rápidas y potentes supercomputadoras a través de enlaces más amplios, rápidos, actualizados y expandidos según pasaban los años, 1986, 1988 y 1990. Otras agencias gubernamentales también se unieron: NASA, los Institutos Nacionales de la Salud (National Institutes of Health), El Departamento de Energía (Departament of Energy), cada uno manteniendo cierto poderío digital en la confederación Internet.

Los nodos de esta creciente red de redes se dividían en subdivisiones básicas. Los ordenadores extranjeros y unos pocos americanos eligieron ser denominados según su localización geográfica. Los otros fueron agrupados en los seis "dominios" básicos de Internet: gov, mil, edu, com, org y net. (Estas abreviaturas tan sosas pertenecen al estándar de los protocolos TCP/IP). Gov, Mil y Edu definen al gobierno, militares e instituciones educativas, las cuales fueron, por supuesto, las pioneras de la ARPANET que comenzó como un experimento de alta tecnología en seguridad nacional. Com, sin embargo, definía a instituciones "comerciales", que enseguida entraron a la red como toros de rodeo rodeadas por una nube de entusiastas "orgs" sin ánimo de lucro. (Los ordenadores tipo "net" servían como pasarelas entre redes).

La red ARPANET propiamente dicha expiró en 1989 como víctima feliz de su éxito abrumador. Sus usuarios apenas se dieron cuenta, pero las funciones de ARPANET no solo continuaron sino que mejoraron firmemente. El uso del estándar TCP/IP para redes es ahora algo global. En 1971, hace 21 años, sólo había cuatro nodos en la red

Page 24: Los inicios de Internet

ARPANET. Hoy existen decenas de miles en Internet esparcidos por cuarenta y dos países y muchos más que se conectan cada día. Tres millones de personas, posiblemente cuatro, usan esta gigantesca madre- de-todas-las-redes.

Internet es especialmente popular entre los científicos y es probablemente su instrumento más importante de finales del siglo XX. Las posibilidades de acceso tan potentes y sofisticadas que ofrece a datos específicos y a la comunicación personal ha elevado la marcha de la investigación científica enormemente.

El índice de crecimiento de Internet a comienzo de los 90 es espectacular, casi feroz. Se extiende más rápidamente que los teléfonos móviles y que el fax. El año pasado Internet crecía a un ritmo del 20% mensual. El número de ordenadores con conexión directa al TCP/IP se ha estado doblando anualmente desde 1988. Internet se está desplazando de su origen militar y científico a las escuelas de enseñanza básica e institutos, al mismo tiempo que a bibliotecas públicas y el sector comercial.

¿Por qué la gente quiere estar "en Internet"? Una de las principales razones es simplemente la libertad. Internet es un raro ejemplo de anarquía verdadera, moderna y funcional. No existe "Internet, S.A." No hay censores oficiales, ni jefes, ni junta directiva, ni accionistas. En principio, cualquier nodo puede hablar de igual a igual a otros nodos siempre que obedezcan las leyes del protocolo TCP/IP, leyes que no son políticas sino estrictamente técnicas. (Ha existido controversia sobre el uso comercial de Internet, pero esta situación está cambiando según los negocios proporcionan sus propios enlaces y conexiones).

Internet también es una ganga. Internet en conjunto, a diferencia del sistema telefónico, no cuesta dinero según las distancias. Y a diferencia también de la mayoría de las redes comerciales, no se cobra por tiempo de conexión. De hecho, "Internet" de por sí, que ni siquiera existe como una entidad, no cobra "nada" por nada. Cada grupo de gente que accede a Internet es responsable de su propia máquina y de su propio trozo de línea.

La "anarquía" de Internet puede parecer extraña o incluso poco natural, pero tiene cierta profundidad y sentido. Es como la "anarquía" del idioma inglés. Nadie alquila el inglés y nadie lo posee. Como anglo-parlante, depende de ti aprender hablar inglés correctamente y usarlo para lo que quieras (aunque el gobierno proporciona fondos para ayudarte a que aprendas a leer y escribir algo). Aunque mucha gente se gana la vida usando, explotando y enseñando inglés, el "inglés" como institución es una propiedad pública, un bien común. Mucho de eso ocurre con Internet. ¿Mejoraría el inglés si "Idioma Inglés, S.A." tuviera un consejo de administración con su director o ejecutivo al frente, un presidente y una asamblea? Probablemente exsitirían muchas menos palabras en el idioma inglés, y muchas menos nuevas ideas.

La gente en Internet siente que se trata de una institución que se resiste a la institucionalización. El interés pertenece a todos y a nadie.

A pesar de esto, hay quién tiene intereses en Internet. Los

Page 25: Los inicios de Internet

negociantes quieren que Internet tenga una base financiera. Los gobernantes la quieren más regulada. Los académicos la quieren para fines de investigación. Los militares para la seguridad. Y así muchos más.

Todas estas fuentes de conflicto permanenen en torpe equilibrio, e Internet, hasta ahora, se mantiene en próspera anarquía. Antes, las líneas de alta velocidad de la NSFnet eran conocidas como la "espina dorsal de Internet" (Internet Backbone), y sus propietarios podían señorearse con el resto de Internet; pero hoy existen "espinas dorsales" en Canadá, Japón y Europa, e incluso algunas privadas para el tráfico comercial. Hoy, incluso ordenadores domésticos privados pueden convertirse en nodos de Internet. Se pueden llevar bajo el brazo. Pronto, quizás, en la muñeca.

Pero, ¿Qué se *hace* en Internet? Básicamente, cuatro cosas: correspondencia, grupos de discusión, computación a larga distancia y transferencia de archivos. El correo de Internet es el correo electrónico (e-mail), mucho más rápido que el correo postal americano, que es llamado despectivamente por los usuarios de Internet como "correo caracol" (snail mail). El correo en Internet es algo como el fax. Es texto electrónico, y no tienes que pagar por él (al menos directamente) y es a escala global. Por correo electrónico se puede mandar software y algunos tipos de imágenes comprimidas. Se está trabajando en nuevas formas de correo electrónico.

Los grupos de discusión, o "newsgroups", son un mundo aparte. Este mundo de debate y argumentaciones se conoce como "USENET". USENET es de hecho diferente a Internet. USENET es como una multitud ondulante de gente chismosa y con ganas de información que se mueve por Internet en busca de barbacoas de patio trasero. USENET no es tanto una red física como un conjunto de convenciones. En cualquier caso, ahora existen 2.500 grupos de discusión separados en USENET y sus mensajes generan unos 7 millones de palabras al día. Naturalmente se habla mucho sobre ordenadores en USENET, pero la variadad de temas sobre los que se habla es enorme, creciendo estos continuamente. En USENET se distribuyen varias publicaciones electrónicas gratuitas de manera periódica.

Estos grupos y el correo electrónico están disponibles fácilmente, incluso fuera del corazón de Internet. Se puede acceder a ellos a través de las líneas de teléfono normales, desde otras redes como BITnet, UUCP y Fidonet. Los últimos servicios de Internet, computación a larga distancia y tranferencia de archivos, requieren de conexión directa usando TCP/IP.

La computación a larga distancia fue algo pensado para ARPANET y aún se usa mucho, al menos por algunos. Los programadores puenden mantener sus cuentas abiertas en poderosos super-ordenadores y ejecutar allí sus programas o crear otros nuevos. Los científicos pueden usar potentes ordenadores desde otros continentes. Las bibliotecas ofrecen sus catálogos electrónicos para que se busque en ellos gratuitamente. Enormes catálogos en CD-ROM están disponibles a través de este servicio. Y existe mucho software gratuito al mismo tiempo.

La tranferencia de ficheros permite a los usuarios acceder a máquinas remotas y tomar de ellas programas o textos. Muchos ordenadores de Internet - unos dos mil o más - permiten que se acceda a ellos de

Page 26: Los inicios de Internet

manera anónima y que la gente use sus archivos de manera gratuita. Esto no es algo trivial, ya que libros enteros se pueden transferir en cuestión de minutos. Hoy, en 1992, existen más de un millón de ficheros públicos disponibles a quién los quiera utilizar (y otros millones disponibles a gente con autorización). La transferencia de ficheros por Internet se está convirtiendo en una nueva forma de publicación, en la que el lector copia electrónicamente el texto que desee en la cantidad que quiera y de forma gratuita. Nuevos programas de Internet, como "archie", "gopher" y "WAIS" se han desarrollado para catalogar y explorar esa cantidad de material.

Esta Internet sin cabeza, anárquica y con millones de tentáculos se está extendiendo como el pan de molde. Cada ordenador con la potencia suficiente es una espora potencial de Internet y hoy los ordenadores se venden a menos de 2.000 dólares y están disponibles en todo el mundo. La red ARPA, diseñada para asegurar el control de una sociedad desolada después de un holocausto nuclear, ha sido sobrepasada por su hija mutante, Internet, que está a fuera de control a conciencia y se expande exponencialemente por la aldea global de la post guerra fría. La expansión de Internet en los 90 se parece a la que sufrió la informática personal en los 70, aunque esta es más rápida y más importante. Más importante, quizás, porque da a los ordenadores personales una imagen de algo barato, de fácil acceso y con posibilidades de almacenaje a una escala realmente planetaria.

El futuro de Internet pasa por ser más grande y con velocidades exponencialmente mayores. La comercialización de Internet es un tema candente hoy día, donde se promete cualquier tipo de comercialización salvaje de la información. El gobierno federal, agradecido por este éxito inesperado, aún tiene mucho que decir en esto. La NREN (National Research and Educational Network - Red Nacional de Educación e Investigación), fue aprobada en el otoño de 1991 como un proyecto a cinco años y con un presupuesto de dos billones de dólares para que la red troncal de Internet fuera actualizada. NREN será unas 50 veces más rápida que la red más rápida de hoy día permitiendo la transferencia de la Enciclopedia Británica en un segundo. Las redes de ordenadores permitirán gráficos animados en 3-D, enlaces de radio y teléfonos móviles a ordenadores portátiles, fax, voz y televisión de alta definición. ¡Un circo global multimedia!

O al menos así se espera - y se planea. La Internet real del futuro debe soportar pocos parecidos con los planes de hoy. Preveer las cosas nunca ha tenido mucho que ver con el rápido desarrollo de Internet. Después de todo, Internet se parece muy poco a aquellos sombríos planes del RAND para el post-holocausto. Esto resulta ser una sutil y feliz ironía.

¿Cómo se accede a Internet? Bien -- si no se tiene un ordenador y un modem, hay que hacerse con uno. El ordenador puede actuar como una terminal y se puede usar una línea de teléfonos ordinaria para conectarse a una máquina enganchada a Internet. Simplemente esto puede hacer que se tenga acceso a los grupos de discusión y a una dirección de correo electrónico propia. Merece la pena tener estos servicios -- aunque sólo con el correo y las noticias no se está del todo "en Internet".

Si está vd. en un campus, la universidad puede que tenga "acceso directo" a líneas TCP/IP de Internet de alta velocidad. Hágase con una cuenta de Internet en un ordenador del campus y será capaz de utilizar

Page 27: Los inicios de Internet

los servicios de computación remota y la transferencia de archivos. Algunas ciudades como Cleveland proporcionan acceso gratuito a la red. Las empresas tienen cada vez más posibilidades de acceso y están deseando vender esos accesos a sus clientes. La cuota estándar es de unos 40 dólares al mes -- más o menos como el servicio de TV por cable.

Según avancen los 90, encontrar acceso a Internet será mucho más fácil y barato. Su facilidad de uso también mejorará del salvaje interface UNIX del TCP/IP a otros muchos más intuitivos y cómodos para el usuario, eso es una buena noticia. Aprender Internet ahora, o al menos aprender sobre Internet, es para entendidos. Cuando cambiemos de siglo la "cultura de redes", tal como la "cultura de los ordenadores" antes de esta se verá forzada a introducirse en el ámbito de su vida.