254
Pág 1 de 254 Bicentenario en Betazeta Volumen Compilatorio Artículos CHW Todo el material contenido en este documento se publicó originalmente en CHW . El contenido pertenece a sus respectivos autores y las imágenes, logos y marcas a sus respectivos dueños. Eres libre de citar cualquiera de estos artículos publicando la fuente.

Bicentenario BZ CHW

Embed Size (px)

Citation preview

Page 1: Bicentenario BZ CHW

Pág 1 de 254

Bicentenario en Betazeta

Volumen Compilatorio Artículos CHW

Todo el material contenido en este documento se publicó originalmente en CHW. El

contenido pertenece a sus respectivos autores y las imágenes, logos y marcas a sus

respectivos dueños. Eres libre de citar cualquiera de estos artículos publicando la fuente.

Page 2: Bicentenario BZ CHW

Pág 2 de 254

Índice

Reflexiones con Historia ................................................................................................................. 3

(004) El Reventón de la Burbuja Dot Com ....................................................................................... 4

(011).- Steve Jobs, perfil de un Rockstar ....................................................................................... 15

(018) Windows 95: Un botón lo inició todo .................................................................................. 27

(025) El Legado de Palo Alto Reseach Center de Xerox Por Francisco Bravo .................................. 36

(039) Cuando Google compró Youtube Por Felipe Figueroa .......................................................... 52

(053) Googleplex: El oasis de Silicon Valley................................................................................... 68

(060) Macintosh 128K .................................................................................................................. 73

(067) Cuando llegó el puerto AGP al mundo ................................................................................. 82

(074) Cyrix MediaGX: CPU+GPU existió hace 14 años ................................................................... 91

(081) Consolas que marcaron nuestra historia ............................................................................. 96

(088) Sergey Brin y Larry Page, los arquitectos de Internet ......................................................... 110

(095) Fabricantes de microprocesadores x86 que pasaron a la historia ...................................... 115

(102) Steve Ballmer, todo un personaje tech .............................................................................. 123

(109) Cuando PCI Express reemplazó al AGP .............................................................................. 129

(116) Los 10 mejores IGP de la historia ....................................................................................... 139

(123) La historia del disco duro: 60 años de evolución ................................................................ 148

(130) Fabricantes de GPUs que murieron en el camino .............................................................. 156

(137) Procesador Intel 8086 ....................................................................................................... 169

(144) El primer CPU QuadCore x86 ............................................................................................. 178

(151) George Hotz, GeoHot: el maestro jailbreaker .................................................................... 184

(158) ENIAC: La primera computadora electrónica programable ................................................ 191

(165) La compra de ATI por AMD – Parte I: Dificultades iniciales ................................................ 199

(172) La compra de ATI por AMD – Parte II: El resurgir de AMD .................................................. 207

(179) El primer CPU dual-core x86 .............................................................................................. 215

(186) Unidades de almacenamiento extraíble: Desde el disquete al pendrive ............................. 222

(193) Mark Zuckerberg ............................................................................................................... 232

(200) La llegada de los tablets .................................................................................................... 244

Page 3: Bicentenario BZ CHW

Pág 3 de 254

Reflexiones con Historia

Para los que estamos en Chile, septiembre es el mes de la patria, porque el día 18 se

celebra un aniversario más de la realización de la primera Junta de Gobierno, en 1810, la

cual dio inicio a un proceso independentista que culminó con éxito algunos años más

tarde. Por lo mismo, este septiembre de 2010 es más especial que nunca para nosotros,

porque estamos celebrando nuestro Bicentenario como nación, pero en compañía de

varios otros países latinoamericanos.

Para Argentina, Bolivia, Chile, Colombia, Ecuador, El Salvador, México, Paraguay y

Venezuela, son doscientos años de vida independiente, un hecho que no se puede dejar

pasar sin dedicarle algo de nuestro tiempo para reflexionar en torno a los temas e íconos

que a lo largo de todos estos años han ido forjando — de una u otra manera — nuestra

historia, personalidad e idiosincrasia.

Con este objetivo en mente, en septiembre de 2010 la red Betazeta decidió celebrar

publicando una colección de 200 artículos repartidos en las comunidades Belelú, CHW,

FayerWayer, Ferplei, Niubie, VeoVerde y Wayerless; nuestros recuerdos, intereses,

anécdotas y conclusiones en torno a lo que hemos sido como subcontinente durante este

largo camino de doscientos años.

La presente compilación reúne lo que se publicó en CHW a lo largo de ese mes. Cada

artículo está precedido por un número entre paréntesis que indica el orden que ocupó en

la colección original.

Page 4: Bicentenario BZ CHW

Pág 4 de 254

(004) El Reventón de la Burbuja Dot Com Por Felipe Figueroa Fagandini

Bienvenido a nuestro primer artículo de la colección “Los 200 de Betazeta“, en donde les hablaremos sobre un fenómeno que marcó un antes y un después en la breve historia de la web.

Querido lector, la red no fue siempre como usted la ve hoy. Si ud. lee las noticias de este y otros sitios de actualidad tech ya debe tener una idea bastante clara del quién es quién en la web. Sabe quienes son Google, Yahoo, eBay, Microsoft, Amazon, Twitter, Digg, Facebook, y por supuesto los representantes de los medios tradicionales que se han forjado una posición de fuerza en la web: News Corporation, NBC Universal, VIACOM, Time Warner. Pero eso es hoy, y para llegar aquí hubo un proceso de selección natural que no fué paulatino como el de la teoría evolucionista. Esa selección ocurrió en un par de años y fue bastante sangrienta.

Pero nos estamos adelantando, hablando de burbuja cuando no necesariamente el lector sabe lo que es una burbuja. Para empezar, las burbujas sólo se advierten en retrospectiva, porque ha habido muchas ocasiones en las cuales el mercado apuesta firme por una tecnología, industria, producto o servicio, pero no siempre son burbujas. Uno puede decir que son burbujas cuando mira hacia atrás y dice: “En realidad, se infló en demasía el precio, hasta que reventó”.

Por poner un ejemplo, muchos mercados han tenido auges repentinos, ya sea por el boca a boca, porque se pone de moda, porque las rentabilidades son muy convenientes,

Page 5: Bicentenario BZ CHW

Pág 5 de 254

porque el riesgo es muy bajo, etc. Entre estos auges hay ejemplos tanto legales como ilegales: la esclavitud (siglo XVIII), el microtráfico de droga en los barrios marginales, el cultivo de canola, soja y otros elementos destinados a hacer biodiesel, el cultivo de algodón en New Orleans en el siglo XIX, los videoclubes de barrio en los años 80, los ferrocarriles a mediados del 1800 y bueno, las puntocom durante la segunda mitad de los 90.

Algunos eran negocios legítimos y altamente rentables, y a medida que fueron entrando más jugadores al mercado se fueron ajustando las rentabilidades en una curva decreciente que tiende a un equilibrio. Otros eran o siguen siendo actividades altamente rentables porque son ilegales o moralmente incorrectas, y en esos casos no se puede hablar de un negocio sustentable porque cualquier día las fuerzas del orden te caen encima (en el caso del narcotráfico) o emiten una ley contra tu negocio (la esclavitud). Esas no son burbujas, y en cambio las puntocom sí lo fueron. ¿Por qué?

Page 6: Bicentenario BZ CHW

Pág 6 de 254

El ejemplo del jamón y los tupperware

Ejemplifiquémoslo de la siguiente manera: todos sabemos que una pierna de jamón ibérico pata negra vale unos USD 200. Un día en la bolsa de jamones (un mercado ficticio) ves que un jamonero emite 100 acciones por una pierna de jamón, y cada acción la vende a USD 1 en circunstancias que el 1% de un jamón que vale USD 200 debieran ser dos dólares. En ese caso compras porque te das cuenta de que las acciones están baratas, que estás comprando un pedazo de algo que, proporcionalmente, vale más. Otras veces compras acciones de una empresa de paraguas porque sabes que viene un invierno lluvioso, y en ese caso tu intuición te sugiere que la demanda hará subir el valor de tu inversión más allá del precio actual.

En el caso de las puntocom, la gente empezó a comprar acciones sin saber cuánto valía realmente el jamón completo, ni si acaso tenía buenas proyecciones como los paraguas. Era una industria que nadie entendía pero, como todo el mundo estaba comprando, arrastraba a los demás y el fenómeno se perpetuaba.

Ahora bien, es injusto decir que estas empresas puntocom no tenían un modelo de negocios. En realidad sí lo tenían pero era cojo en la mayoría de los casos: expandir el mercado y luego, cuando lo lideraran ampliamente, capitalizarlo. ¿Cómo? Bueno, eso ya era otro problema y muchos patearon su solución.

¿Alguien se acuerda de los Tupperware? Los traigo a colación para ilustrar una idea, pero por si no lo saben los tupperware eran una colección de potes plásticos. Los había de todos los tamaños y colores, con y sin tapa, y servían para servir o presentar la comida así como para guardarla en el refrigerador. Los tupperware no se vendían en tiendas sino que se distribuían a través de un sistema piramidal: ganabas plata vendiendo tupperware, pero ganabas más si podías convertir a otros en vendedores, de los cuales recibías comisión hasta X niveles.

Para vender los tupperware se hacían “reuniones tupperware”. La vendedora preparaba bocadillos y bebestibles y los ofrecía generalmente en los mismos tupperware que promocionaba. Unas galletitas por aquí, unos pancitos por allá, unas ramitas de apio para las viejas hipócritas que pretenden cuidar la línea pero después la remojan en un pote de mayonesa, unos traguitos y bueno, ya me entiende. Con ese convite la vendedora invitaba a las vecinas del barrio y a sus amistades, y mientras degustaban la comida les iba hablando de las bondades de tupperware. Algunas iban a puro comer y no compraban nada pero ese no es el tema. Alguien podría decir: “oye, pero así nunca vas a ganar plata, debieras cobrar por la comida”. Y ahí llegamos a nuestro punto: la comida construye mercado, pero el modelo de negocios no es ganar plata por la comida así que la regalas para atraer gente acelerada y agresivamente. El modelo en este caso era vender tupperwares o convertir a una vecina en tu vendedora referida, la comida era sólo un gancho.

Page 7: Bicentenario BZ CHW

Pág 7 de 254

Con las puntocom se practicó un sistema parecido: muchas crecieron agresivamente ofreciendo servicios gratuitos para construir una gran participación de mercado, pensando que cuando la tuvieran podrían inventar un modelo rentabilizable a base de cobrar por un servicio premium o algo así. Cuando ofreces algo grátis la demanda teóricamente puede ser infinita, así que efectivamente muchos de estos servicios crecieron en tráfico muy rápido. Esa tasa de crecimiento impresionó a inversionistas y Venture Capitals, que sin saber valorizar bien la empresa que financiaban les ponían aportes de millones de dólares sin siquiera hacer un due diligence previo. Se habían olvidado de las prácticas contables y financieras que te permiten evaluar una inversión, y en medio de esa fiebre los VC simplemente metían plata en emprendimientos sobre cuyo éxito no tenían seguridad, y entonces se “divesificaban” invirtiendo no en una sino en 10 puntocoms al mismo tiempo, esperando que alguna fuera un tremendo negocio tal que diera igual si el resto era un fracaso. Lo malo es que si inviertes en 10 empresas del mismo rubro estás poniendo todos los huevos en el mismo canasto: si el rubro facasa como un todo, hasta ahí llegaste.

Page 8: Bicentenario BZ CHW

Pág 8 de 254

Quemando dinero

Hablar de los VC que perdieron su plata es sólo una fracción de la historia. Desde que existe el capitalismo hay gente que se hace millonaria y gente que pierde su plata: son las reglas del juego. Pero este caso fue especial porque fue acompañado de otros fenómenos, de entre los cuales el mayor es el fenómeno del quemar dinero.

Se dieron casos de empresas que tenían cuatro o cinco empleados y recibían un aporte de un VC por un millón de dólares. Una parte la invertían, claro, pero con otra arrendaban oficinas a todo lujo en los barrios más caros, se ponían sueldos de 5 cifras, y a veces al cabo de un año ya habían quemado el aporte del millón de dólares sin haber consolidado un modelo de negocios que les permitiera ser autosustentables. Es más, muchas terminaban ese período de quema sin haber ganado un solo dólar.

Por otro lado, hubo quienes construyeron un servicio lo suficientemente masivo como para despertarle el apetito a gigantes de las comunicaciones o de otras industrias, las cuales compraron por ejemplo servicios de correo (como Microsoft que compró a Hotmail) haciendo de sus fundadores verdaderos multimillonarios que a veces reinvirtieron su plata en otras puntocom, y otras sólo se dedicaron a recorrer el mundo dando charlas. Aquí entre nos, esas charlas debieran ser de “cómo inflar un servicio, venderlo mil veces más caro de lo que vale en cuanto a retorno esperado, y dejar a otro con el problema“. Pero no, son charlas de emprendimiento y visión estratégica. El mundo no es un lugar justo.

También se dio el caso de empresas puntocom que en vez de apoyarse en un VC se fueron directo a IPO, saliendo a la bolsa. Cuando sales a la bolsa, haces pública una parte de la propiedad de la empresa y a cambio recibes mucho dinero fresco como para crecer. Por ejemplo, el tipo que es dueño de esa pierna de jamón serrano del ejemplo anterior, decide salir a la bolsa y vender el 49% de sus acciones. Resulta que estamos parados en la era de “la burbuja del jamón ibérico” y vende cada acción, que vale un 1%, en 10 dólares, valorizando por tanto en USD 1000 el jamón completo. Al final del día ya no es dueño de un jamón de USD 200, sino del 51% de un jamón de USD 1000 (o sea su patrimonio personal creció pese a vender casi la mitad de éste) y la empresa tiene USD 490 en caja para invertir, crecer, pagar sueldos y hacer campañas de márketing.

Ahora, el jamón serrano sigue valiendo USD 200, así que si en bolsa de valoriza a USD 1000 podemos estar ante una burbuja. Este fenómeno llegó a ser increíble en algunos casos. Por poner un ejemplo, la acción de AOL creció tanto en los años 90, que entre cash y canje de acciones compraron a la mayor empresa de medios del mundo, Time Warner, el año 2000. Cuando la burbuja explotó, el valor real de AOL fue quedando en evidencia y

Page 9: Bicentenario BZ CHW

Pág 9 de 254

al nombre AOL Time Warner al poco tiempo le quitaron el prefijo “AOL”, pero más importante, finalmente Time Warner terminó escindiendo AOL, deshaciéndose de ella como una empresa independiente cosa que luchara por su supervivencia sin vampirizar los recursos del resto. Es una contradicción patente, que un gigante compre a otra empresa y luego ese gigante se desinfle hasta que la parte adquirida cobre todo el protagonismo y termine deshaciéndose de la primera.

Sólo estamos citando algunos de los fenómenos que acompañaron a la burbuja y la fiebre por invertir en empresas dot com, pero reflejan lo irracional que llegó a ser la época, retroalimentada por créditos muy blandos que la Reserva Federal intentó frenar subiendo la tasa de interés hasta un 6%, consiguiendo indirectamente el efecto contrario.

Page 10: Bicentenario BZ CHW

Pág 10 de 254

Explota la Burbuja

Ocurrió el 10 de marzo del año 2000. El NASDAQ llego a su peak histórico superando los 5000 puntos y a esa altura estaban jugando los descuentos de la fiebre dot com. Decimos esto porque con todo ese miedo que metieron con “el bug del año 2000 o Y2K” muchas empresas anticiparon su renovación de equipos y los últimos meses del año 99 así como los dos primeros del 2000 la demanda por hardware y licencias de software subió a niveles históricos, pero como decimos, esto pasó porque las empresas adelantaron sus calendarios de renovación de equipos.

Esta demanda acelerada y concentrada disparó las utilidades de las empresas tech, y las empresas tech asumieron que ese aumento se mantendría en el tiempo así que reinvirtieron fuertemente para hacer frente a una demanda tan contundente. Como podrán suponer, pasó lo contrario: cuando llegó marzo 2000 la mayoría de las empresas que iban a cambiar de equipos durante los años 2000 y 2001 ya habían hecho su renovación, y las órdenes bajaron bruscamente.

Segundo, empezó a haber cada vez más temor en el ambiente acerca de la demanda por monopolio que el estado norteamericano le estaba siguiendo a Microsoft. Al final si alguien temía que Microsoft colapsara producto de esa demanda se equivocaba, Microsoft sigue siendo tremendamente fuerte hasta el día de hoy.

Tercero, cuando ese viernes el Nasdaq llegó a superar la barrera sicológica de los 5000 puntos muchos traders dijeron “es hora de vender y hacer la pasada de mi vida” pero fue tal la agitación de ese día que cuando ingresaron las órdenes de venta, éstas se digitaron fuera de rueda y quedaron agendadas para el día lunes 13 de marzo. Esta simple coincidencia provocó que muchas órdenes de venta de acciones de Microsoft, Dell, IBM, Cisco, Oracle y otras se cursaran efectivamente ese lunes por la mañana. Terminar un viernes vendiendo es cosechar ganancias, pero abrir un lunes vendiendo tiene otra connotación: todos pensaron que era una “estampida” y decidieron vender. Una semana después el NASDAQ había caído un 9% a 4500 puntos.

Con el temor reinante, las puntocom dejaron de recibir inversiones de ángeles y VC, y sin esa plata para quemar no tenían cómo mantenerse. Las que se iban a abrir a la bolsa cancelaron sus IPO anticipando que les iría pésimo ante el mal escenario reinante. En los dos años que siguieron muchas se declararon en bancarrota y los inversionistas perdieron su plata.

Page 11: Bicentenario BZ CHW

Pág 11 de 254

Daños Colaterales

Cuando se arma una burbuja como la vivida en los años 90 no se trata de un fenómeno aislado. Hay todo una industria satélite que florece, y por lo tanto colapsa, en forma paralela.

El ejemplo más pintoresco fue una explosiva concurrencia a las universidades para carreras humanistas. Muchos programadores, informáticos y analistas que quedaron sin trabajo volvieron a vivir con sus padres y se metieron a estudiar otras carreras con 30 años a cuestas.

Otros no cambiaron de carrera pero se enfocaron en otros temas. Los traders que se acostumbraron al vértigo bursátil vivido en la cresta de la ola siguieron buscando en qué emplear su conocimiento y gusto por la adrenalina. Algunos se volcaron al negocio de los bienes raíces y entre el 2004 y el 2005 aumentó en un 50% la cantidad de propiedades compradas no con fines de vivienda sino como inversión. Eso, como ya sabemos, generó otra burbuja debido a que los pagos de hipoteca y el pie requerido eran ridículamente bajos, lo cual llevó a una crisis todavía peor a fines del 2008. Pero ese es otro tema.

Otro fenómeno: muchas ciudades de los Estados Unidos aspiraban a convertirse en nuevos Silicon Valley. Crearon parques de edificios de oficinas a todo lujo, plantas libres que parecían un potrero y todos equipados con los equipos más avanzados de control, climatización, seguridad y conectividad. Muchos de esos parques de oficinas quedaron semiabandonados luego de la debacle, con pérdidas sustantivas para las constructoras y a veces los municipios de la ciudad en cuestión.

Los proveedores de equipamiento también sufrieron. Tal vez el caso más emblemático fue Nortel Networks, en su momento la empresa más grande de Canadá. Nortel venía creciendo sostenidamente desde los años 70, y cuando se dió el fenómeno de la burbuja puntocom invirtió agresivamente para ser el mayor proveedor de soluciones integrales de conectividad. Tenían de todo, desde teléfonos hasta fibra óptica, pasando por routers, switches, firewalls y lo que se les ocurra.

En el año 2000 tenían más 94.000 empleados. Ellos solos representaban como el 35% del valor total del Toronto Stock Exchange, algo así como USD 267.000 millones, más de lo que hoy valen Google, Apple, IBM u Oracle ¿Se imaginan? Bueno, dos años después la empresa valía USD 3.350 millones, o sea un 1.25% del valor original. Todo esto, porque tenían un modelo de negocios que les hacía perder plata pero a cambio crecían muy rápido en participación de mercado. Cuando ese mercado se desinfló y la demanda bajó abruptamente, se quedaron con una capacidad instalada enorme que se había vuelto un lastre, un costo hundido. A lo mejor si la burbuja se hubiese mantenido, Nortel hubiera llegado a una meseta de crecimiento en donde hubieran modificado el modelo de negocios pasando de “crecer perdiendo plata” a “mantener participación ganando plata”… pero nunca lo sabremos.

Page 12: Bicentenario BZ CHW

Pág 12 de 254

Nortel no quebró en ese entonces. Se reestructuró, repactó sus deudas, despidió a miles de personas, pero nunca se recuperó del todo. Igual a la larga quedó en bancarrota y se declaró en quiebra el 2009. Ahora, cuando cayó bruscamente el valor de Nortel no sólo cayó una empresa privada. No sólo quedaron miles de personas desempleadas. Lo más grave, probablemente, es que los fondos de pensiones canadienses tenían la mayor parte de sus fichas en acciones de Nortel, y con su caída dejaron a muchas personas sin poder jubilar, o con pensiones inusualmente bajas. Un desastre.

Page 13: Bicentenario BZ CHW

Pág 13 de 254

Los que sobrevivieron

Asi como muchos colapsaron, unos cuantos se salvaron. Es curioso, porque si al principio de la burbuja nos hubieran contado quienes permanecerían en el tiempo, a lo mejor no hubiesen calzado con los que mejor pintaban.

Junto con los que perduraron como empresa, hubo servicios que perduraron como tales pero sólo gracias a que una empresa grande los compró. Alguien podría decir que Hotmail y Geocities sobrevivieron a la debacle dot com, pero en realidad sus dueños se hicieron millonarios, le enchufaron el problema de rentabilizar los servicios a Microsoft y Yahoo, respectivamente, y se mandaron a cambiar (o a dar charlas). Yahoo terminó cerrando Geocities hace pocos meses, y Microsoft, bueno, no creo que haya ganado mucha plata con Hotmail. En realidad, si no fuera porque los compraron empresas solventes, esos dos servicios hubieran sido de los primeros en colapsar durante el 2000.

Pero bueno, no nos quedemos en supuestos. ¿Quiénes sobrevivieron y por qué sobrevivieron?

Google sobrevivió y hoy es el rey indiscutido de la web, pero cuando ocurrió la debacle Google no era un ejemplo de esas puntocom artificialmente infladas. Eran una empresa experimental que en vez de quemar dinero se dedicó a perfeccionar sus algoritmos y capacidad instalada para crecer, reinvirtiendo casi todo aporte de capital. No es difícil ver por qué Google sobrevivió: es otra generación.

Yahoo también sobrevivió, y cuando ocurrió la gran debacle ya era líder de su mercado. Con el tiempo las cosas fueron empeorando para ellos y paulatinamente perdieron la punta, pero lo importante es que cuando la burbuja estalló ellos ya estaban en una posición tan sólida que no se vinieron abajo. Es importante entender esta correlación entre el ciclo de crecimiento y el momento en que el reventón te pilla. Si te pilla en un plan agresivo de expansión en donde no tienes retorno y estás dedicado a quemar plata para crecer rápido, estás condenado. Si en cambio ya pasaste la etapa del crecimiento meteórico y te pilla consolidado, probablemente sobrevivas y, si tu empresa nunca se planteó para quemar dinero y crecer rápido sino ir despacito por las piedras, puede que nunca estés expuesto a caer estrepitosamente, aunque tampoco crecerás meteóricamente.

Otros sitios que eran líderes y lograron sobrevivir pese a venir saliendo de una etapa en donde perdieron plata para crecer agresivamente fueron eBay y Amazon. El segundo es tal vez el único ejemplo real de una empresa que planteó la tecnología como un canal mejor para un negocio existente. Yahoo ofrece búsquedas web, pero no sustituye un servicio tangible. No había búsquedas web antes de la web. Amazon, en cambio, fue uno de los que planteó las ventajas de los eTailers vs los retailers tradicionales, y aunque pasó varios años con números en rojo, finalmente alcanzaron el break-even. Lograron crecer hasta un tamaño en donde el hecho de manejarse via web en vez de tener una cadena de tiendas

Page 14: Bicentenario BZ CHW

Pág 14 de 254

los hacía más eficientes que cualquier retailer de carne y hueso. Y entonces empezaron a retroalimentar ese crecimiento ganando ya no sólo en utilidades porcentuales y en tasa de crecimiento, sino en volumen y totales.

eBay, en cambio, planteó un negocio nuevo que eran los remates por internet. A diferencia de Amazon, no se puede decir que haya planteado un negocio antiguo en un canal nuevo, porque en el mundo real no hay remates de pendrives ni vinilos raros. Sin embargo, lo importante es que el reventón los pilló ya consolidados, líderes del mercado y con decenas de clones repartidos por el mundo. Con el tiempo fueron cambiando su modelo a uno de menos remates y más compra inmediata, y por otro lado su negocio de pagos en línea, Paypal, terminó siendo lo que realmente mantiene la empresa con vida, pero hace 10 años eso aún no ocurría.

Google, Yahoo, Amazon, eBay… son todos nombres que en los años que siguieron sonaron muy fuerte, incluso más fuerte de lo que sonaban en la era de la bonanza web. Esto es la consecuencia indirecta, y de alguna manera el aporte del reventón para dar forma a la década que siguió. Cuando todo se vino abajo, los que sobrevivieron no sólo dieron gracias de haber aguantado el chaparrón, sino que se encontraron con una WWW en la cual quedaban muy pocos jugadores realmente grandes, así que se repartieron la torta entre unos pocos, un estado que se mantuvo por más de 5 años hasta que la irrupción de los actuales gigantes (Facebook, Twitter) volvió a sacudir el escenario… pero eso, estimado público, da para otra historia.

Page 15: Bicentenario BZ CHW

Pág 15 de 254

(011).- Steve Jobs, perfil de un Rockstar Por Francisco Luco

No resulta fácil hablar de Steve Jobs sin inmiscuirse en lo que ha sido Apple durante todos estos años. De hecho, tal intersección resulta casi inevitable y hasta necesaria. Por más que sea sólo un hombre, y por más que haya dedicado parte importante de su tiempo a otras cosas, Steve Jobs es Apple. Y a la inversa, indiscutiblemente Apple es Steve Jobs.

Pero todo en la vida tiene un orden, y el particular relato de Steven Paul Jobs no es la excepción. En una historia que se vio marcada por eventos aparentemente insignificantes, pero que años más tarde acabarían concordando, se configuró algo realmente grande y que al final del camino ha permitido ver la gran fotografía. Se trata de “conectar los puntos”, como diría el propio Jobs.

El comienzo

Los peculiares rasgos de la vida de Jobs comenzaron a gestarse incluso antes de que naciera. Su madre, joven y soltera, había decidido darlo en adopción bajo la condición de que los padres adoptivos debían garantizarle una educación universitaria.

Los nuevos padres de Paul Steven resultaron ser una pareja de clase media (tirando para humilde) que a pesar de las dificultades económicas acabó cumpliendo su promesa. A los 17 años Steve entró a la universidad, aunque alcanzó a mantenerse allí sólo un semestre, tras verse enfrentado a sus propios cuestionamientos vocacionales y darse cuenta de que sólo estaba haciendo perder dinero a sus padres.

Poco tiempo después, no siendo más que un adolescente aún sin rumbo definido, Jobs emprendió un viaje a la India, donde experimentó un acercamiento hacia la cultura oriental y la psicodelia, lo que seguramente ayudaría a conformar parte importante de su personalidad y le atraería a la religión que profesa hasta el día de hoy –el budismo–. Como buen rebelde y genio incomprendido, tampoco hizo ascos a la experimentación alucinógena, en lo que Jobs llamaría algún día “una de las dos o tres cosas más importantes que [hizo] en [su] vida”, refiriéndose al consumo de LSD.

Años después, junto al querido Stephen Wozniak (amigo conocido tiempo atrás y con quien pasó bastante tiempo a raíz de sus intereses compartidos) se instalaron en su garaje –como todo buen emprendedor del Valle–, donde comenzaron a fabricar computadores, los cuales en realidad no eran más que tableros o circuitos electrónicos bastante simples y mucho menos sofisticados que la máquina más ordinaria en la que pudieran pensar hoy en día. A pesar de ello, su trabajo artesanal resultó ser bastante avanzado para lo que el panorama informático (dominado por la omnipresencia de IBM) ofrecía en aquella época. De hecho, el mercado de la computación personal como tal aún no existía.

Page 16: Bicentenario BZ CHW

Pág 16 de 254

Woz fabricaba y Steve, con particular capacidad de convencer, se encargaba de hacer los negocios. La incipiente empresa funcionaba, la sencilla pero exitosa computadora que habían producido reportaba algunos beneficios y había llegado la hora de profesionalizar su trabajo. Fundaron Apple y denominaron a su primer y humilde engendro Apple I.

Luego Woz se encargó de trabajar en la Apple II, primera computadora personal de la empresa comercializada a gran escala y la que catapultaría esta última hacia ligas mayores. Durante este período Apple se consolidó con el marcado liderazgo de Steve Jobs, caracterizado por muchos como excéntrico y hasta autoritario.

Cuestionamientos morales más o menos a su personalidad y a sus particulares dotes para imponer orden y disciplina, lo concreto es que para 1980, con tan sólo 25 años, Jobs ya se había hecho de un impresionante patrimonio de 200 millones de dólares.

Años más tarde vendrán los infaltables ángeles inversores y tendrá lugar, tras el fracaso que fue el lanzamiento del costoso computador personal Lisa, el nacimiento del Macintosh 128K.

Visión

Nadie podría asegurarlo con certeza (probablemente sólo el propio Jobs y alguna de las divinidades en que cree), pero pareciera que las grandes metas a las que aspiraría como proyecto personal y profesional, y la forma de aproximarse a ellas, estaban bien definidas desde un principio.

Page 17: Bicentenario BZ CHW

Pág 17 de 254

La impronta que el creador quiso dejar patente en su obra, y el sello distintivo que diferenciaría a esta última de IBM y el resto de la competencia existente en aquellos lejanos años, fueron muy bien determinados y probablemente hayan permanecido inalterables hasta hoy en día, concordando tales elementos, a su vez, a la perfección con la propia filosofía de Jobs.

Eficiencia, pasión por lo que se hace, belleza y simpleza (que casi o derechamente se torna en minimalismo) serían los rasgos característicos de la compañía, su imagen y cada uno de los productos –tanto de hardware como de software– que fueran manufacturados bajo el sello de la manzana. Aquel fruto debía ser sinónimo de algo único.

Para no quedarnos en palabras y en deuda con los ejemplos, tomemos el caso del primigenio Macintosh 128K. Apple parecía ser (al menos en sus inicios) una empresa enfocada a las necesidades del usuario, de manera tal que aún cuando la idea de una GUI (interfaz gráfica de usuario) no fuera original, ésta acabaría transformándose en el caballito de batalla de la marca a la hora de ofrecer su primera computadora. Así fue como Apple Computer, Inc. se ganó el mérito de llevar a cabo la primera comercialización exitosa de un dispositivo con GUI en la historia; interfaz gráfica que, por cierto, tampoco podía limitarse a ser el tránsito ordinario entre una interfaz antigua, invadida por líneas de comando, y una serie de ventanas.

A propósito de la GUI del primer computador comercial de Apple, resulta interesante sacar a colación una cuestión cuanto menos curiosa: cómo aquellos conocimientos adquiridos en la universidad y que antes podrían haber parecido baladíes terminarían siendo puestos en práctica por el CEO de la compañía años después –según él asegura–, para ser aplicados en la misma interfaz gráfica de lo que acabó convirtiéndose en el sistema operativo del Macintosh. Me refiero, en concreto, a las lecciones que el joven Jobs tomó de caligrafía y tipografía y sus esfuerzos académicos por entender qué hace a una determinada fuente un estilo de letra bello y agradable a la vista, todo lo cual derivó en una imagen confortable para el usuario.

Sin embargo aquella visión de belleza (casi de artista, como se extrae de la película Pirates of Silicon Valley) no se limitaba al software. El hardware, que integraba un manojo de cables y circuitos apenas comprensible –y por lo demás irrelevante– para el usuario común, debía estar revestido de una carcaza, una cubierta, un “empaque” que se caracterizara por ser agradable y estilizado, al menos para los estándares de diseño industrial de la época.

Y cómo no, además de ser visualmente atractivo tanto en “forma” como en “fondo”, el sistema debía ser asimismo amigable para el usuario: manejable y sencillo; dócil. Se trata de una visión de simpleza radical y distintiva, que durante las décadas siguientes evolucionaría a polos tan minimalistas que apenas podrían haberse concebido en el ideario informático algunos años antes. Sólo es cosa de recordar algunos de los mejores diseños de Mac creados por Apple (los que específicamente corresponden al diseñador

Page 18: Bicentenario BZ CHW

Pág 18 de 254

británico Jonathan Ive), como el no tan anticuado iMac de policarbonato blanco, el “G4 Cubo” o el popular G4 “lamparita”, algunos de los cuales hoy se exhiben como verdaderas piezas de colección, junto al iPod, en el Museo de Arte Moderno en Nueva York.

Jonathan Ive, iMac "lamparita" G4 y Steve Jobs.

Incluso el mismo iPod es muestra patente de la aventura de Jobs por hacer las cosas diferentes, desde un prisma quizá alternativo (imposible de haberse materializado de mejor manera que a través del mítico y decidor spot publicitario “1984″) y lo más simple posible. Mac OS X podría ser otro ejemplo de ello.

Page 19: Bicentenario BZ CHW

Pág 19 de 254

Reviviendo Apple Computer, Inc.

Precisamente por lo que afirmaba al principio de este artículo es que temo que se extienda en demasía, perdiéndose el foco que debe ser, en este caso, el creador.

Por ello, pasaremos revista sólo a algunos de los hitos más importantes de Apple en su historia, todos ellos impulsados siempre por su CEO.

Edad antigua

En lo que fuera la primera etapa de Apple y el primer ciclo de Jobs a la cabeza de la misma, destaca el lanzamiento del Macintosh 128K, la primera computadora comercial exitosa de Apple.

Se lanzó en 1984, tuvo una buena recepción inicial en ventas y además masificó las interfaces gráficas, junto con convertirse en el primer y último éxito del que Steve sería artífice antes de ser despedido, para luego dar paso al período oscuro de la compañía.

El iMac o el renacimiento de Apple

Para la gran mayoría es bien sabido que si Apple dejó de perder una millonada de dólares y sorteó el agujero financiero inconmensurable en el cual estaba destinada a caer, fue gracias al retorno de Jobs a la compañía de la cual hubiera sido despedido unos años atrás y que paradójicamente él mismo fundó.

Producido el reencuentro a fines de 1996, Apple comercializó en 1998 –una vez más con las innovadoras ideas de Jobs al frente– el que sería su verdadero salvavidas y renacimiento: el iMac, un computador personal destinado íntegramente al consumo doméstico y perfectamente distinguible de cualquier otra cosa que se hubiera hecho antes por sus características carcazas semi-transparentes y multicolores.

Mac OS X

Como el propio Jobs afirmara en el discurso de graduación pronunciado en Stanford, a pesar del sufrimiento provocado por uno de los episodios más traumáticos y significativos de su vida –su despido de Apple– algo no cambió en él: su pasión por lo que hacía. De manera que durante aquella década de exilio (entre 1985 y 1996), Steve fundó NeXT, empresa cuyo SO basado en UNIX acabaría siendo la base del futuro Mac OS X.

En 1996 NeXT fue comprada por Apple, Jobs volvió a la compañía que él mismo hubiera fundado junto a Steve Wozniak y comenzaron los preparativos para que Mac OS 9 pasara a mejor vida. En 2001 el competidor directo de Windows XP ya había nacido, con el consiguiente salto de una interfaz anacrónica a la nueva generación.

Page 20: Bicentenario BZ CHW

Pág 20 de 254

Demás está señalar que la superioridad visual caracterizó fuertemente a Mac OS X desde un principio. Y a pesar de los iniciales fallos de funcionamiento que fueron corregidos en el transcurso del tiempo con el progresivo lanzamiento de versiones posteriores (secuencia caracterizada curiosamente con nombres de felinos), Mac OS X sigue siendo la esencia de un Mac hoy en día y probablemente la única razón por la que valga la pena pagar de más.

iPod+iTunes

A pesar del exitazo que fuera Mac OS X “Cheetah”, la gran sorpresa aún estaba por venir. En el último trimestre del mismo año, Steve Jobs materializó la osada decisión de adentrarse por primera vez en una faceta del entretenimiento digital totalmente ajena a lo único que habían venido haciendo desde que la empresa fuera fundada.

El salto fue magistral. Con un genio, percepción, visión de negocios y oportunismo únicos, Steve Jobs anticipó (tras especulaciones de analistas y consumidores acerca de si la próxima jugada de Apple sería lanzar una cámara fotográfica o un teléfono) que el negocio de la música era el futuro, tanto de la compañía como en el campo de los usuarios, y que ellos debían estar ahí. Aparentemente no se equivocó.

En la keynote en que se introdujo por primera vez el iPod (el cual fue desarrollado a un ritmo vertiginoso en tan sólo 8 meses), un acertado Steve Jobs afirmó haber encontrado el estándar de la reproducción portátil de música. Ahora nos parecerá obvio, pero no lo era tanto hace 9 años, cuando el CD todavía se encontraba en pleno apogeo y el nicho era disputado por reproductores de CD, reproductores flash y discos duros que tan portátiles como ahora no eran. Jobs sabía que los formatos de audio abiertos eran lo que venía, y escogió igualmente el formato de hardware correcto, junto con sentar el estándar para los años siguientes en cuanto a reproducción musical portátil se refiere.

Eso sí, debe recalcarse que el “boom” comercial y de popularidad del iPod no tuvo lugar sino recién hasta 2004-2005. Sólo a partir de allí las ventas empezaron a incrementarse de forma brutal, y el verdadero fenómeno publicitario de los audífonos blancos comenzó a dar fruto (recomiendo profundizar en el tema viendo el documental History of iPod, pues si algo hay que reconocer es que Jobs, además de ser un privilegiado hombre de negocios, es un genio del marketing).

Punto aparte merece la apertura, en 2003, de la tienda digital de música iTunes, otra precursora en lo que le toca y una de las más preciadas gallinas productoras de huevos dorados de Apple.

Con todo, el gran mérito realizado por Steve en este aspecto fue haber masificado su marca, de manera que lo que inicialmente fue concebido como “alternativo” o “independiente” acabó convirtiéndose en un verdadero icono de la cultura pop.

Page 21: Bicentenario BZ CHW

Pág 21 de 254

iPhone

Si con el iPod Apple se abrió al mercado de Windows y popularizó sus productos, la masificación definitiva y lo que probablemente acabaría provocando hasta un descenso en los estándares de manufactura de la compañía –debido a su casi incontenible crecimiento– llegó de la mano del iPhone en 2007.

A pesar de todas las limitaciones sumamente básicas existentes en un inicio (como la incapacidad de grabar video o instalar otras aplicaciones, por ejemplo), el iPhone no sólo elevó las utilidades de Apple y los valores de sus acciones a límites insospechados (salvo por el propio Jobs, quizá), sino que revitalizó y –por qué no– revolucionó la industria de la telefonía móvil, obligando a todo peso pesado del rubro que se preciara de tal a presentar su propio “iPhone killer”. Demás está decir que varios fracasaron y siguen fracasando estrepitosamente.

Evolución de la capitalización bursátil de Apple en los últimos dos años.

iPad

Por último pero no por ello menos importante, tenemos el vapuleado iPad. Según “confesó” Jobs al periodista de tecnología Walt Mossberg, la idea de lanzar un tablet fue anterior al iPhone. Sin embargo, llegada la hora de ver los resultados de laboratorio, al CEO le pareció que con todo el material disponible podrían lanzar un teléfono, por lo que el proyecto de computación personal doméstica quedó en standby en desmedro del mencionado smartphone.

Page 22: Bicentenario BZ CHW

Pág 22 de 254

Quizá sea sólo una excusa para legitimar la adaptación íntegra de iOS a una pantalla más grande sin tanta reingeniería de por medio. Sea cierto o no, el hecho es que la sola ventaja de contar con una mayor superficie se ha transformado en una virtud en mano de desarrolladores creativos, quienes una vez más acaban siendo los responsables de definir si una plataforma es exitosa o no.

Jobs con iOS apunta a mucho más de lo que podría haberse pensado en un principio. No se trata de lanzar más y más productos operando sobre el mismo sistema para no ver incrementados desmesuradamente los gastos en investigación e innovación, sino de jugársela al ciento por ciento por lo que él cree que es el futuro. En ese sentido, tanto diversos analistas de mercado como cierto sector de la propia industria parecieran estar contestes en que el futuro de la computación personal es la portabilidad y, más precisamente, el espectro móvil. Dicho aquello, la filosofía de Jobs es que quizá en un par de años cualquier usuario que necesite llevar a cabo tareas domésticas o “sencillas” acabará reemplazando su netbook, notebook e incluso PC de escritorio por algo como un iPad; pasando así al cuasi-olvido toda aquella filosofía de las ventanas, los archivos y las carpetas, e instaurándose de facto las interfaces táctiles con lo intuitivas que son.

De todas maneras, y siendo bastante francos, si aquello efectivamente llegara a darse algún día, éste parece ser algo lejano. Pero de que el iPad cuenta con el potencial para lograr en el campo de la computación personal lo mismo que consiguió el iPhone algún día en el área de la telefonía móvil, lo tiene.

Page 23: Bicentenario BZ CHW

Pág 23 de 254

No todo lo que brilla es oro

Más allá del holgado éxito que hayan logrado conseguir la mayoría de los productos comercializados bajo el sello de la manzana, más de alguno ha debido enfrentar alguna crítica generalizada y –en ciertos casos– sobreponerse a verdaderas controversias mediáticas.

Curiosamente, y al menos en el caso más emblemático y el único que se mencionará por ahora –el del iPhone 4 y el llamado ““antennagate”–, pareciera despertar una crítica desmedida no tanto la deficiencia técnica del producto en sí, sino cómo el mandamás de Apple intenta sortear la polémica.

Haciendo memoria tenemos que, tras haber sido revelados por Gizmodo los problemas de señal del iPhone 4, la primera respuesta de Apple, materializada a través de un correo electrónico de su máximo representante, fue “simplemente no sostengas el teléfono de esa manera”, revelándose una vez más el carácter parco y hasta arrogante del CEO.

Luego la bien conocida historia adquiere ribetes telenovelescos, donde se niega la existencia del problema, se desmiente que el e-mail supuestamente enviado por Jobs haya sido real, más tarde se reconoce que sí hay un problema de recepción y finalmente se anuncia que sólo bastaría una actualización de firmware para que el antennagate fuera cosa del pasado.

Pero la gota que rebasó el vaso fue el anuncio de Consumer Reports, en el que de plano afirmaron que no era recomendable comprar el iPhone 4. Consciente de la repercusión mediática y probablemente comercial de tal evento, Steve tuvo que dejarse de tonterías y realizar una conferencia de prensa de última hora, en la que no encontró mejor forma de afrontar el drama que encendiendo y apuntando el ventilador contra la industria de los smartphones en general (e incluso compañías y teléfonos con nombre y apellido), recurriendo a la muletilla de urgencia “por último si no le gusta, no compre o devuélvalo”, informando que Apple no era perfecta ni él tampoco, y finalmente intentando apaciguar las aguas regalando “bumpers” a todos.

Si el conflicto fue resuelto o no es otro cuento. Sin embargo, la historia no se dio por terminada con el anuncio de un programa de repartición de fundas plásticas para (casi) todos, ya que hace sólo algunas semanas se conocía la determinación de despedir a Mark Parpemaster, ex empleado de IBM, encargado de ingeniería de hardware de Apple y por ello “responsable” del diseño de la polémica antena externa del iPhone 4, convirtiéndose así en el chivo expiatorio perfecto del drama. Una vez más el peso autoritario de Jobs parecía sentirse en los pasillos de Apple.

Page 24: Bicentenario BZ CHW

Pág 24 de 254

Más allá de Apple

Es importante recordar que no sólo de Apple se alimenta Steve Jobs. Si bien ésta es su magnum opus, el CEO-rockstar igualmente ha sido reconocido por su posición al frente del prestigioso estudio de animación Pixar.

Pixar fue comprada por Steve a Lucas Films en 1986, aunque en aquel entonces el estudio se llamaba The Graphics Group.

Probablemente la gran mayoría conozca la sucesión de exitosos títulos –tanto en términos de crítica como de recaudación– nacidos en los computadores de Pixar por encargo de Disney. Sin embargo, tal vez no todos estén igualmente enterados de cómo Jobs llegó a verse enfrentado con el gigante del entretenimiento, para terminar formando parte de un estamento notablemente alto dentro del mismo.

Corría el año 2003 y el contrato que había mantenido a Pixar lanzando un exitazo tras otro en compañía de Disney llegaba a su fin. Tras un fracaso en las negociaciones entre el director ejecutivo de Disney y Jobs, éste anunció que el noviazgo había terminado, de manera tal que comenzaría la búsqueda de un nuevo distribuidor apenas el contrato expirara de forma definitiva.

Sin embargo, en el último trimestre de 2005 el presidente ejecutivo de Disney fue reemplazado. El nuevo directivo reanudó las conversaciones con Jobs, y tras arreglarse las relaciones entre ambas empresas y llegar a un nuevo acuerdo, se determinó que Pixar fuera adquirida por Disney, lo que significó no sólo que en adelante la colaboración Pixar-Disney estuviere asegurada para el lanzamiento de nuevas superproducciones animadas, sino que Steve Jobs se convirtiera en miembro del directorio de Disney y en el accionista individual más poderoso, con un nada despreciable 7% de la compañía. Esta cifra supera incluso la cuota que posee el propio director ejecutivo de la compañía y la que poseía el último descendiente de la dinastía Disney involucrado en aquella.

Definitivamente se trató de otra jugada comercialmente exitosa que, además de garantizar una posición de poder privilegiada en la industria del entretenimiento, probablemente haya significado un aumento significativo de dólares en la billetera de Jobs.

Page 25: Bicentenario BZ CHW

Pág 25 de 254

Futuro incierto

Honrado como el hombre de negocios más importante del mundo en 2007 y CEO de la década por la prestigiosa revista Fortune, Steve Jobs es con su particular estilo, y para gusto o disgusto de muchos, uno de los personajes más importantes en la historia de la computación y la electrónica de consumo.

No entra en la lista de los magnates de la informática que forman parte de los 100 más ricos del mundo según Forbes, como sí ocurre con quienes actualmente se posicionan, por ejemplo, en el puesto #2 de dicha lista (Bill Gates), el puesto #8 (Lawrence Ellison, fundador de Oracle) o el puesto #24 (Larry Page y Sergey Brin). Sin perjuicio de ello, Steven Paul Jobs sí alcanzó a ser incorporado en la lista de los más poderosos del mundo –elaborada por la misma Forbes a fines de 2009–, donde fue ubicado en el lugar #57, detrás de algunos de los ya mencionados magnates de la informática, otros relacionados con la industria de los medios de comunicación, jeques, ministros y presidentes.

A pesar del legado que ya ha sembrado, de los miles de millones de dólares que posee y la influyente posición de poder que ostenta, para la opinión pública probablemente la vida de Steve Jobs no haya sido más que la sombra de Bill Gates, tal como la trayectoria de los Mac se ha visto siempre opacada por Windows. Sin embargo, ahora mismo el problema principal radica menos en si fue, es o será más rico o poderoso que el creador del imperio Microsoft, que en si será capaz de desligarse de una empresa que sin él se encontraría en franca decadencia. Es una paradoja en que el exceso de poder “pasa la cuenta”.

Un cáncer de páncreas estuvo cerca de llevárselo a una mejor vida (o quizá a reencarnarse, como probablemente crea el mismo Jobs), y ya fue muerto alguna vez por especuladores inescrupulosos a través de la Web. En ambos casos las acciones de Apple se han visto a la baja, y existe la percepción generalizada y probablemente correcta de que el día en que Jobs se tenga que marchar, a quien le toque emprender la titánica misión de continuar y repotenciar su legado le resultará tremendamente difícil.

Page 26: Bicentenario BZ CHW

Pág 26 de 254

Lo anterior no es otra cosa que una gran consecuencia del culto a la personalidad, de la misma manera que el nazismo fue Hitler y la revolución rusa Lenin. En una especie de caudillismo informático y financiero, el excesiva y peligrosamente carismático liderazgo de Jobs se ha terminado convirtiendo en un arma de doble filo, creando una dependencia nociva entre el sello Apple y el nombre de su CEO; todo lo cual nos lleva a la conclusión de que predecir lo que pueda ocurrir en los años que vienen sea, muy probablemente, un ejercicio de futurología más torcido e inverosímil que vaticinar los nuevos lanzamientos de Apple antes de cada keynote.

Después de todo, y al menos durante los años pasados y los que transcurren, Steve Jobs es Apple y Apple simplemente es Steve Jobs.

Page 27: Bicentenario BZ CHW

Pág 27 de 254

(018) Windows 95: Un botón lo inició todo Por Italo Baeza

Como muchos en ese tiempo, yo tampoco tenía una computadora cuando llegó Windows

95. Los escasos equipos, el escaso tiempo y la poca accesibilidad a éstos era una de las

causas por las que muchos no se dignaban a aprender algo de computadoras para, por lo

menos, simplificarle la vida. Pero me acuerdo, por ejemplo, que se podía hacer una tabla

en Excel para poner poner a los los equipos que estaban clasificando para Francia ‘98, o

que podrías crear una carta sin rastro de correcciones. Windows 3.11 en ese tiempo era

conocido pero no por todos, en las sombras cocinaba a la gente que tenía acceso a uno al

igual que algunos Macintosh para ser fiel.

Y cuando llegó Windows 95, definitivamente se sintió el remezón. Particularmente

hablando, la interfaz había sido algo más simple y colorida, y cualquiera que podía

actualizar su equipo a esta versión de Windows quedaba asombrado – después de

mamarse varios cambios de disquete en algunos casos – especialmente por la facilidad de

uso y la gran evolución que tuvo el no-sé-por-dónde-empezar Windows 3.1. Quien tenía el

Page 28: Bicentenario BZ CHW

Pág 28 de 254

dinero ya era un hecho que su computadora aguantaba y si no compraban otra, y quienes

nunca tuvieron la posibilidad tendrían que esperar años para saber qué sucedió aquí.

Por alguna razón empecé a ver más gente metida en una computadora para hacer cosas

que en la realidad les tomaría más tiempo, dejando de lado la maña de aprender a escribir

con el teclado. Cartas, documentos, pruebas y exámenes, invitaciones, tareas, etcétera.

Después de ese año empecé a ver muchas más cosas hechas en una computadora, y por

supuesto muchos niños jugando en sus equipos que, además de correr Sonic & Knucles 3,

servían para todo lo demás. Aún recuerdo esos días emulando juegos Pokémon Red con

REW, intercambiando disquetes con más juegos o rabeando con MDK porque no nos

funcionaba en algunas computadoras del colegio. Antes de 1995, sólo veíamos

computadoras en las películas, y el papel que desempeñaban era simple: había que

destruirlas sino terminaríamos con una Inteligencia Artificial amenazando la supervivencia

de la humanidad y viajando en el tiempo para evitarlo.

Pero claro, a nosotros nos importaba un comino, sólo le dábamos al botón “Inicio” y luego

planeábamos qué íbamos a hacer, no antes.

Hola botón Inicio

Antes de Windows 3.11 el mundo era poco menos que colorido, a 256 colores como el

mejor de los casos. Pero el paso a los 16 bit de color fue bastante notorio. Sumado a eso la

máquina de publicidad que Microsoft realizó para Windows 95, y los cambios bastante

grandes en la interfaz, terminó todo por apuntar a un bendito botón Inicio. Y sí, se merece

la mayúscula en la primera letra.

Page 29: Bicentenario BZ CHW

Pág 29 de 254

La primera vez que uno de mis compañeros puso el cursor frente a ese botón fue algo así

como cuando comemos por primera vez una comida que nos aparenta mala. ¿A quién no

le ha pasado eso? Por lo menos mi madre me dijo “¿Cómo puedes saber que está malo si

no lo has probado?”. El miedo a lo desconocido era evidente, pero las Clases de

Computación en el colegio eran para aprender, y si terminaba por explotar la sala,

terminaríamos con echarle la culpa a las niñas. Al presionarlo, quedamos más perdidos

que de costumbre, pero un rato más tarde, ya teníamos permiso para borrar toda la

carpeta C:\Windows\. Por cierto, NO LO HAGAN.

El funcionamiento de ese menú era tan simple, que lentamente se transformó en un icono

de la computación moderna. Desde abrir programas hasta buscar aquellos archivos que

alguna vez se perdieron, o abrir un nuevo documento de Microsoft Office sin abrir

ventana tras ventana; todo en su lugar y como debía estar organizado. Todo era

fácilmente encontrable, nada más de dar vuelta en ventanas de ventanas de ventanas de

ventanas como solía suceder. Y su funcionamiento no ha recibido muchos cambios de raíz,

sigue siendo el primer lugar donde ir cuando quieres hacer algo, al que tuvieses el acceso

directo al Escritorio.

Page 30: Bicentenario BZ CHW

Pág 30 de 254

Ahora esto es multitarea

Dicen que el ser humano es un ser multitarea por naturaleza, que sólo ocupa el 3% de su

capacidad cerebral mientras el resto se va en puras tareas secundarias, que mi abuela

puede hacer el almuerzo mientras habla por teléfono y le saca brillo al piso de la cocina,

etcétera. Pero eso era una vil mentira antes de Windows 95, muy pocas personas

lograban dominar la Calculadora y Wordpad al mismo tiempo sin que se les perdiera una

de ambas, especialmente al minimizarlas. También era ese tipo de usuario que copiaba el

acceso directo de “Internet” al disquete y luego le decía a los compañeros que tenía la

Internet en un disquete para poder navegar donde quisiera, y que colocaba el CD al revés.

Creo que yo era el único que podía hacer esto.

Pero la siempre visible barra de tareas solucionó ese maldito problema. Cada programa

abierto tenía su espacio en la barra que compartía con el menú inicio. Los programas no

se cerraban por arte de magia, siempre estaban ahí de forma visible esperando que

hicieras clic en él. Definitivamente eso trajo un flujo de trabajo mucho más entendible

para aquellos que tenían el drama anterior.

Page 31: Bicentenario BZ CHW

Pág 31 de 254

En segundo plano

La barra de notificaciones nació para quedarse. Así como inconscientemente

respirábamos, podíamos ver con certeza procesos y programas en segundo plano sin

tener que preocuparnos de ellos, al menos, al ver la hora. Evidentemente nadie sabía que

un programa podía correr en segundo plano, o dejarlo así para que no molestara por un

buen rato. Nunca en mi vida vi a alguien colocar música mientras escribía algún

documento, hasta que en Windows 95 el Reproductor de CD – que ya estaba hace rato en

las versiones anteriores – y Winamp se hicieron más conocidos y combinables con algún

otro programa minimizado.

Lo genial, por lo menos después de algunos años, fue la posibilidad de usar un espacio

mínimo para connotar algún programa corriendo atrás de todo, sin molestar a nadie, pero

en memoria al fin y al cabo. El control de volumen era muy útil cuando queríamos

escuchar algo a nivel normal porque algún mandril se lo dio todo antes que tú, o bien, ese

ícono con la agenda que nos programaba cosas para hacer en cierto momento sin tener

que atender la computadora en ese momento. ¿Alguien dijo… “Defragmentador de

disco”?

Bienvenido sea DirectX.

Les puedo comentar las gracias que nos permitió jugar DirectDraw y Direct3D. En ese

tiempo, tener una tarjeta aceleradora de gráficas, cualquier cosa infinitamente más cara

que una Trident VGA de 8MB, daba para cualquier juego en MS-DOS incluyendo

Wolfenstein 3D. Pero cuando cuando DirectX apareció, y muchos de nosotros ni idea para

qué era, los videojuegos empezaron a transformarse en entretenimientos más avanzados.

El ejemplo clásico fue FIFA 96, donde por primera vez en mi corta existencia logré jugar un

juego de fútbol casi de verdad. La gracia era “Virtual Stadium” la tecnología hacía el

estadio y la cancha en un lugar de tres dimensiones en vez de una textura más detrás de

los jugadores. Hubo otros juegos más que crearon un mundo más llamativo, como MDK y

otros juegos que llegaron años más tarde.

Casi todos los desarrolladores hacían juegos pensando en gráficas VESA y Creative

SoundBlaster, algo así como los estándares elegidos por ellos para sus videojuegos. Esto

demostraba no sólo que no había estándar impuesto, sino también a que los mismos

tenías que programar para cada hardware en específico en muchos casos. Con la llegada

de DirectX, los programadores escribían para este API y sería el mismo quien lidiaría con el

Hardware, mientras los fabricantes actualizaban los controladores para su hardware y

DirectX.

Page 32: Bicentenario BZ CHW

Pág 32 de 254

Caso aparte: Internet Explorer

Internet, en esos años, era tan difícil de acceder como llamar por teléfono celular, la

televisión con sonido surround, y la PlayStation. Pero con la inclusión de Internet Explorer,

varios usuarios que tenían acceso a ese lugar virtual se encontraron con una nueva opción

para mirar la red además de Netscape. Igual se agradecía que existieran dos Accesos

Directos para Internet y Bandeja de Entrada en el Escritorio, y aunque la gran mayoría de

la población que no tenía Internet nunca supiese para qué servía, igual se merece una

mención por intentarlo.

La piedra en el zapato: MS-DOS y BSOD

Yo también pensaba que Windows 95 se parecía más a una GUI por encima de MS-DOS

que un sistema operativo grande, algo un poco más evidente con Windows 3.x, pero eso

dejó de caer en evidencia cuando MS-DOS pasó a ser a la vista como otro programa más

dentro del menú inicio, y quizás fue todo lo que bastó para que la gente pudiese entender

que la computación era más fácil una línea de comandos olvidándose de él. Como las

cámaras point-n-shoot, aquí era point-n-click. De todas maneras este sistema sólo se

preocupaba de arrancar Windows 95, quien después de cargado se hacía cargo de MS-

DOS dentro de él.

Esa piedra en el zapato seguía vivo, pero era necesario en esos momentos porque habían

muchas aplicaciones en 16-bit dando vuelta y que sólo andaban dentro de una ventana de

Page 33: Bicentenario BZ CHW

Pág 33 de 254

MS-DOS – menos mal casi todas funcionaban sin problema. Microsoft supo hacerla bien, y

con los 32-bit de acceso y LFN logró que dejásemos de lidiar más con “Comple~1.doc”.

Ahora sí podías guardar archivos con más de 8 letras – hasta un máximo de 255 – sin

confundirte entre dos que comenzaban igual, pero sólo en Windows. No había forma de

explicarle a un ser humano porqué no podía encontrar su archivo “Canción de cuna.wav”

en MS-DOS o Windows 3.11, pero menos mal Windows 95 dejó muy claro que si le ponías

el nombre a algo, con certeza lo encontrarás bajo el mismo nombre. Ahora ser secretaria

con muchos documentos era más fácil, por lo menos, era lo que decía una madre de mis

amigas cuando el jefe le compró una computadora nueva (ni idea si pagó en carne… con

algún asado).

No saques el CD mientras un programa lo está leyendo

La principal crítica de Windows 95 era que al principio era bastante inestable. Alegaba por

absolutamente todo, hasta por el mas mínimo error teníamos dos opciones: o

reseteábamos el sistema o esperábamos a que el programa culpable terminase de

trabajar. CTRL+ALT+SUPR se

hizo muy amigo de muchos,

y con la ventaja de finalizar

esas tareas que no

respondían, todavía

teníamos opción para no

desestabilizar el sistema,

pero al final de todo, si

Windows no podía leer el

disco, igual te tiraría el

pantallazo azul de la muerte.

Hasta por los disquetes que

se leían mal.

En ese tiempo los consumidores finales, esos usuarios que armaban sus propias

computadoras, tendrían que lidiar con la inestabilidad. Pero los OEMs eran gente

importante para Microsoft, y les tiró 5 versiones de Windows 95, además del famoso

“Plus!”, a estos tipos durante los siguientes 2 años. Menos mal hubo gente que supo la

artimaña y se conseguía esos discos con apellido “OSR” para colocarlos en su

computadora. De hecho, yo recuerdo haber tenido una versión OSR después que la

anterior instalación de Windows 95 cayera en la desdicha de Scandisk.

Page 34: Bicentenario BZ CHW

Pág 34 de 254

Yo jugaba con el autoexec.bat

MS-DOS no es malo, pero menos mal, en ese tiempo casi todos los juegos que me

gustaban eran basados en ese sistema que en Win32. Un día estaba leyendo la Encarta 97

en mi computadora, y sucedió un corte de electricidad en toda mi población. Después de

restaurada, y con las ganas de seguir donde me había quedado, lo prendí de nuevo para

que ScanDisk me avisara que revisaría el disco por errores. Dicho y hecho, no me

preocupé por nada y esperé… esperé… y esperé.

Resultado: Toda la carpeta C:\Windows\System estaba mala, y como scandisk es de esos

chicos porfiados que cree saber qué hace pero en realidad no, terminó por tomar todos

esos archivos y dejarlos en la raíz con un formato irreconocible hasta ese entonces, entre

ellos, “win.com”, el programa que inicia Windows. Nunca más pude iniciar el sistema

operativo, por lo que tuve que vivir varios meses con MS-DOS: dir, attrib, deltree, copy,

edit, echo off, format, todos ellos fueron mis amigos, y como sólo funcionaban los juegos,

edité el autoexec.bat para saltar inmediatamente a esos programas. Vamos… ¿Quién no lo

ha hecho?

Mirabas feo a Windows 95 y se caía, eso era cierto, pero menos mal, luego que mi viejo

desembolsara USD$70,11 para que lo repararan, además de ganarme un buen sermón de

cosas que ni si quera él podía entender, una versión de Windows OSR llegó – creo haberlo

escuchado del mismo técnico – a mi computadora, que se terminó por comportar mucho

mejor que antes. El único reparo que tenía era que se les había olvidado formatear el

disco, así que me encontré borrando esos archivos rotos del C:\ que siempre pensé que

servirían para algo, y por ese dinero, ahora pienso que era lo mínimo que pudieron haber

hecho.

Page 35: Bicentenario BZ CHW

Pág 35 de 254

¿Algo ha cambiado?

Durante unas vacaciones de verano llevé a mi familia a una tienda especializada en Mac,

para mostrarles que habían computadoras algo más fáciles de usar. Eventualmente me

encontré con la inevitable pregunta… “¿Dónde está el botón inicio?”. Luego de eso, los

acompañé hacia afuera, mientras pensaba que en realidad, nada ha cambiado durante los

últimos años en Windows.

La forma de trabajo del sistema operativo sigue siendo esencialmente el mismo, eso sí con

todas las actualizaciones por debajo necesarias con las posibilidades nuevas que el

hardware ha creado. Creo que la frase justa para definir lo que dejó Windows 95 es

“cambio drástico”, en pro de dejar al usuario con una percepción mucho más amigable del

equipo. Desde ahí en adelante todo terminó por evolucionar naturalmente la interfaz y el

resto del software.

Es simpático que una barra gris en el fondo de la pantalla haya instaurado las bases de la

computación moderna hace 15 años y sólo recibido cambios cosméticos en las versiones

siguientes. Windows 98, Windows ME, Windows NT, Windows XP, Vista y 7: Ninguno de

ellos ha decido matar al Botón Inicio ni su funcionamiento primordial, menos cómo

funcionan las ventanas y cómo percibimos el funcionamiento de los programas.

Windows sigue siendo lo mismo de hace 15 años, y tampoco espero a que cambie. El

único pretexto que tendría Microsoft para mostrar un Windows distinto sería con la

llegada del multi-touch y 3D, o que misteriosamente todos los ratones y teclados del

mundo se quemaran simultáneamente.

Page 36: Bicentenario BZ CHW

Pág 36 de 254

(025) El Legado de Palo Alto Reseach Center de Xerox Por Francisco Bravo

Quien copia a copión tiene cien años de perdón… Un refrán que acabo de parafrasear

pero que refleja la realidad en la industria de la tecnología de la información (y

seguramente todas las

ramas conocidas del

quehacer humano). Toda

creación buena,

sobresaliente o exitosa en el

ámbito comercial es

copiada tarde o temprano.

Muchas veces quién creó el

producto no ve ni un

centavo por concepto de

éste pues llegó alguien, vio

los defectos del producto,

las quejas de los clientes y

lo mejoró basándose en

aquél ‘feedback’.

Si hiciéramos un parangón

entre una sala de clase de

primaria con la industria en

Silicon Valley, Xerox sería el

nerd del curso, mientras

que Microsoft y Apple

serían los matones que

copian en los exámenes de

estos nerds. Muchas veces

los matones quedan en los

anaqueles de la historia y

los nerds son olvidados.

Xerox Alto, primera computadora personal

Si algo podemos decir en favor de estos ‘matones’ es que tuvieron la visión de llevar estos

inventos a niveles comerciales con un éxito aplastante, la incapacidad de Xerox de

Page 37: Bicentenario BZ CHW

Pág 37 de 254

cristalizar estos grandes inventos en productos comercialmente rentables es evidente. Por

otro lado la misión del PARC nunca fue, aunque no necesariamente se descarta, pero

ciertamente no era lo principal, crear grandes riquezas de sus inventos, sino más bien

crear avances que pudiesen servir a la compañía y, por qué no, a la humanidad entera en

el futuro. Simplemente la plana ejecutiva, los ‘peces gordos’ de Xerox, estuvieron

sentados por años sobre aquellos inventos, y a pesar de todos los intentos de los

ingenieros del PARC por explicarles el éxito que podían llegar a ser, simplemente no lo

comprendían. Y por supuesto llegaron los ‘matones’ y se llevaron el pastel.

Un legado que no puede quedar en el olvido

El PARC o Palo Alto Research Center, con sede en Palo Alto, California, Estados Unidos, es

una compañía de investigación y co-desarrollo fundada el año 1970 por Xerox Corporation

bajo la dirección del Dr. George Pake, como una división más luego del bullante éxito de

Xerox por esos días.

Page 38: Bicentenario BZ CHW

Pág 38 de 254

Xerox Star, primer computador personal con sistema gráfico y mouse

El PARC pasó a la historia y es recordado, razón principal de esta nota a modo de

homenaje, como el centro de investigación de tecnologías de la información y sistemas de

hardware más prolífico de todos los tiempos.

De él nacieron avances tan importantes como la electrónica y el software para la

impresión láser, desde donde John Warnock y Chuck Geschke pudieron basarse para

posteriormente fundar Adobe Systems en 1982; la tecnología Ethernet (creada en

conjunto con Intel y Digital Equipment) y una incipiente “Internet” que conectaba esta

Ethernet a ARPAnet utilizando PUP (PARC Universal Protocol), precursor del TCP/IP; el

computador personal moderno tal como lo conocemos hoy gracias al ‘Alto’; se utilizó por

primera vez el teclado y el mouse como mecanismo de control principal del computador

(en la Xerox Star); la interfaz gráfica de usuario (GUI) incluyendo íconos y las primeras

ventanas “pop-ups”; Smalltalk, precursor de lenguajes de programación orientada a

objetos tales como C++ y Java; el primer procesador de texto de interfaz amigable

(WYSIWYG) de la historia, Bravo y Tioga, que Charles Simonyi tomó como base y se lo llevó

a Microsoft para desarrollar Microsoft Word; el primer chip gráfico 3D (“Geometry

Engine”) para computadora, creado por James Clark, profesor de la Universidad de

Stanford, usando principios ideados en el PARC para posteriormente fundar Silicon

Graphics (SGI) en 1982, gracias a lo cual años después nacieron películas como Jurassic

Park y la hilarante Toy Story; la tecnología de almacenamiento en dispositivos magneto-

óptico, creado especialmente para el Alto; entre muchos otros.

El paraíso para la creatividad

Esta historia no estaría completa sin un personaje clave, Bob Taylor, gran responsable del

temprano éxito del PARC siendo administrador del Computer Science Laboratory (CSL)

(1970–83), posterior fundador y adminsitrador de Digital Equipment Corporation’s

Systems Research Center (SRC) (1983–96), sí, la misma Digital Equipment que ayudó a

crear la tecnología Ethernet junto con Intel. Para darles una idea de los pensamientos de

Taylor, éste creía que “La Internet no se trata de tecnología; es sobre la comunicación.

Internet conecta a las personas que comparten los mismos gustos, necesidades, intereses e

ideas, sin importar la ubicación geográfica”. Todo un visionario, ¿no lo creen?

Para que entendamos la época en que esto se desarrolló debemos entender la explosión

de creatividad de la época. Según explican algunos empleados de Xerox el año 1996 en un

documental creado por PBS.org, “Triumph of the Nerds”, – donde se relata la turbulenta

historia de esos años donde los nerds triunfaron y muchos se hicieron millonarios, Bill

Gates, Steve Jobs, Paul Allen, Steve Ballmer, entre muchos otros – , una vez que la

Page 39: Bicentenario BZ CHW

Pág 39 de 254

compañía (Xerox) se dio cuenta que la computación iba a reemplazar gran parte del

papeleo del que ellos vivían con las fotocopiadoras, tuvieron que poner manos a la obra y

crear el PARC.

Imagínense a Google en los años 70, ese era el PARC con Bob Taylor a la cabeza, fueron los

primeros en instaurar sesiones de “brain storming” en unas especies de “puff” que

pueden ver en el video. Ellos estimulaban la creatividad, así es como nacieron tantos

inventos geniales. Con decirles que de los top 100 investigadores de computación, 58

trabajaban en el PARC. Taylor les ofreció a esos genios nerds protección de presiones

comerciales, recursos ilimitados y un ambiente de trabajo propicio para la invención, libre

de presiones.

Sobre ímpetu de juventud, incapacidad de materializar productos y juicios por montón

Pasemos a la parte sabrosa entonces de la historia de Xerox, su centro de investigación y

su legado.

En los años 70 Xerox era una compañía

con un éxito imparable, el flujo de dinero

que entraba en sus arcas no cesaba,

básicamente esto debido a la posición casi

monopólica en el negocio de las

fotocopiadoras de oficina.

En 1972 los ingenieros del PARC

concibieron una máquina tal que dejaba a

las computadoras de entonces como

verdaderos elefantes blancos y las

acercaba a las personas gracias a la

“escala humana” con que fueron

fabricadas; había nacido ‘El Alto’.

Si en ese entonces para comunicarse con

una computadora había que introducir un

papel perforado, con el ‘Alto’ nacía la

interactividad, la respuesta instantánea hacia el usuario, no más esperar días para obtener

una respuesta. Y nacía también el concepto de “computadora personal”, que dicho sea de

paso era considerado un verdadero despilfarro de recursos, la eficiencia estaba, en esos

tiempos, en que cientos de individuos utilizaran aquellas enormes moles.

Page 40: Bicentenario BZ CHW

Pág 40 de 254

En diciembre de 1979 un joven Steve Jobs junto a un equipo de ingenieros de una briosa y

entusiasta Apple Computer (recordemos que Apple fue fundada en Abril de 1976 por Jobs

y Steve Wozniak) visitaba las instalaciones del PARC, presenciando todos los avances de

hardware y software en vivo y en directo. Mal que mal todo lo interesante por esos años

en Silicon Valley ocurría en el PARC. Así es como luego de un tiempo Jobs se “inspira” en

estos avances del PARC para crear Lisa y posteriormente el Macintosh. Pero ahí no

acabaría la relación e “inspiración” de Jobs con inventos salidos del PARC. Cuando el

Macintosh vio la luz del día en 1984, estaban en plena batalla con “Big Blue” IBM, las

ventas no fueron de acuerdo a lo previsto, de hecho fueron desastrosas. Apple necesitaba

diferenciarse de IBM de alguna forma, necesitaba una “killer application”. Esa fue la

impresora láser. Era la forma de llevar exactamente lo que se veía en la GUI perfecta del

Mac al papel. Y Apple la tomó prestada junto con Adobe en una suerte de asociación.

Todo encajaba perfectamente, pero Xerox nuevamente se quedaba fuera de la película.

Una de las situaciones más polémicas y coloridas que tienen su origen en las oficinas del

PARC es la demanda de Apple hacia Microsoft el año 1988 donde Apple Computer

clamaba que el “look and feel” de su sistema operativo estaba bajo copyright y que

Microsoft había violado el acuerdo firmado con ellos cuando esta le cedió ciertas licencias

con respecto al GUI para Windows 1.0. En el momento que Microsoft agregó a Windows

2.0 ventanas que se sobreponían unas a otras y diversas otras características presentes en

la GUI de Macintosh, Apple demandó. Pero Bill Gates, tan zorro como él solo, respondió

que Apple no tenía nada que alegar, ambos habían copiado de Xerox. Un ‘crack’ el

hombre.

Mientras esto ocurría Xerox movió sus cartas y aprovechó de demandar a Apple Computer

de forma similar a la que esta presentó contra Microsoft, pero fue desechada por el

tribunal debido a la caducidad de una de las cláusulas. Finalmente la corte le dio la razón a

la compañía de Redmond en 1994, Apple para la casa con la cola entre las piernas, esto en

sentido figurado, claro está, pues los miles de millones de dólares estaban a la vuelta de la

esquina para la compañía de la manzana mordida.

Page 41: Bicentenario BZ CHW

Pág 41 de 254

Xerox versus IBM

En el área de los computadores personales no les fue mucho mejor que con el resto de

inventos desaprovechados. De partida el Alto, un equipo con un costo de USD$75.000 por

una configuración básica, lo dejaba fuera del mercado, y así fue, pero no es menos cierto

que nunca fue concebido para ser un producto comercial.

Luego la Xerox Star, que poseía, por lo bajo, un GUI con ventanas, íconos, carpetas, un

mouse, interfaz ethernet, servidores de archivos, servidores de impresión y e-mail, sí

pretendía llegar a serlo. Con un precio de USD$16.000 de la época, una oficina común

debía comprar al menos 3 equipos, un servidor de archivos y servidor de impresión, lo que

elevaba la suma entre USD$50.000 y USD$100.000. Así es como su precio y la salida ese

mismo año del IBM con procesador Intel basado en 8088 fueron los que dieron la

estocada de muerte al emprendimiento de la maltrecha Xerox.

Page 42: Bicentenario BZ CHW

Pág 42 de 254

El presente y futuro del Palo Alto Research Center

Actualmente el PARC es una compañía independiente desde el año 2002, pero aún

propiedad de Xerox y trabaja creando innovaciones en un amplio espectro para industrias

comerciales no-competidoras de Xerox, tales como Fujitsu, Dai Nippon Printing Co., Ltd.

(DNP), Samsung, NEC, SolFocus, Powerset, entre muchas otras, mientras que Xerox mismo

sigue incorporando las tecnologías acá creadas en sus productos y soluciones (el 50% de

estas para ser exactos).

Entre las investigaciones que posee actualmente el PARC están áreas tan diversas como:

sistemas bio-médicos y bio-informáticos, etnografía, sistemas de control inteligentes y

autónomos, reconocimiento inteligente de imágenes, microfluidos, procesamiento natural

del lenguaje, optoelectrónica y sistemas ópticos, privacidad y seguridad, computación

ubicua, entre muchos otros.

Finalmente, si existe un material que condensa la historia, enfocada desde el lado

humano, del PARC, ese es sin duda el libro “Dealers of Lightning: Xerox PARC and the

Dawn of the Computer Age” de Michael A. Hiltzik, publicado por HarperCollins, una lectura

imprescindible para aquellos que deseen profundizar en las aventuras y desventuras del

centro de investigación de Xerox, un gigante amable e incomprendido.

Page 43: Bicentenario BZ CHW

Pág 43 de 254

(032) Creación de Google, nace un Gigante Por Francisco Luco

Debe ser difícil sentarse a desarrollar una simple tesis doctoral con la convicción de que,

en realidad, se está trabajando en hacer germinar una idea que si acaso no cambiará el

mundo, por lo menos moldeará la tecnología de las décadas venideras –tanto en el plano

doméstico como empresarial– y los hábitos de decenas de millones de personas, yendo

incluso más allá del ámbito estrictamente informático.

Sergey Brin y Lawrence “Larry”

Page eran, como tantas otras

mentes brillantes del Valle, sólo

estudiantes universitarios a la

hora de idear lo que acabaría

convirtiéndose en Google.

Particularmente notable es el

caso de Larry, de origen ruso, hijo

de un científico de la NASA y una

profesora de matemáticas, y

considerado una eminencia en

esta última ciencia ya en la

educación secundaria.

El perfil en detalle de ambos

creadores será materia de otro

venidero artículo. En razón de

ello, baste decir, por el momento,

que los dos eran sujetos bastante

apasionados por sus ideas,

conformaban un buen equipo y

pasaban bastante tiempo juntos,

a pesar de que discutieran frecuentemente (cumpliéndose así el segundo cliché de las

historias de este tipo: el de los emprendedores que ya se conocían, discutían y llevaban

bien de jóvenes).

La idea original de Google, en todo caso, fue de Page. Buscando un tema de investigación

que le apasionara lo suficiente como para basar en él su tesis doctoral, y por

recomendación de un profesor (en lo que el mismo Page definirá después como el mejor

consejo que recibió en toda su vida), Larry acabó decantándose por el funcionamiento de

Internet –tras descartar una treintena de alternativas– porque detrás de sus colores,

Page 44: Bicentenario BZ CHW

Pág 44 de 254

ventanas y caracteres existía una variedad de fórmulas matemáticas, algoritmos, redes de

nodos, gráficos y demás cosas raras que a matemáticos como él le fascinaban (y a

humildes hombres de letras como yo dejarían en un estado catatónico).

Visto en retrospectiva, la decisión adoptada a la hora de determinar su área de

investigación fue tan sabia como la frase que su padre hubiera pronunciado tiempo atrás:

“un trabajo puede definir una carrera académica entera” (aunque probablemente haya

olvidado agregar: “además de hacer millonario al investigador y dejar una huella indeleble

en el mundo”).

El proyecto, bautizado en aquel entonces “BackRub”, pronto concitaría también el interés

de Sergey Brin, quien tras buscar sin éxito un tema académico de interés, se involucró en

el trabajo de su amigo porque, por una parte, era su amigo, y por otra parte porque le

parecía que Internet representaba la centralización del conocimiento humano.

La apuesta era innovadora, si bien para nada pretensiosa en un comienzo. En una época

en que la red de redes tenía como gran referente a AltaVista a la hora de realizar

búsquedas, la piedra angular sobre la cual se erigió el proyecto –que no consistía sino en

organizar una especie de biblioteca digital universitaria– resultó ser algo totalmente

nuevo y se llamó PageRank. Éste es el algoritmo que implantaría en Internet una especie

de sistema de citas bibliográficas, permitiendo determinar más tarde la importancia de los

datos existentes y jerarquizarlos, de acuerdo a la cantidad y calidad de sitios que “citaran”

a tales datos.

En el mundo académico la relevancia de una obra se suele extraer no sólo de la cantidad

de publicaciones que se citan como referencia, sino también de la cantidad de

publicaciones que, a su vez, citan a la primera entre sus fuentes. Esta sencilla premisa fue

la que Page aplicó a la WWW, desarrollando así el ya citado algoritmo (y que hoy, a pesar

de sus constantes modificaciones, sigue siendo la base del motor de búsqueda de Google).

Para ilustrar de mejor manera el funcionamiento de PageRank, piénsese en cualquier

sistema de competencia (como en un torneo de ajedrez o quizá un juego en línea) en el

cual el puntaje obtenido por cada competidor dependerá no sólo de cuántas partidas haya

ganado o perdido, sino también del puntaje que posean sus contrincantes, cuyos puntajes

se determinarán, a su vez, por los puntos que hayan tenido los otros jugadores contra los

que hayan ganado o perdido, y así ad infinitum.

Con el correr de algunos años, lo que inicialmente fue concebido tan sólo como un

proyecto de indexación de contenidos y biblioteca digital en la Universidad de Stanford

(en la que tanto Page como Brin cursaban sus respectivos Ph.D) acabó transformándose

en una actividad que demandaba gran parte del tiempo y esfuerzo que sus autores

Page 45: Bicentenario BZ CHW

Pág 45 de 254

debieran haber estado empleando en quehaceres académicos. Sin embargo, esta empresa

estaba destinada a ser mucho más que un hobby o un proyecto universitario, de manera

que aquella idea que fuera originada pocos años antes, en 1997 adquirió nombre, forma e

identidad propia.

Eso sí, la ambiciosa meta de organizar sitios web requería de recursos, si bien el

financiamiento de la mano de los infaltables ángeles inversores no tardó en llegar. Con

ello, no se hablaría más de aquel primitivo proyecto llamado BackRub; se hablaría en

adelante de Google.com.

El ascenso hacia la cumbre

En 1998 Google se convierte en una empresa con todas las de la ley. Y nuevamente, como

en toda historia de chips y jóvenes millonarios, la sede escogida para trabajar fue un

garaje (en este caso el de un amigo en Menlo Park, California). A partir de allí, el de estos

dos jóvenes será un relato lleno de éxito y fortuna; con sus correspondientes caídas y

controversias, claro está, pero apenas capaces de opacar un historial tremendamente

fructífero desde todo punto de vista: financiero, tecnológico, mediático y hasta

sociológico.

Financiero, pues –qué duda cabe– Google se ha convertido en una compañía altamente

rentable, con ingresos que en 2009 ascendieron a la suma de 23.651 millones de dólares y

le han reportado a Sergey Brin y Larry Page una fortuna de 17.500 millones de dólares,

posicionándose ambos en el puesto #24 del ranking Forbes de los más ricos del mundo.

Por otra parte, y siendo probablemente el aspecto que merezca menos explicación por su

natural obviedad, Google también ha resultado ser toda una epopeya desde el punto

tecnológico. La compañía es a día de hoy una de las más reconocidas en el ámbito de la

informática –y la más importante de Internet– no sólo por las estruendosas cifras verdes

que recaba, sino también por la influencia que logra ejercer en el resto de la industria

gracias a una innovación permanente y al afán por convertirse en el principal referente a

la hora de realizar cualquier actividad en la red de redes.

El punto de vista mediático no puede escapar a los aspectos anteriormente mencionados.

Una empresa sana en lo que respecta a sus finanzas, y así de importante en cuanto a la

repercusión tecnológica que produce, no puede menos que ser reconocida por cuanta

revista, periódico y medio prestigioso en general exista, de la misma manera que un

sujeto con dinero y poder probablemente termine convirtiéndose tarde o temprano en

una especie de magnate-rockstar.

Page 46: Bicentenario BZ CHW

Pág 46 de 254

Muestra patente de lo anterior son no sólo las infinitas crónicas y biografías que se han

escrito a lo largo de miles de páginas sobre Google y sus fundadores, sino también su

consolidación en rankings

internacionales. En este sentido,

recordemos que Google resultó

ganadora dos años consecutivos en la

lista elaborada por Fortune de las

mejores compañías en donde trabajar,

debido a su peculiar ambiente laboral y

cultura corporativa. Y si de

posicionamiento se trata, demás está

decir que Google es a día de hoy el sitio

web más visitado en todo el orbe,

aunque en este punto hay que hacer

una salvedad: hay épocas en que

Facebook.com es más visitado que

Google.com, pero si contamos todos los

sitios regionales de Google (.cl, .com.ar,

.pe, .es) esa ventaja se revierte, y más si

sumamos Google Reader, Gmail y

Google News, por ejemplo, que son

percibidos por la gente como parte de

Google mismo.

Por último, consideremos también la manera en que Google ha traspasado las fronteras

digitales, para alcanzar una inmersión en la cultura popular y una repercusión tal en la

sociedad contemporánea, que ha llegado a moldear hasta el comportamiento de nuevas

generaciones e incluso modificar el lenguaje. En tal sentido no debiera sorprender, por

ejemplo, que el Oxford English Dictionary (lo que es para el español el Diccionario de la

Real Academia) haya incorporado el término “google” en sus páginas, definiéndolo como

“usar el motor de búsqueda de Google para obtener información en Internet”. Sin ir más

lejos, y aun cuando nuestra lengua evolucione a un ritmo mucho menos veloz desde el

punto de vista académico, ya no extraña a nadie la utilización popular de un símil:

“googlear”.

En razón de lo anterior es que resulta interesante observar hasta qué punto influye

Google en el día a día de cualquier persona, y ya no necesariamente en el de una

corporación o un asiduo a la tecnología. Hoy, probablemente sea imposible para un nativo

digital desenvolverse o siquiera imaginar un mundo sin Gmail o sin las búsquedas de

Page 47: Bicentenario BZ CHW

Pág 47 de 254

Google; e incluso podríamos aventurarnos a decir que hasta la dueña de casa o un abuelo

relativamente aventajado (en términos cognitivos) realiza actualmente, cuanto menos, un

par de búsquedas diarias para encontrar determinada información –en un acto ejecutado

casi por inercia, sin cuestionamiento alguno de por medio, y que nos parece a todos de lo

más natural–.

Finalmente, si nos inmiscuimos en la vida de alguien ya más interiorizado en el manejo de

las nuevas tecnologías, podríamos pensar en al menos una decena de situaciones

cotidianas en que empleamos alguna herramienta provista por Google, incluso a veces

rebasando las fronteras del notebook o PC de escritorio. ¿O ninguno de los presentes ha

debido localizar una determinada dirección encontrándonos en plena calle?

Como corolario de lo anteriormente dicho en cuanto a la exitosa carrera de Google, sus

fundadores han llevado a cabo un par de contrataciones que difícilmente podrían dejar

indifierente a alguien y que vale la pena mencionar.

En 2001 Google contrató a un prestigioso Eric Schmidt para que oficiara de CEO,

conformándose así un verdadero triunvirato al interior de la compañía, pues el peso de

alguien como Schmidt apenas podría resaltarse relatando que previamente ostentó

algunos cargos en Bell Labs –centro de investigación y desarrollo de Alcatel y hasta hace

algunos años de AT&T, fundada originalmente en el siglo XIX por el mismísimo Graham

Bell–, en Sun Microsystems y en el afamado Xerox’s Palo Alto Research Company.

Por último, en 2005 el mismísimo Vinton Cerf –proclamado por muchos como el padre de

Internet– pasó a formar parte de las filas de Google, desde donde lanza de cuando en

cuando algunas predicciones sobre cuestiones como el desarrollo de la red e inteligencia

artificial. Imposible realizar una mejor contratación, pues el padre de Internet no engruesa

la planta de cualquier compañía, ¿no?

Page 48: Bicentenario BZ CHW

Pág 48 de 254

Google en la actualidad

A pesar de todo lo anteriormente expuesto, resulta natural pensar que tamaña

multinacional no podría haberse posicionado en donde se encuentra actualmente sin

haber enfrentado a lo largo de su historia críticas y controversias tan grandes como la

compañía misma (algunas de las cuales, de hecho, son bastante actuales y se encuentran

plenamente vigentes).

Precisamente por el tamaño de Google es que no pocas veces se ha puesto en duda la

forma en que ésta maneja la información de millones de usuarios en todo el mundo,

llegando a surgir cuestionamientos respecto de la vigencia y el respeto de ciertos

derechos fundamentales o valores como la libertad de información, la libertad de

expresión y la –ya a estas alturas prácticamente demacrada– privacidad.

Una vez más, para dimensionar la relevancia del invento de Brin y Page y el vertiginoso

crecimiento de Google en los últimos años, baste recordar episodios como el de los

encontrones con China y la censura, que terminó cerrándose con la salida de la empresa

de dicho país y en el que pudimos apreciar cómo una multinacional es capaz de

posicionarse de tú a tú frente un régimen particularmente poderoso (tanto en términos

políticos como económicos) como el chino. Asimismo, podemos recordar el escandaloso

“robo” de información privada en el caso de las redes Wi-Fi abiertas (concitando

demandas en toda Europa y Estados Unidos, además de un mea culpa por parte de Sergey

Brin) y la candente guerra abierta contra escritores y asociaciones de autores por la

indexación de obras protegidas.

Mención aparte merece la recientemente desatada polémica sobre la propuesta de

neutralidad en la red, realizada en conjunto con la operadora estadounidense de

telecomunicaciones Verizon. Dicho esto, creo que no existe en la actualidad una mejor

manera de graficar cómo una empresa logra expandirse tanto, al punto que puede poner

en peligro la propia naturaleza e integridad del medio en que nació, creció y del cual vive

(llegando a desarrollarse una relación casi simbiótica, en la que Google perdura gracias a

Internet y el sustento de esta última se debe en considerable medida a la “Gran G”).

En el contexto de esta última idea, realicemos el siguiente ejercicio de ficción: imaginen

que la pisada de Google acabara presionando tan fuerte que, al cabo de unos años, la

propuesta aludida llegara a concretarse. Probablemente sería el momento de decir adiós a

la prostituida “libertad”, al más manoseado aún “don’t be evil“, y de dar la bienvenida a

las restricciones y el manejo de Internet según el interés de unos pocos.

Page 49: Bicentenario BZ CHW

Pág 49 de 254

El pulpo expande sus tentáculos

Ya decíamos que desde el punto de vista puramente comercial, Google no se ha detenido

en ningún momento. En este sentido, hitos que marcan la ampliación hacia nuevos

negocios –como la compra de Keyhole, Inc. en 2004 y el posterior lanzamiento de Google

Earth, o la adquisición del portal de vídeos más visitado del mundo, en 2006, por 1.650

millones de dólares– parecen episodios anecdóticos al lado de decisiones que

verdaderamente marcan un antes y un después, y que representan no sólo una ganancia

financiera sino también de poder real.

Ejemplos de esto último son la compra en 2003 de Pyra Labs y su plataforma Blogger –con

la consecuente inmersión y protagonismo cobrado por Google en la verdadera revolución

informática y sociológica que ha sido la Web 2.0– y la incursión de nuestra compañía

favorita en el promisorio espectro móvil (que nadie cuestiona que sea el futuro), con el

lanzamiento de Android, más tarde con la comercialización de su propio smartphone –el

Nexus One– y la descarnada competencia emprendida –aún pesar de su estrecha y

todavía perdurable colaboración– contra Apple.

Pero así como el día de ayer la identidad de la Gran G no era más que la Internet

“doméstica”, y hoy el gigante se ha asentado hasta en nuestros teléfonos móviles, el día

de mañana Google se encontrará instalado hasta en nuestros computadores personales,

con un sistema operativo propio y una amplísima gama de software de escritorio

disponible desde hace ya un tiempo considerable (dentro del que encontramos, por

Page 50: Bicentenario BZ CHW

Pág 50 de 254

ejemplo, el exitoso navegador Chrome, cuyo uso ha aumentado muy rápidamente desde

que irrumpiera públicamente a fines de 2008). ¿Qué espacios quedarán libres para el día

de mañana?

Dicho lo anterior, los más asustadizos podrían llegar al extremo de pensar en una entidad

literaria que ya se ha convertido en un cliché a estas alturas: el Gran Hermano. Extraído de

la distopía orwelliana “1984″, el concepto alude a un ente de autoridad que no es en

realidad una corporación (como podría ocurrir en el caso de Google); en cambio se trata

del régimen político imperante, el cual tenía conocimiento de todas las acciones que sus

ciudadanos llevaban a cabo a cada momento, sirviéndose para ello de tecnologías

futuristas y, sobretodo, de la premisa fundamental de que “la información es poder”. ¿Y

qué otra empresa de Internet, sino Google, podría vanagloriarse de operar hoy en día con

tamañas masas de información, en una era en que esta última es precisamente su piedra

angular?

Conclusión

Desde luego es imposible explorar cada uno de los lanzamientos o hitos en general que

han marcado a esta emblemática compañía a lo largo de su historia. Sin embargo, con la

sucinta selección realizada, espero que pueda quedar suficientemente claro por qué el

nacimiento y posterior crecimiento de una empresa como Google, cuya marca quedará

impregnada en el ADN de las nuevas generaciones, y cuya trascendencia ha merecido

hasta una adaptación cinematográfica (no creo que exista mejor manera de reconocer lo

que al hombre le parece importante, sino produciendo un largometraje), con toda justicia

deben ser considerados uno de los eventos más trascendentes para la tecnología en los

últimos 200 años.

Al final, qué duda cabe, Google ha llegado a transformarse en la identidad e imagen por

antonomasia del período histórico en que nos encontramos: la sociedad de la

información.

Page 51: Bicentenario BZ CHW

Pág 51 de 254

Page 52: Bicentenario BZ CHW

Pág 52 de 254

(039) Cuando Google compró Youtube Por Felipe Figueroa

Los Garage Days de Youtube

A mediados de la primera década del siglo empezaron a florecer un tipo de sitios que

antes no se veían. Sitios dedicados al video, pero alimentados en forma social. Los mismos

usuarios se ocupaban de subir su material, compartirlo y comentarlo, viralizar el

contenido de terceros y, de a poco, construir un ecosistema de videos que incluía

bloopers, segmentos pirateados de películas o series de TV, cortometrajes absolutamente

amateurs y, en fin, de todo un poco.

De entre esos sitios todos recordamos a Youtube, pero también destacaban Metacafe y

DailyMotion, por ejemplo, y luego se sumaron otros como Vimeo, Blip.tv, Veoh y Viddler.

A todos les iba relativamente bien, pero Youtube era por mucho el líder de la manada.

Youtube fue fundado a principios del año 2005 por Steve Chen, Chad Hurley y Jawed

Karim. Los tres se habían conocido mientras trabajaban en Paypal, una compañía

subsidiaria de eBay.Se supone que una vez fueron a una fiesta en San Francisco y cuando

quisieron compartir el video de la jarana, se dieron cuenta de que no había un servicio que

lo hiciera sencillo, así que decidieron armar el sitio. Esa era la versión oficial, claro. En

realidad después se supo que nunca hubo fiesta, nunca tomaron un video, y San Francisco

Page 53: Bicentenario BZ CHW

Pág 53 de 254

no existe (epa, eso lo inventamos nosotros) pero lo importante es que la historia no es tan

anecdótica. Lo cierto es que querían hacer un sitio de parejas, para conocer otros solteros

(o casados traviesos) y calificarlos según su video. Esa idea no era tan apoteósica, pero

afortunadamente para ellos nunca limitaron el tipo de video que se podía subir, y

paralelamente habilitaron el reproductor para pegarlo en otros sitios. Resultado: exitazo.

La historia dice también que en un comienzo simplemente tomaron muchos PCs y los

juntaron en el garage de uno de los fundadoress. Pusieron el mejor enlace que pudieron

pagar con sus ahorros y se sentaron a esperar lo mejor: la plataforma ya estaba y había

que esperar a que los visitantes fueran llenando el sitio con sus videos, lo cual ocurrió más

que rápido. En realidad eso debe ser tan falso como la fiesta en San Francisco, pero al

menos sabemos que cuando Google los compó, arrendaban un amplio segundo piso en

San Bruno y tenían 60 empleados.

Page 54: Bicentenario BZ CHW

Pág 54 de 254

Entra Google al Negocio

Ocurrió en octubre de 2006. Sorpresivamente para muchos (aunque el rumor se había

escuchado un poco antes), se anunció una compra millonaria que ascendía a nada menos

que USD 1.650 millones. Google se quedaba, mediante esa compra, con el sitio de videos

más exitoso del planeta. Trascendió que paralelamente Yahoo también había puesto sus

billetones en la mesa, pero la gran G se impuso. Cabe preguntarse cuál hubiera sido el

devenir de Yahoo -y por tanto de Youtube- si la historia hubiera sido distinta.

Decimos lo anterior por algo que no es el tema central del artículo, pero que ocurrió de

todos modos y vale la pena mencionarlo. Resulta que nueve meses después de que

Google comprase a Youtube, el CEO de Yahoo, Terry Semel, tuvo que dejar su cargo.

Razones habían muchas y todas hablaban de la palidez con que el gigante de la web

estaba enfrentando la era de la Web 2.0. La empresa se sentía estancada y culparon a

Semel, pero luego pasaron todo el 2008 llorando la estabilidad que les había dado, visto

que bajo Jerry Yang la firma anduvo de mal en peor y pasó meses arrancando de Microsoft

para luego ir a pedir que reconsideraran la idea de comprarlos. En fin, es otro tema, pero

si Yahoo hubiese comprado Youtube la Web sería distinta hoy. A lo mejor Yahoo estaría

mejor parado, o a lo mejor Youtube se habría ido a pique.

Mientras Youtube era un servicio de video que corría en unos servidores roñosos en un

garage, a nadie le molestaba. Para los estudios cinematográficos y discográficos que veían

con molestia que los usuarios del sitio social subieran material protegido por derecho de

autor, era sólo un tema doméstico el usar o no las cláusulas DMCA. Al final a veces uno

deja que una mosca revolotee en la habitación simplemente porque el esfuerzo de

matarla no parece valer la pena.

Luego Youtube creció, y mientras más crecía peor lo miraban los estudios. Pero hablando

en serio, uno no demanda al que no tiene con qué pagarle: los triunfos morales son muy

bonitos pero los abogados no cobran en bolitas de dulce, y las corporaciones no te

demandan si no tienes plata. A veces te echan encima unas cartas de Cease & Desist y en

algunos casos han logrado cerrar sitios y servicios que les molestaban particularmente,

pero una cosa es lograr cerrarlos y otra distinta es querer ganar plata en la corte.

Cuando Google se convirtió en dueño de Youtube, la situación cambió radicalmente y una

semana después Mark Cuban instaló la noción de que los estudios se tirarían en picada a

demandar a Youtube ahora que eran parte de un gigante tan forrado como Google.

Cuando esa vez publicamos una columna al respecto hubo opiniones encontradas. No

faltó el que dijera que era una opinión alarmista y que no pasaría nada, pero como más

sabe el diablo por viejo… la predicción se cumplió.

Page 55: Bicentenario BZ CHW

Pág 55 de 254

Fue nada menos que VIACOM (Dreamworks, Paramount Pictures, MTV, Comedy Central,

VH1, entre otros) que en marzo 2007 interpuso una demanda por USD 1.000 millones.

Dijo que Youtube no era lo suficientemente colaborativo como para dar de baja los videos

que violaban copyrights, y por lo tanto no podían ampararse en la DMCA. Esos USD 1.000

millones eran su cálculo estimado de los perjuicios sufridos por el material difundido a la

mala. Lo que no es tan evidente es que dos meses antes habían exigido el retiro de todos

los videos infractores. Aparentemente, mientras Youtube eliminaba algunos, la gente

subía otros y nunca terminaron de limpiar el sistema (pero esto tiene otra explicación).

El juicio se prolongó por 3 años y tuvo hitos como:

• Que un juez ordenó que Google entregaraa VIACOM el historial de sus usuarios

para determinar quienes eran los culpables directos

• Que VIACOM desistió de recibir esos datos (nos salvamos)

• Que se descubrió que la misma gente de VIACOM había subido miles de videos, lo

cual equivale a fabricarse un penal

Combos iban, combos venían, pero al final Youtube venció y la corte determinó que

habían cumplido con la Digital Millenium Copyright Act, por lo que las exigencias de

VIACOM no prodecían. Fue un litigio que tiñó el devenir del sitio que nos convoca casi

desde que llegó a manos de Google, y terminó hace tan poco que uno tiene la noción de

que la demanda siempre estuvo, que era parte inherente y consustancial a Youtube.

Pero bueno, el lector podría pensar que este es el único problema que ha tenido Google

por culpa de Youtube, cuando en realidad hay una lista incontable. Incluso hubo un caso

en que un juez italiano condenó a ejecutivos de Youtube por un video de Bulling subido en

la península. Inaudito.

Page 56: Bicentenario BZ CHW

Pág 56 de 254

Y qué pasó después

Hace pocos meses Youtube cumplió 5 años, y a fines del año pasado ya celebraban haber

sobrepasado los 1.000 millones de reproducciones diarias. Todo indica que desde

entonces hasta ahora han aumentado otro poco. Cuando Google los compró a fines del

2006 tenían aproximadamente la décima parte del tráfico actual: en julio de 2006

reportaban 100 millones de impresiones diarias.

Ante todo, la pregunta recurrente de la industria fue ¿Cómo hará Google para rentabilidad

Youtube? Una cosa es tener un servicio exitoso con millones de visitas diarias, y otra muy

distinta lograr que ese servicio deje dinero. Pues bien, la rentabilización de Youtube es un

tema que hasta el día de hoy no está cerrado. Se han hecho avances eso sí, pero son

tibios. Se despliega publicidad en algunas secciones de la página y también en algunos

segmentos de los videos, pero nada de eso es lo que se dice un negocio redondo.

Como una idea paralela con que los estudios quisieron oponer resistencia a Youtube, fue

justamente que nació Hulu, un servicio que agrupa a NBC/Universal y a Fox, conteniendo

casi la totalidad de los episodios de esas y otras cadenas, los cuales son visualizables

mediante un pago. Ahora último, hasta tienen planes de suscripción mensual, claro que

funciona solamente en los Estados Unidos. Contrariamente a lo que suele ocurrir cuando

las corporaciones intentan imitar a las redes sociales orgánicamente evolucionadas, a Hulu

le va bastante bien. Un año después de su lanzamiento ganaba tanto dinero como

Youtube (contando sólo la audiencia de USA), claro que tiene solamente una fracción de

las visitas. Hulu no es el tema central de esta historia, pero es importante notar que sería

erróneo pensar que “no hay cómo ganar plata con un sitio de videos”. Plata se puede

ganar, pero es difícil con un sitio gratuito. Vale la pena precisar eso sí, que Youtube

también tiene secciones de pago, o mejor dicho, arriendo de películas. Claro que es un

negocio pequeño: le deja como USD 30.000 al mes, que para Youtube es nada y, para

Google, menos.

Otro cambio bastante relevante en la oferta de Youtube es la posibilidad de desplegar

video en mejor resolución que la originaria. Cuando recién había partido el servicio, los

videos se reproducían a 360p. El visor flash puede escalarse al tamaño que se desee, pero

eso obviamente no influye en la calidad del video, que en esa época seguía siendo bien

pobre. Allá por el 2006 el ancho de banda de los planes promedio que ofrecían los ISP ya

sufría para ver esos videos 320p sin detenerse a cargar cada 10 segundos.

Las cosas cambiaron y Youtube cambió con ellas, pero sería injusto decir que esto fue idea

de ellos o que la medida fue implementada exclusivamente por Youtube. Lo cierto es que

servicios como Vimeo y Dailymotion hicieron gala de mejores resoluciones de video con

Page 57: Bicentenario BZ CHW

Pág 57 de 254

anticipación, pero al menos Youtube pudo ponerse a tono y hoy en día muchos videos

ofrecen la posibilidad de reproducir a 240, 360, 480p, 720p, 1080p y en casos extremos

hasta 4096p.

Hay más, mucho más, pero la mayoría son pequeñas mejoras que a veces pasan

desapercibidas, pero que en conjunto han ido haciendo de Youtube un servicio cada vez

más completo. Google ha pregonado incrementalmente su idea de que la web es un

sistema operativo, y por lo mismo enriquece sus servicios integrando aplicaciones.

Youtube, por ejemplo, tiene un editor de videos y últimamente incorpora subtítulos.

Algo que, en cambio, es una mejora que no pasa desapercibida, es la función de Youtube

como impulsor del video HTML5. No es el único sitio que ha habilitado la posibilidad de

ver videos sin pasar por el reproductor flash, pero sí el más significativo.

Gracias a que Youtube habilitó los videos HTML5, el iPhone y luego el iPad pudieron

prescindir de flash y desplegar los videos usando el codec H.264, desencadenando una

pequeña guerra con Adobe. Pero la guerra de Apple con Adobe es sólo una cara de un

tema mucho más complejo, puesto que al prescindir de flash en realidad el tema tampoco

queda zanjado. Sucede que el codec H.264 no es gratuito ni abierto, por lo que

Page 58: Bicentenario BZ CHW

Pág 58 de 254

incorporarlo como estandar en los navegadores implica exponerse a que la MPEG LA te

cobre royalties.

Con esto en vista, Google compró la empresa On2 a fines del año pasado. Esta empresa

poseía varios codecs ampliamente utilizados (como el VP6) y Google tomó esa tecnología

y la recicló emitiendo un codec libre y gratuito, WebM. La difusión y soporte de WebM no

es tan masiva como la de H.264, pero es muy interesante que Google, como dueños del

mayor sitio de videos, de un códec y de un browser, se haya puesto en una posición tan

estratégica… lo cual nos lleva al punto siguiente.

Page 59: Bicentenario BZ CHW

Pág 59 de 254

No hay puntada sin hilo

¿Qué perseguía Google con esta enorme adquisición? Como muchos deben saber, la

especialidad de Google, su negocio central, son las búsquedas. En eso son buenos y

lideran el mercado, pero no es su principal fuente de ingresos, ya que nadie paga por

buscar. Su modelo de negocios obtiene ingresos de forma indirecta gracias a Adsense y

Adwords, su red de publicidad que se despliega en sitios propios y afiliados. Podríamos

partir diciendo que comprar un sitio de tráfico masivo le da a Google más inventario para

mostrar avisos, y más avisos es más dinero.

Sin embargo, pensamos que es más acertado pensar que Google no compró Youtube

pensando en ganar plata, o mejor dicho no lo compró pensando en explotarlo como un

negocio directo. Más bien pudo intuir su rol estratégico en la manera en que la web

evolucionaría a medida que se masificaban las conexiones de banda ancha fija y móvil. Un

informe que elaboraron para Eric Schmidt en la época sugería que Youtube valía, cuando

mucho, USD 700 millones por su potencial de rentabilidad: significa que el resto (nada

menos que USD 1000 millones extra) Google los pagó por externalidades positivas que

intuyó en el producto.

Verán, hace cuatro años el video online era un hobby interesante, pero no tenía los

ribetes universales que alcanza hoy. Actualmente hay múltiples actores usando el video

web como canal de difusión (políticos, empresas, medios de prensa) y Google supo mover

sus piezas justo a tiempo para capturar la tajada más gruesa de ese mercado.

A lo mejor no es un mercado que deje tanto dinero de por sí. Comparado con los costos

de mantener la enorme plataforma, creo que lo que se recauda por publicidad y arriendo

de películas es una cifra menor. Pero al mismo tiempo hay sinergias que fortalecen

sobremanera la posición de Google en todos sus otros negocios. ¿Ejemplos? El solo hecho

de usar HTML5 en Youtube es un golpe masivo para los evangelistas del video Flash. A su

vez, definir si ese HTML5 utiliza WebM o H.264 afecta la balanza que decidirá el estándar

del video web. Gracias a su compra de Youtube, Google es actualmente juez y parte en

muchas de las grandes decisiones que afectan y comprometen el futuro de la internet.

Podemos seguir pensando en otros ejemplos. Cuando Apple decidió prescidir de Flash del

iPhone y el iPad, podía descansar tranquilamente en que sitios como Youtube funcionan

con HTML5, pero de paso, Google es competidor de Apple si pensamos en el sistema

Google Android (versus iOS) y en el browser Chrome (versus Safari). En otras palabras, fue

la compra de Youtube lo que le permite a Google tener en sus manos el estándar de video

de un sitio tan masivo, tan popular, que puede usarse para asestar un golpe demoledor a

las plataformas y productos Apple. Si quita el soporte HTML5 o lo restringe al codec

Page 60: Bicentenario BZ CHW

Pág 60 de 254

WebM, puede poner a Apple patas arriba en pocas horas. No necesariamente lo hará,

pero el poder de empuñar una espada de Damocles sobre la testa de Apple vale más que

USD 1.650 millones.

Junto a su navegador y al sistema operativo móvil Google Android, la gran G también tiene

muy avanzado un sistema de escritorio (Google Chrome OS). Esos tres

proyectos/productos ofrecen entre sus características un fuerte énfasis en la conectividad

y por supuesto en una completa experiencia de lo que ofrece la web, dentro de lo cual el

video online es tal vez la mayor proporción en tráfico si no en tiempo consumido online.

Al tener a Youtube en su cartera, Google es autosuficiente en este sentido. Moldea sus

productos para aprovechar Youtube, y Youtube para ser compatible con sus productos.

Nuevamente, eliminar el riesgo de cualquier apuesta al tener la mitad de las dudas de

compatibilidad resueltas, vale más de USD 1.650 millones.

Google no da puntada sin hilo, y aunque es cierto que muchas veces compra

aparentemente a lo loco simplemente porque tiene más dinero del que puede gastar, hay

que entender que por debajo hay una estrategia de largo plazo que se adivina en

pequeños chispazos cuando de pronto pequeñas cosas, aristas inconexas, parecen hacer

milagrosamente una buena combinación, casi por fruto de la coincidencia. Pero no,

queridos lectores: cuando se trata de Google no hay coincidencias, y de entre todos los

ejemplos, Youtube es probablemente el más revelador y masivo de todos.

Page 61: Bicentenario BZ CHW

Pág 61 de 254

(046) Cell, el chip que se quedó solo

Por Italo Baeza

En el mundo de las consolas, la generación que traería los sucesores de la PlayStation 2,

Gamecube y XBOX tenía como objetivo demostrar que por hardware se podía llegar a

crear mejores juegos. Así, mientras Nintendo armaba Revolution tras bambalinas, Sony y

Microsoft empezaban a mejorar mover las piezas internas de sus respectivos productos.

XBOX 360 golpeó primero, con la típica camada de videojuegos que rozan las dificultades

técnicas y varios problemas de sobrecalentamiento, pero que se recuperó al año. ¿Y Sony,

dónde estaba? Ellos anunciaban que tenían una bomba nuclear en la palma de la mano.

PlayStation 3 fue uno de esos productos hiper-recontra-hypeados que sembró fanboys en

los campos de la Internet mucho antes de su lanzamiento. Prometía volarle la cabeza en

poder – tanto gráfico como de cálculo – a cualquier cosa que se le pasara por delante,

hackear la NASA, transformarte en el más inteligente del colegio, y dejar cualquier otra

consola mordiendo el polvo, o por lo menos, así lo mostraban las numerosas

demostraciones de la consola que presentaban Ken Kutaragi – padre del PlayStation – y

Kazuo “Kaz” Hirai, el cabezón de Sony Entertainment Entertainment Inc.

El responsable de todo esto era CELL, en gran parte, y así Sony lo hizo ver: cuando alguien

decía “Cell” también decía “PlayStation 3″ y al revés. Mientras IBM se jactaba que, junto

con Toshiba, era el producto de 4 años de desarrollo y 400 millones de dólares. Junto al

RSX (Reality Synthesizer) de NVIDIA, lo que mostraron en la E3 de lo que era capaz tanto la

consola como su núcleo era casi como lo mejor que hacía Industrial Light & Magic en esas

películas de La Guerra de las Galaxias. Todo tardó 1 año más tarde en salir que su

competencia más directa, a precios estrafalarios, pero que según los mandamáses de

Sony, valían la pena esas horas extra en tu trabajo para adquirirla. Consumismo en su más

puro estado.

¿Qué tenía de interesante este chip? Además de estar basado en PowerPC, básicamente

rompía el molde con lo que teníamos entendido de un procesador común y corriente,

pues su arquitectura era, en pocas palabras, un chip de 8+1 núcleos. El funcionamiento es

muy parecido a lo que podemos encontrar en los procesadores multinúcleo, como CPUs

de Quad-Cores o tarjetas gráficas, pero hecho para tareas mucho más particulares. Cell

consta de 8 SPE, todos funcionando de forma organizada por un PPE, y que podían

acceder directamente a la memoria XDR. Creo que no muchos me entendieron…

Page 62: Bicentenario BZ CHW

Pág 62 de 254

¿Qué acabas de decir?

El PPE, Power Processor Element, es el núcleo multihilo organizador de la fiesta, muy

parecido al CPU de un procesador de escritorio de arquitectura PowerPC. Mientras, los

SPE, Synergistic Processing Elements, son mini-procesadores de arquitectura RISC (como

algunos procesadores PowerPC y ARM) diseñados especialmente para procesar

instrucciones vectoriales, cada uno con 256KB de SRAM.

Como analogía, bastante rara y básica para no dejarlos dormidos frente a la pantalla,

imagínense una Tienda de Ropa Personalizada, algo así como un sastre pero más top y con

más gente trabajando. En éste hay un dueño y 8 sastres 100% especializados en hacer

trabajo de… sastre. Al entrar un cliente, el dueño (PPE) recibe al cliente, escucha la

petición, y manda a cada asistente (SPE) a tareas específicas: uno toma medidas en la

cabeza y las anota en una hoja (SRAM), otro toma medidas en la cintura, de los brazos,

piernas, etcétera. Al final el dueño junta todas las medidas, las analiza, arma la cotización

y despide al cliente.

Page 63: Bicentenario BZ CHW

Pág 63 de 254

A diferencia del PPE, que es comparable con el procesador de esos antiguos Mac G5, los

SPE son núcleos donde no existe Out-Of-Order Execution, Branch Predictor y Caché: aquí

hay completo control de lo que hace cada SPE, el cual corre mejor código vectorial que

escalar. Eso quiere decir que se tendrá un mayor rendimiento si le decimos a un SPE

“Suma A1, A2, A3 con B1, B2, B3 y dame los resultados en C1, C2, C3” que “Suma A con B y

dame el resultado en C, pero hazlo tres veces“. Se puede alcanzar mucho rendimiento

programando de forma vectoral (o en SIMD, o en Array, como quieran llamarlo), pero

también tiene sus problemas: ¿Cómo le pides que en la segunda vuelta no sume sino

multiplique A2 con B2? Sí, no es fácil programar para Cell que como cualquier otro

procesador de escritorio, porque a veces todo el rendimiento ganado se puede perder con

algunas líneas de código mal optimizadas.

En una consola, este modus operandi, donde cada SPE se puede especializar en una tarea

en específica mientras el PPE corre código escalar sin problemas soberbios de

rendimiento, es muy provechoso. No está en una computadora multi-propósito, sino en

un aparato pensado específicamente para las decenas de procesos que tienen lugar en los

videojuegos como inteligencia artificial, detección de colisiones, físicas, casi todo

paralelizable. Pero existía un problema gigante, que terminaron por sepultar a PS3 en sus

primeros días como a Cell por el resto de su vida. Dicen que el papel soporta mucho, las

palabras se las lleva el viento, siempre podrás usar un render para tus presentaciones,

WYSINWYG, y que del dicho al hecho, hay mucho trecho.

Page 64: Bicentenario BZ CHW

Pág 64 de 254

Lento y complicado por favor

Hace 4 años me dí cuenta que no todo sería un paraíso para los desarrolladores de

PlayStation 3. Quienes tendrían que lidiar con la consola, y sobretodo Cell, debían

soportar un pastelazo con el diseño del procesador y el acceso a memoria, algo muy

importante cuando se trata de simplificar procesos y el movimiento de información. En la

PS3 existen dos memorias: una XDR para uso de Cell, algo así como la RAM de nuestros

equipos, y la memoria GDDR3 para RSX, el chip gráfico. Ambos chips pueden leer las

memorias del otro chip ¿Van conmigo?

El pastelazo que mencioné es el siguiente: Cell era lento para escribir en la memoria

vecina GDDR3 de RSX y ¡250 veces más lento para leerla! Para los desarrolladores, el

problema se traducía en más trabajo: Para llegar a la memoria de RSX desde el procesador

sin perder rendimiento, tenían que darse la vuelta a la manzana y pasar lo que querían en

Cell a RSX para que desde ahí pudiesen hablar con la memoria gráfica, y viceversa. La

memoria XDR podía servir como una extensión a la memoria gráfica GDDR3, porque el

chip gráfico RSX no tenía problemas en leer ambas memorias a máxima velocidad, pero

Cell no podía extender a GDDR3 su memoria principal ya que andaba a la velocidad de

pendrive chino. Sí, yo también tuve uno. ¿Muy complicado? Tu vecino puede llegar a tu

propia casa corriendo y en un instante, pero si necesitas algo de la casa de tu vecino tú no

puedes hacerlo a la misma velocidad, debes pedírselo a él.

Sumado a eso la mitad de triángulos por segundo (275 millones) que RSX podía procesar al

compararlo con Xenos de XBOX 360 (500+ millones), el resultado estuvo a la vista los

primeros 3 años de vida de la consola, y con ello la reputación de Cell: Era un parto

Page 65: Bicentenario BZ CHW

Pág 65 de 254

programar para la consola, los videojuegos que salieron tenían serias fallas y se veían

pésimo comparado con la competencia, nadie quería arriesgarse con crear un título

exclusivo sin soporte financiero (por lo menos de Sony) por medio, y muchos juegos

cancelados para esa consola, dejando títulos que pegando simultáneamente en XBOX 360,

Wii y/o PC. Todo eso sucedió en una consola que costaba casi la mitad del sueldo de

mucha gente.

¿Quieren más? IBM tuvo bastantes problemas para producir el famoso chip. Algunos de

los SPE simplemente estaban muertos, lo que significó dejar sólo 6 disponibles para los

desarrolladores, 1 para el sistema operativo y otro por si llegase uno a fallar.

En la Internet el tema de las imposibilidades de PlayStation 3 resonó bastante. El que sabe

algo de inglés se va a reír con esta tira si no es primera vez que la lee.

Page 66: Bicentenario BZ CHW

Pág 66 de 254

Cell, el chip que se quedó solo

Como dijo delfín, “¿Quién lo hizo, y por qué lo hizo?” Las primeras impresiones siempre

son importantes, lo sé por experiencia propia en mi carrera, y su inicio no partió con el pie

derecho a pesar de no ser completamente su culpa. Comentaban por ahí que las

herramientas para desarrollar en CELL eran prehistóricas y difíciles de dominar. Los SPE

eran bastante específicos, y a pesar de tener bastantes para ser ocupados, si uno quería

sacarle el jugo se necesitaba bastante trabajo en el software, pensar mucho en procesos

multihilo, y así evitar tiempos muertos. Mientras el CPU de la XBOX 360 era algo así como

tres grandes Hummer, que servían hasta para llevar tres cadáveres fresquitos, Cell

disponía de seis Kia Pop que requerían desarmar y armar muy bien lo que querías llevar

adentro de ellos. Eso era un trabajo mucho más abordable por el sector de

supercomputadoras, por ello Cell fue puesto en Blade Center H y luego Roadrunner de

IBM.

Sólo el año pasado supimos que IBM le cortó la cabeza a un sector del desarrollo de Cell,

presumiblemente porque la evolución de la arquitectura era un callejón sin salida. Toshiba

anunció modelos de televisores con este chip para salir justamente este mes (si no lo han

retrasado), que seguramente serán carísimos. Por ahora las aplicaciones para Cell se han

limitado a una consola de videojuegos principalmente. De hecho, Sony no planea contar

con una evolución de Cell en PlayStation 4, lo que en otras palabras significa que buscarán

alguna solución que no termine por dejarlos vendiendo una consola a pérdidas y matando

la reputación del hardware que lleva adentro. Por otra parte, la merma de triángulos por

Page 67: Bicentenario BZ CHW

Pág 67 de 254

segundo en RSX le estaría costando a NVIDIA el contrato con Sony para la próxima

consola. ¿Es mi idea o todo lo que tocó Cell cayó en desgracia?

Menos mal, PlayStation 3 ha demorado su resto en madurar, y la arquitectura promete

durar bastantes años ya que el desarrollo también ha madurado… aunque prefiero pensar

que si llegara la PS4 ahora todos los partners de Sony no apoyarían ni un pixel la nueva

consola, bastante tienen con las aneurismas para programar en ella.

Por favor, si van a lanzar una PlayStation 4, ojalá no terminen por quitarle cosas a medida

que pase el tiempo, porque es la única consola que en mi vida he visto le han restado

cosas por cada versión que sale: Retrocompatibilidad, puertos USB, y OtherOS. Por otra

parte, el gran plus de estas consolas es la posibilidad de jugar aquellos títulos de la

generación anterior, así que está en el aire qué hará Sony para remediar eso cuando salga

la próxima versión de su consola si no contarán con Cell. ¿Volverán a juntarse con IBM y

Toshiba para remediar los errores del pasado o simplemente olvidarán todo esto? ¿Dejará

Sony un sucesor de Cell en la PS4 o veremos un chip totalmente diferente? ¿Cuánto

durará Cell en el mercado?

Page 68: Bicentenario BZ CHW

Pág 68 de 254

(053) Googleplex: El oasis de Silicon Valley por Francisco Bravo

¿Google… qué?

Si pudiésemos definir en una sola palabra a Google, creo que esa palabra sería

Googleplex, el centro de operaciones de la compañía con sede en Mountain View,

California. En este edificio han nacido todos los avances de la compañía, acá se condensa

el trabajo realizado por la asociación de estos dos genios llamados Larry Page y Sergey

Brin, ex-estudiantes de doctorado en Ciencias de la Computación de la Universidad de

Stanford, para crear el motor de búsqueda más famoso de la historia, acá se concretó la

compra de Youtube el año 2006 y probablemente acá se geste lo que se nos viene en el

futuro de Google, una compañía que no termina de sorprender día a día.

Pero, ¿qué tiene de especial Googleplex que lo hace ser un edificio tan famoso y deseado

por todo aquel computín con una mente soñadora como el lugar ideal para trabajar? Tal

vez sea bueno aclarar que existen oficinas de la gran G repartidas por todo el orbe, pero

como Googleplex no hay ninguna.

Page 69: Bicentenario BZ CHW

Pág 69 de 254

Googleplex es un complejo – de ahí viene el nombre, Google + complex, Googleplex – de

más de 20 edificios, donde habitan los empleados de la compañía o “Googlers” y en donde

se desarrolla y mantiene todo lo que conocemos de la compañía, desde la mantención de

los servidores de búsqueda y demás servicios, hasta la creación diaria de los famosos

“doodles”, esos dibujos que cambian regularmente en la página principal del buscador.

Una de las secciones del campus de Googleplex

Los cuatro edificios principales del complejo ocupan nada más ni nada menos que 47.038

m2, edificios que fueron construidos y originalmente ocupados por años por Silicon

Graphics (SGI), compañía fundada en 1982 – que le debe su creación al PARC y a la

Universidad de Stanford, por cierto. El resto del complejo se encuentra repartido en una

superficie de 110.000 m2 y éste contiene a su vez al Charleston Park, un parque público de

20.000 m2. El año 2003 SGI le arrendó sus instalaciones a Google, de éste modo el año

2006, que coincide con la compra de Youtube, la gran G le compra definitivamente a SGI

todas las instalaciones incluyendo Googleplex por USD$319 millones. El año 2006 fue, tal

parece, realmente importante en la historia de la compañía y diablos que sí tenían sencillo

en los bolsillos.

Dato freak: Cuál no fue mi sorpresa al visitar las instalaciones de Google de forma virtual –

justamente en uno de sus productos estrellas, Google Maps – y toparme con el que sea,

tal vez, el triángulo más significativo y prolífico en la historia de la tecnología de la

información y sistemas de hardware de todo el planeta, donde cada arista se encuentra

separada de la otra por menos de 3 kilómetros, el PARC, Google y la Universidad de

Stanford, esta última cuna de los creadores de Google y que aportó mucho también al

Page 70: Bicentenario BZ CHW

Pág 70 de 254

desarrollo del PARC. Muy cerca está también el edificio corporativo de Microsoft. Increíble

cómo el que poner las cosas en perspectiva a veces no da gratas sorpresas.

Prohibidos los Segway

Google desde sus inicios ha apostado por las operaciones autosustentables, dentro de lo

posible, claro está. Por ponerles un ejemplo, el año 2007 la compañía terminó de colocar

los 9.212 paneles solares encima de ocho edificios corporativos, además de la

construcción de dos estacionamientos techados solares, sistema que en su totalidad es

capaz de suministrar 1,6MW de electricidad. Estos paneles solares proveen el 30% del

consumo ‘peak’ que requiere Googleplex, también se utiliza para cargar los autos

eléctricos que utilizan algunos “Googlers”. Además de esto cada edificio está construido

con gran parte del techo con vidrios, de esta forma la luz natural se aprovecha muy bien

durante todo el día. Otro signo del lado “verde” se puede apreciar en que toda la madera

utilizada en la construcción del campus y del mobiliario es madera de bosques

sustentables, ecológicamente hablando. Dentro de las instalaciones existen muchísimas

“bicicletas comunitarias” que son utilizadas por los empleados para recorrer las

instalaciones de forma expedita, insonora y sana. Y cómo olvidar a las simpáticas cabras

que arrienda la compañía cada mes para que corten el pasto de todo Googleplex, estoy

seguro que no existen podadora de césped más ecológica y entretenida de mirar que

estos animalitos.

Probablemente uno de los ítems que más gasta energía dentro del complejo sean los

miles de servidores que dan vida a la esencia de Google, sus servicios. Y si esto se realiza

de la manera más sustentable y “verde” posible, tanto mejor. Acá un video donde la

Page 71: Bicentenario BZ CHW

Pág 71 de 254

compañía nos acerca a uno de sus Data Centers, con espacio para 45.000 servidores

dentro de alguno de los 45 contenedores.

La envidia de Silicon Valley

Sin temor a equivocarme por mucho, Google es por lejos la empresa en la que cualquier

empleado en el resto del mundo desearía trabajar: comida gratis, ya sean snacks o comida

preparada por un chef a gusto de cada empleado; varias horas al día de relajo dentro de

las horas laborales; muchas salas de juegos; Metronaps EnergyPods repartidos por todo el

campus para una reparadora siesta después de almuerzo; suculentos sueldos y bonos; un

fósil de un tiranosaurio Rex de mascota en la entrada de uno de los edificios donado por

Sergey y Larry; una réplica del SpaceShipOne dentro de uno de los edificios; cuatro

amplios gimnasios; dos piscinas “sin fin”; lavandería gratis; varias canchas para volleyball

de arena; 18 cafeterías con diversa selección de café, entre eso algunos granos son

cultivados en los mismos patios del complejo. ¿Queda alguna duda que Google cuida y

quiere a sus empleados?

No, no es un Zerg tragándose a un Googler, el hombre sólo está tomando una reparadora siesta en un EnergyPod.

Page 72: Bicentenario BZ CHW

Pág 72 de 254

Si no me creen vean el video que realizó la compañía con un tour por sus instalaciones en

200 segundos:

Recordará el lector asiduo a leer la sección “Noticias Breves” que algunos empleados nos

contaban, de primera mano, pero sin identificarse con nombre y apellido, algunos detalles

desconocidos de trabajar para la compañía de Mountain View. En ella nos enterábamos

de la idiosincrasia que ha generado el estilo de vida que se lleva ahí dentro en alguno de

los empleados. Uno de ellos contaba que en ciertas secciones de algunos departamentos

la gente era tan malcriada que comenzaba a reclamar por la mala calidad de los ‘brownies’

que se sirven gratis, lo que nos da también una perspectiva de que una política como la

que implementa Google también tiene sus aristas oscuras.

El viaje llega a su fin

En fin, son pinceladas de una fotografía que en general, como simples mortales, no

podemos apreciar en su totalidad, pero que se intentó bosquejar en éste artículo de la

mejor forma posible sin extenderse en demasía. La vida y obra de Google es mucho más

que un complejo enorme lleno de comodidades, lleno de vida y colores, perros

merodeando el campus, energía solar generada gracias a paneles solares colocados en los

techos y que las comodidades de que disfrutan los empleados diariamente, es mucho más

que eso, es una cultura que la compañía fundada por dos jóvenes emprendedores y llenos

de ideas nuevas y frescas ha logrado impregnar a sus súbditos de forma que también se

aprecie el trabajar bien cuando se debe y aprovechar esas comodidades en favor del

trabajo como un conjunto, pues mal que mal Google sigue siendo una corporación que

debe rendir cuentas al directorio y a la junta de accionistas cada fin de mes. Si esto se

mantiene en el tiempo con un trabajo realizado bajo la base del profesionalismo y la

confianza de ambas partes, tengan por seguro que tendremos Google y productos de

calidad por mucho tiempo más.

Page 73: Bicentenario BZ CHW

Pág 73 de 254

(060) Macintosh 128K Por Geovanne Salinas

¿Has visto esta cita antes?

El 24 de Enero, Apple Computer presentará Macintosh. Y verás porque 1984 no será como

1984

Era una simple pero poderosa frase que se metió en las cabezas de muchos durante el

medio tiempo del Super Bowl XVIII de 1984, y hasta el día de hoy, dicha frase resuena en

la cabeza de muchos al marcar el comienzo de la computación personal tal y como la

conocemos, gracias a la introducción del primer computador personal destinado al hogar

y que incluiría Interfaz Gráfica de Usuario (GUI).

Aquel 24 de Enero, Steve Jobs subió al escenario para sacar desde un misterioso bolso gris

lo que todo el publico esperaba: Apple Macintosh, no tenía número de modelo,

simplemente era Macintosh, posteriormente se le agrego el apellido de 128K con la salida

de nuevos modelos como Macintosh 512K.

Nacimiento

Aunque Macintosh fue estrenado al público en 1984, podemos decir que su nacimiento

data de los años 70 y no específicamente en los cuarteles de Apple.

Page 74: Bicentenario BZ CHW

Pág 74 de 254

La idea original de la Interfaz Gráfica de Usuario, al igual que el mouse que acompaño al

Apple Macintosh, tuvo su génesis en Palo Alto Research Center (PARC), donde los

ingenieros de Xerox desarrollaban tecnología que pensaban estaba muy adelantada para

la época. Durante esos años, Xerox estaba muy interesada en invertir en Apple gracias al

gran éxito de sus anteriores computadores, por lo que dejaron que los ingenieros de la

manzana tuvieran acceso exclusivo a dicha tecnología.

Steve Jobs, impresionado por lo visto en PARC, ordenó a sus ingenieros trabajar en un

proyecto llamado Lisa, que se basaría en el sistema operativo gráfico “Alto GUI”. Tiempo

más tarde, Apple Lisa se convirtió en el primer computador en poseer una interfaz gráfica

(System 0.8.5), lamentablemente fue un rotundo fracaso por el elevado precio

(USD$9.995) que los altos ejecutivos de principios de los 80 no estuvieron dispuestos a

pagar y optaron por la opción más económica, los IBM PC.

Mientras Apple Lisa se venía al suelo, un pequeño proyecto – sin importancia en ese

tiempo – estaba tomando forma, su nombre era Macintosh. Jobs decidió enfocar todos

sus esfuerzos en sacar aquel “pequeño” proyecto adelante y comenzó a tomar ideas

“prestadas” del equipo de Lisa para Macintosh, y esto lo confirma el co-autor del sistema

de escritorio Finder:

Mucha gente piensa que nosotros lo robamos a Xerox. Pero en realidad, lo robamos de

Lisa

Page 75: Bicentenario BZ CHW

Pág 75 de 254

Comienza la revolución

En 1984, la computación personal se resumía a trabajar en estrechas pantallas y a ingresar

una serie de línea de comando, por lo que era necesario dejar en claro el potencial de

Macintosh desde un principio, y que mejor que reproducir un video. Macintosh

fue concebido para tener un importante rendimiento multimedia y al mismo tiempo que

pudiera ser accesible para la clase media, todo un reto si pensamos que el hardware para

lograrlo podría haber elevado el precio de Macintosh de USD$2.495 a más de

USD$10.000.

Hasta el día de hoy existe el mito de que los diseñadores sólo trabajan con equipos Mac,

esto se debe en cierta forma a la introducción del primer Macintosh, que gracias al nuevo

sistema operativo gráfico hacia la vida más fácil a todo profesional que trabajara con

publicaciones, procesamiento de texto, fuentes y arte en general. Macintosh incluía el

sistema operativo System 1.0 y Finder 1.0, este último era el principal responsable de

la interacción visual entre el usuario y el sistema operativo. Finder también fue el primero

en introducir el concepto de “Papelera”, donde se arrastraban archivos hasta dicha

Page 76: Bicentenario BZ CHW

Pág 76 de 254

“carpeta” para que estos quedarán eliminados. El sistema operativo incluía una serie de

aplicaciones gráficas muy interesantes, como: MacPaint, MacWrite, MacProject y

Microsoft Word, pero no todo era hogar y diseñadores, los desarrolladores también

tenían su espacio con herramientas como MacBASIC o MacPascal.

Los computadores de la época funcionaban de manera muy simple, las

fuentes consistía en un único carácter formado por una matriz de puntos, nada de recrear

formas para cada letra. Con la introducción de Macintosh, los sistemas se volvieron cada

vez más complejos, y era necesario cargar varias funciones en memoria, como por

ejemplo: fuentes de sistema, formas de iconos, ventanas, fuentes especiales, Finder y el

sistema operativo. El nuevo aspecto visual de Macintosh no sería gratuito, y

la revolución gráfica tendría que pagar un precio en preciados kilobytes de RAM.

Page 77: Bicentenario BZ CHW

Pág 77 de 254

Ventanas

Hoy en día, mover una ventana a través del escritorio es algo tan trivial cómo hacer click

en un icono y abrir un menú, pero ¿cómo aprendieron las personas a utilizar la primera

Interfaz Gráfica de Usuario?. Con cada Macintosh 128K que Apple vendía, se incluía un

manual bastante extenso que debía explicar conceptos más básicos sobre el uso del

mouse, teclado y como estos interactuaban en la pantalla. Por ejemplo, era necesario

describir en detalle sobre el concepto de ventanas, el manual decía lo siguiente:

Las ventanas representan información. Puedes tener múltiples ventanas en tu escritorio,

de ese modo puedes ver más de un conjunto de información al mismo tiempo.

La mayoría de las ventanas se pueden mover, cambiar tamaño, desplazarse o cerrar. Ellas

se pueden sobreponer. Cuando más de una ventana está abierta, una está al frente, y es

donde toda la acciones suceden. Haciendo click en cualquier parte de una ventana ésta

vuelve al frente, o se hace tan pequeña que no la puedes ver (minimizar)

Page 78: Bicentenario BZ CHW

Pág 78 de 254

Hardware

En aquellos tiempos, contar con una unidad destinada exclusivamente para

almacenamiento era prácticamente una locura, donde un disco duro de 10MB podría

costar varios cientos de dólares, por lo que había que encontrar una solución al gran

consumo de memoria que provocaba tener una interfaz gráfica.

La eficiencia era la principal prioridad para el equipo Macintosh, quienes decidieron

desarrollar varias funciones del sistema operativo en lenguaje de máquina y las

almacenaban en un chip ROM (64 kb) para evitar cargar la totalidad del sistema operativo

en los escasos 128 kb de RAM. Sin embargo, con estos 192 kb no alcanzaba para correr

todas las aplicaciones incluidas en System 1.0 y Finder, por lo que el Macintosh fue dotado

Page 79: Bicentenario BZ CHW

Pág 79 de 254

de una unidad floppy de 3.5” con capacidad para almacenar 400 kb (el doble de los discos

IBM PC). Para correr el primer Mac OS, era necesario insertar el disco floppy y cargar parte

del sistema operativo en RAM para posteriormente ejecutar otras aplicaciones desde él,

aunque era posible ejectar el disco de inicio para cargar otro, dejando al sistema con lo

más básico.

El corazón de Apple Macintosh era nada menos que un procesador Motorola 68000 (32-

bit) con frecuencia de 8 MHz lo que equivalía a 0.7 MIPS en rendimiento, conectado por

un bus de 16-bit a los 128 kb de DRAM y sin posibilidad de actualizar. Como cada byte

cuenta, en el primer Macintosh 22 kb eran destinados al framebuffer del controlador de

video DMA.

Page 80: Bicentenario BZ CHW

Pág 80 de 254

Otro de los grandes hitos del primer computador personal de Apple, fue su pantalla CRT

de 9” monocromática 512 x 342 píxeles, que marcó el estándar de edición electrónica en

72 PPI. Mouse y Teclado también fueron incluidos en Apple Macintosh, a pesar de que en

Apple Lisa no tuvo el éxito esperado.

Diseño

La compañía de la manzana siempre se ha preocupado por el aspecto físico de sus equipos

más allá del hardware, y Macintosh no fue la excepción. Al momento de comenzar a

desarrollar la nueva apuesta de Apple – luego del desastre que fue Lisa – Steve Jobs

Page 81: Bicentenario BZ CHW

Pág 81 de 254

encargo a sus ingenieros aprender de los errores del pasado y asegurar un diseño

amigable para los usuarios, que serían personas comunes y corrientes.

El diseño estuvo guiado personalmente por Steve junto a Terry Oyama y Jerry Manock,

aunque posteriormente Oyama confesara:

A pesar de que Steve no dibujo ninguna de las lineas, sus ideas e inspiración hizo el diseño

lo que es. Para ser honesto, nosotros no sabíamos lo que significaba un computador

amigable hasta que Steve nos dijo.

Reunir todo el equipo y pantalla en el mismo case, utilizar tan sólo 3 cables (incluido el de

energía) eran algunos de los requisitos que debía tener el Apple Macintosh.

Cierre

El Apple Macintosh original, fue el computador encargado de revolucionar la

industria tecnológica y al mismo tiempo convencer que usuarios comunes y

corrientes podían tener acceso a estos terminales gracias a su increíble sistema operativo

con interfaz gráfica, y hardware económico para la época que no necesitó de grandes

cantidades de memoria para funcionar. Estos dos hitos abrieron paso a nuevos productos

y a una acelerada competencia entre Apple e IBM por estar presentes en cada hogar con

un computador personal y no sólo en las manos de los altos ejecutivos de las empresas.

Page 82: Bicentenario BZ CHW

Pág 82 de 254

(067) Cuando llegó el puerto AGP al mundo Por Italo Baeza

Había una vez, un puerto PCI

Durante los años 90, cualquier tarjeta que querías conectar al equipo sólo tenía sólo dos

destinos: los puertos ISA que estaban en decadencia y los PCI, su natural reemplazo.

Desde unas gráficas nuevas, pasando por las tarjetas de red, módems, y otras más, era

posible conectar a los universales PCI de 32bit. Y nadie alegaba nada – tampoco había

porqué hacerlo, no había una razón para pensar en otro estándar. ¿Acaso esa tarjeta de

red iba a transferir 100GB de un soplón?

Wikipedia (GNU)

Todo seguía su curso normal, el sol salía por el lado contrario donde se escondía, el

módem no superaba los 56Kbps, todos tenían televisión a color y las tarjetas de sonido

con suerte tenían una salida estéreo y dos entradas. En cambio, las tarjetas gráficas

empezaron a tener algunos cambios arquitectónicos y tener hambre de polígonos. Sólo en

1996 el mercado empezó a migrar al puerto AGP, que sería la solución a todos los

problemas que PCI traía en ese aspecto. Tal como en Chile hubo un revuelo nacional al

Page 83: Bicentenario BZ CHW

Pág 83 de 254

aumentar la velocidad máxima para andar por carretera a razón de los autos más rápidos

y más seguros, el problema no se aleja de algo semejante por el lado de la informática.

Dedicación

El puerto PCI tiene un ancho de banda máximo de 133MB por segundo para transferir

datos, lo que podríamos compararlo con rellenar un CD en unos 6 segundos más o menos,

sin contar con el resto de limitaciones naturales. Suena rápido, pero lo que es malo de

esta tecnología es que todos los puertos PCI comparten una misma línea y un mismo bus,

y para un mercado de chips gráficos que ya estaban apunto de sobrepasar lo que permitía

el mismo, que querían más ancho de banda para comunicarse con el sistema, y querían

relacionarse más directamente con la CPU y RAM, no había cabida; eventualmente

empezarían a topar con el ancho de banda de otros dispositivos. Para rematar, la memoria

de video era cara de implementar en el PCB y tendía a bastar sólo para la información 2D.

8MB de memoria en una tarjeta de video era bastante pero no lo suficiente para afrontar

gráficas 3D a todo dar.

Entonces nació AGP como la solución a esas demandas.

Page 84: Bicentenario BZ CHW

Pág 84 de 254

Adiós cuello de botella, por ahora

Intel decidió crear en sus laboratorios el puerto AGP en 1996, que debutó en el

antiquísimo Socket 7, el encargado de ser el pilar base de los Pentium II. Para hacer al AGP

más que un puerto con un bus dedicado, en términos técnicos, existían 6 ventajas netas

sobre el PCI:

• Pipelining (Paralización): El bus PCI sólo permitía una instrucción para enviar, dejando a las otras esperando para ser enviadas o recibidas, lo que significaba muchos tiempos muertos y rendimiento mermado. El puerto AGP podía agrupar estas instrucciones y llevar a cabo varias al mismo tiempo. En peras y manzanas, mientras al bus PCI llegaba la instrucción “3 x 9 + 5 – 8″, el puerto AGP recibía “(3 x 9)”, “(5-8)” y “Suma el resultado de ambas”.

• DIME: No, no te lo digo. Jojojo, qué bromista soy. DIME es el corto de “Direct Memory Execute”, y fue una gran característica que el bus PCI no podía igualar. Esto permitía que la tarjeta de video pudiese ocupar parte de la RAM del equipo – determinada por la opción “AGP Aperture Size” – para manejar texturas mientras el CPU también podía interactuar en esa zona. Con ello también llegó el GART, Graphics Address Remapping Table, que se encargaba de hacer una especie de mapa para que la tarjeta AGP no se perdiera entre tanta memoria.

• Sideband Addressing: El bus AGP, en conjunto con el controlador del chip gráfico, tenía la capacidad de separar 8 líneas para manejar sólo las direcciones de

Page 85: Bicentenario BZ CHW

Pág 85 de 254

memoria, dejando al resto del bus manejando los datos, asincrónicamente. El ejemplo clásico es del aprendiz de cocina: con una mano sostienes la hoja con los ingredientes y la preparación, mientras que con la otra mano revuelves la comida de una olla. Práctico ¿no?

• Más ancho de banda: La guinda de la torta. Gracias a tener un bus dedicado, y trabajar a 66MHz, el doble de lo que permitía el bus PCI, AGP podía llegar a transferir 266MB por segundo a 32 bits, mientras que PCI sólo llegaba a 133MB en el mejor de los momentos, con los planetas alineados y un doble arco iris en tu patio.

La industria con el pulgar arriba

El apoyo se hizo unánime, especialmente por los fabricantes de tarjetas gráficas. Aún

cuando Intel era el creador, los primeros chipset encargados de llevar el puerto AGP

encima eran VIA Apollo VP3, SiS 5591/5592, y ALI Aladdin V, que salieron primero de la

mano de fabricantes como FIC – que ya nadie escucha – y EPoX – que tampoco nadie

escucha. Por lo menos eso es lo que está documentado, en mi caso personal nunca vi una

tarjeta AGP hasta entrado el 1999 en el mercado chileno, caracterizado por siempre estar

a la vanguardia de la tecnología cuando: las cosas están apunto de morir, ya pasaron de

moda, están baratas o se pueden vender al doble de lo que cuestan sin que nadie alegue.

Signo de ésto fue cuando empezamos a ver este tipo de productos en multitiendas (donde

también compras ropa) y servicios técnicos truchos que mostraban orgullosamente en la

ventana esa tarjeta de sonido 5.1 marca chancho. Ahí tienen un Momento Bicentenario.

Page 86: Bicentenario BZ CHW

Pág 86 de 254

ATI Rage 128 AGP, qué días aquellos... - Wikipedia (CC)

Por otra parte, los fabricantes de tarjetas gráficas de ese entonces tenían dos opciones si

querían subir al barco: o tomaban un chip gráfico ya hecho para PCI y sólo modificaban su

compatibilidad con el bus a 66MHz – lo que era mucho más barato y rápido pero no

aseguraba un gran rendimiento – o simplemente se daban el trabajo de crear un chip que

aprovechara todas las ventajas del puerto AGP. Aquellas tarjetas que sólo se cambiaron de

camiseta fueron la 3dfx Voodoo Banshee, Matrox Millenium II y la S3 ViRGE GX/2,

mientras que NVIDIA ponía sobre el tapete RIVA 128 y ATI hacía lo suyo con la 3D Rage

Pro, ambas aprovechando lo que AGP prometía.

Para el caso del omnipotente Windows 95, sólo la versión OSR2.1 llegó para permitir la

compatibilidad con AGP y USB, al mismo tiempo que se emitía un parche para la versión

OSR2.0, todo a mediados de 1997. Perfecto timing para disfrutar el juego de FIFA Francia

‘98 a buena calidad en tu computadora con AGP más cercana.

Page 87: Bicentenario BZ CHW

Pág 87 de 254

Más que PCI

Los benchmarks no se hicieron esperar para demostrar que AGP había llegado para

quedarse. Pero no muchos tendrían la dicha de un mejor rendimiento por el sólo hecho de

cambiar a una plataforma con un puerto AGP, porque dependiendo de algunos factores, el

poder del nuevo puerto era sólo apreciable a grandes resoluciones y con grandes

cantidades de datos.

Veamos el lado extremista de la vida. Intel hizo una prueba entre entre ambos estándares,

dejando claro que PCI ya no era viable.

Page 88: Bicentenario BZ CHW

Pág 88 de 254

Pero lo que ustedes no saben, es que para esa prueba usaron una escena donde las

texturas que se movían llegaban a los 6MB. La ventaja del AGP, para leer directamente

desde la memoria del sistema, es algo que el PCI no puede replicar y con justa razón

rendía tan poco. El cambio era relativamente inapreciable ante una pantalla pequeña,

pero con resoluciones mayores, y con más datos andando en el bus, el cambio de PCI a

AGP se percibió mucho mejor. ¿O acaso alguien conecta su Atari 2600 a su televisión

FullHD en estos tiempos?

Cambiar de estándar es un dolor en el trasero – especialmente al principio – pero tarde o

temprano habrá que hacerlo. Menos mal, el mareo de un nuevo estándar, con productos

que podrían ser mejor pero técnicamente están “por ahí”, se olvidan después que la

tecnología madura.

¡AGP está evolucionando!

La transferencia de datos que demandaban las tarjetas

gráficas empezaron a crecer, por lo que el AGP 1.0

empezó lentamente a ceder hasta que una nueva versión

apareció para mejorar el eventual cuello de botella. La

filosofía de esta actualización era mantener en cierto

grado la retrocompatibilidad con los modelos antiguos: a

nadie le gusta tener que comprar placa madre nueva,

procesador nuevo, y tarjeta de video nueva por unos

míseros megahertzios más al menos que tu patio sea una

refinería de petróleo y tengas 7 esposas por cada dedo.

En tan solo 8 años el puerto AGP había pasado de los

266MB a los 2.133MB por segundo, 8 veces más que en

un comienzo:

• AGP 2X pasó a los 133MHz y 512MBps, y mantenía los 3.3V de funcionamiento. • AGP 4X pasó a los 266MHz y 1066MBps, con un voltaje de 1.5v. • AGP 8X pasó a los 266MHz y 2133MBps, con un voltaje de 0.8v.

El problema que trajo los voltajes se tradujo en zócalos diferentes. Forzar (literalmente)

una tarjeta de video AGP de 1.5v en un slot de 3.3v o viceversa era lo más cercano a un

suicidio, pero menos mal, habían puertos “AGP Universales” que aceptaban ambas sin

problemas.

Pero AGP no siempre fue AGP como tal lo conocimos. El puerto tuvo un par de

extensiones oficiales como AGP Pro para tarjetas que requerían más electricidad para

Page 89: Bicentenario BZ CHW

Pág 89 de 254

funcionar como algunos modelos para workstations (guorquesteichons en espanglish),

donde las tarjetas eran más grandes, más caras, y hacían más cálculos. Otra extensión

oficial fue AGP 64-bit, que duplicaba el actual canal de 32 a 64-bit, pero nunca llegó al AGP

3.0, y se fue directo al tacho de la basura. NPI porqué, pero al parecer era un parto

duplicar el ancho de banda en el PCB y al final la ganancia iba a ser mínima.

Para sobrepasar algunas limitaciones del AGP, algunos fabricantes decidieron aventurarse

con sus propias variaciones, como Ultra-AGP de SiS, que permitía andar a AGP8X hasta

3.2GBps. De hecho yo la tuve en mi placa madre con chipset SiS 730 antes que se quemara

por intentar overclockear cambiando los MHz de trabajo (craso error), y la ganancia era

nula: no por aumentar el límite de velocidad en la carretera ese Lada Samara iba a correr

como un Ferrari. Por otra parte ¿Para qué un fabricante se arriesgaría lanzando una

tarjeta de video consumiendo 3.2GBps de ancho de banda si la gran mayoría de la

industria estaba a 2133MBps como límite?

No sólo existieron variaciones mejorando el AGP, sino también otras “para atrás”. A ver si

les suena una de éstas: AGI de ASrock, AGX de EpoX y XGP de Biostar, todas ellas se

transformaron en una especie de paso medio de PCI a AGP; esencialmente eran puertos

PCI disfrazados de AGP para que los chipsets que no poseían la compatibilidad respectiva,

lo que a más de alguno le trajo algún problema. Lo más fascinante de todo era la

incompatibilidad con varias tarjetas, algo así como con 3/4 del mercado de modelos AGP;

sólo una limitada lista podía funcionar sin problemas, mientras otro poco funcionaba

cojeando. Otros fabricantes tuvieron más de algún problema implementando el susodicho

en otros chipsets, especialmente los baratos, y ya era de común saber que algunas placas

madres “a precio de huevo” con una sospechosa lista de “Compatibilidad AGP”. Si la

tarjeta no estaba en ese papel, era seguro que presentaría algunos problemas de

velocidad y compatibilidad. ¿Alguien dijo “PCChips”?

Si te veo, no te conozco

AGP no duraría mucho, pero se las ingenió – como tecnología basada en el bus PCI – para

mantenerse a flote hasta el 2004~5, años donde PCI Express aparecía como el próximo

reemplazo natural. NVIDIA y ATI no podían hacerse los sordos con una tecnología que

tenía los días contados, porque ningún cambio es inmediato y muchos usuarios aún

conservarían su placa madre funcionando por varios meses más, y en esos momentos

lanzaron variaciones de sus nuevas tarjetas con el chip “Rialto” que actuaba de puente

entre la información que salía desde el chip gráfico en idioma PCI Express en AGP y

viceversa. Nada de malo por para quienes eran usuarios normales, pero al menor signo de

overclock, el puente tendía a limitar los datos que entraban y salían gracias a que su

Page 90: Bicentenario BZ CHW

Pág 90 de 254

frecuencia daba “justo” para el desempeño de fábrica. Varios eran los casos de tarjetas

PCI Express bridgeadas a AGP con buen overclock pero nula ganancia, y no había nada que

hacer.

Otros casos fueron al revés. Recuerdo a Albatron lanzando un puente para esas tarjetas AGP que querían pasar a PCI Express pero no podían porque… bueno… porque no cabían. Pero era una solución que sólo era compatible con una lista pequeña y que sólo se comercializó en Japón (lo digo porque nunca la ví en América o Europa). Otros se pasaron de listos y decidieron poner un puerto AGP en calidad

Albatron ATOP

de renegado en una placa madre PCI Express, pero era otra integración malandra que no

gozaba de mucha aprobación, y que a sólo afortunados usuarios – esos que se ganaban la

lotería 3 veces seguidas y efectivamente salen en algún comercial – eran quienes elegían

estas placas porque mágicamente su tarjeta de video estaba dentro de la lista.

En todo caso, lo que sucedía era evidente: mejor pasarse rápido y con todo, y así el AGP

dejó lentamente de vivir, total el mercado de tarjetas gráficas y fabricantes de placas

madres eran los únicos afectados, no todo el mercado de la informática. Mientras alguno

OEMs siguieron (y siguen) apoyando la tecnología AGP, ya sea por cualquier razón, ya

llevamos unos 5 años aproximadamente sin placas madres a la vista con este singular

puerto. Si alguien me pregunta por AGP, le preguntaré de vuelta si se refiere a alguna

asociación en protesta o algún celular nuevo. Tecnología muerta no se extraña, como

James Bond hace con todas las féminas que se ha repasado.

Page 91: Bicentenario BZ CHW

Pág 91 de 254

(074) Cyrix MediaGX: CPU+GPU existió hace 14 años Por David Sarmiento Portocarrero

Actualmente las 2 grandes empresas fabricantes de microprocesadores x86, Intel y AMD,

han encontrado que el integrar el mayor número de componentes en el CPU, reduce los

costos de producción, a la vez que incrementa la confiabilidad y el desempeño de sus

respectivas plataformas.

En los recientes años apreciamos que ambas,

paulatinamente, integraron en sus CPU componentes

que antes eran externos como la unidad de punto

flotante (x87), el controlador integrado de memorias,

e incluso recientemente varias partes del propio

northbridge.

En los actuales microprocesadores Core ix Series vemos que el IGP, si bien no forma parte

del microprocesador aún, está presente en el mismo encapsulado. Pero esta situación está

a punto de cambiar, pues ambas empresas

están terminando sus próximas

arquitecturas conocidas como Sandy

Bridge (Intel) y Fusion (AMD) las cuales

serían los primeros productos de dichas

empresas en integrar un IGP/GPU en el

propio microprocesador; pero

definitivamente no serán los primeros

productos x86 que logren esa proeza, pues

aunque para muchos resulte un hecho

desconocido, dicho hito ya había sido

alcanzado hace 14 años por el

microprocesador MediaGX de Cyrix.

Page 92: Bicentenario BZ CHW

Pág 92 de 254

Nace Cyrix MediaGX

Corría el año 1996, el Pentium MMX (arquitectura P5) de Intel cumplía 1 año y medio de

reinado en el mercado desktop, mientras que el Pentium PRO (arquitectura P6) cumplía

un año reinando en la gama profesional, sus competidores más importantes eran el K5 de

AMD y el 6×86 de Cyrix (3º empresa en participación del mercado de CPUs x86 en esa

época); mientras que los precios de las PC superaban fácilmente los $1000 incluso en sus

versiones más económicas; esta situación no era motivo para extrañarse, AMD y Cyrix

poseían microprocesadores con un poder de cálculo en enteros de similar e incluso

ligeramente superior que los de Intel, pero eran derrotados por el abrumador poder de

coma flotante de los Pentium MMX. Y si bien ambos planificaban futuros

microprocesadores para revertir dicha situación: K6 (AMD) y 6×86MX, Cyrix también se

encontraba desarrollando otro CPU altamente integrado: MediaGX, el cual fue lanzado en

noviembre de ese mismo año, y crearía la por ese entonces famosa: fiebre por la PC sub

$500, un precio impensable por esas fechas.

Esquema del CPU Cyrix MediaGX y su chipset Cx5510

Cyrix MediaGX fue un microprocesador diseñado para ofrecer un bajo consumo y una alta

integración, creando por primera vez el concepto que ahora conocemos como plataforma;

esta integración consistió en integrar el mayor número posible de componentes tanto en

el propio CPU como en el chipset; unificando northbridge y southbridge, con otros

componentes como modem v.34 (por esas fechas era común acceder a internet usando

conexiones vía modem comúnmente a 28 o 33kbps), y salidas para el audio integrado en

el CPU, componentes integrados a un único chip denominado Cyrix Cx5510; mientras que

por parte del CPU, este integró gráficos 2D, un controlador de memoria EDO RAM, y audio

en un microprocesador basado en el Cyrix 5×86 (un CPU con una potencia similar a la de

los Pentium de gama baja de entre 66 a 75MHz, pero que era compatible con los sockets

Page 93: Bicentenario BZ CHW

Pág 93 de 254

de las mainboards Intel 486), este chip fue denominado Cyrix MediaGX; CPU sobre el cual

entraremos en detalle.

Tecnologías

El CPU Cyrix MediaGX fue todo un hito en cuanto a la integración: CPU+GPU+Audio+IMC y

para gestionar sus componentes integrados se basaba en 4 tecnologías las cuales usaban

la arquitectura VSA (Virtual Systems Architecture):

XpressGRAPHICS

La gráfica al estar integrada al CPU funcionaba a la misma velocidad de reloj (entre 120 a

266MHz), eliminando el cuello de botella que representaba el acceso al bus PCI (en esos

tiempos no existían aún AGP ni PCIe), además de ello incorporaba tecnologías de

compresión gráfica y de acceso compartido al controlador de memoria, eliminando la

necesidad de memoria dedicada. Cabe mencionar que si bien integraba muchas porciones

de hardware de un chip gráfico 2D, muchas de las funciones eran “emuladas” por el

microprocesador gracias a su arquitectura VSA.

XpressRAM

Era el controlador de memoria integrado (IMC); el cual al estar integrado al CPU eliminaba

la latencia asociada a la memoria EDO-RAM, además permitiendo a Cyrix prescindir del

cache L2 (en esas fechas era de entre 128 a 512kb y estaba ubicado en la mainboard).

XpressAUDIO

Eliminaba la necesidad de un chip de sonido adicional “emulando” un chip de sonido

gracias a su arquitectura VSA.

XpressROM

La base de la arquitectura VSA, proporcionaba las rutinas básicas de compatibilidad a nivel

hardware con los componentes integrados en el chip MediaGX y su chip companion

Cx5510.

Page 95: Bicentenario BZ CHW

Pág 95 de 254

Notas finales

MediaGX cumplió su cometido y marcó el inicio de las PC ultra-económicas, mercado que

se ha mantenido hasta la actualidad con equipos como nettops y netbooks; si bien su

performance era similar al de un Pentium 75 a 90MHz en sus modelos iniciales, poco a

poco fue escalando en potencia, aunque nunca se mantuvo a la altura de los CPUs más

actuales, pocos meses luego del lanzamiento de MediaGX, hizo su aparición el en ese

entonces todopoderoso Pentium II, y si bien MediaGX tuvo un relativo éxito entre varios

OEM, no tuvo el impacto esperado en el mercado de consumo, pero la idea de un chip

integrado con características similares es algo que se mantiene hasta la actualidad, y ya es

una realidad.

Se podrían hacer muchas analogías entre MediaGX y Atom de Intel (Pineview) u Ontario

de AMD, tanto por el relativamente escaso poder de cómputo que ofrecían, como por su

grado de integración, y el tipo de equipos a los que estaban dirigidos; pero existió un

factor que determinó el fracaso de MediaGX, y el de su creadora Cyrix: simplemente al ser

el 3º competidor de esa época, dicho chip fue una apuesta muy arriesgada, pues Cyrix

careció del poder de mercado para crear una nueva necesidad en los usuarios y mejorar

su oferta para llevarla a equipos de tamaños más reducidos (como nota curiosa: en 1999

la propia Intel intentó desarrollar un chip similar, el que tuvo por nombre código Timna, el

cual incluiría un controlador de memoria RDRAM (Rambus) integrado y un núcleo gráfico,

pero este chip nunca llegó a salir, siendo cancelado a fines del 2000).

MediaGX continuó desarrollándose en su nueva pero menos ambiciosa encarnación

conocida como Geode, desarrollada por su nueva dueña National Semiconductor (adquirió

a Cyrix en 1997), para posteriormente ser vendida a AMD (2002), la cual tuvo algunos

pocos éxitos con ella (OLPC). Ya veremos cuál será el destino de Fusion de AMD, chip al

que se podría considerar (sin serlo en realidad) la siguiente evolución del concepto que

dejó MediaGX.

Page 96: Bicentenario BZ CHW

Pág 96 de 254

(081) Consolas que marcaron nuestra historia Por Italo Baeza

No soy antiguo en eso del mundo de los videojuegos, pero llegué, al fin y al cabo. Hay

muchos que llegaron mucho antes que yo, cuando esto de las consolas no era tan

masificado y quien poseía uno de estos aparatos debajo de la televisión era porque su

padre tenía un trabajo más estable que la Placa Escocesa y algo conocía de los

videojuegos. Estamos hablando de entrado los años ‘90.

Antes que los videojuegos se tomaran la televisión de la casa, la principal atracción eran

las arcadias, también llamados arcades, flippers, o las “esas maquinitas idiotas”. Y eran

buen negocio, porque nadie tenía el dinero para importar una consola, y no había

mercado para comprar e intercambiar cartuchos. Pero con eso de la globalización y un

montón de otras hierbas más, ya a mediados de la década el Super Nintendo empezaba a

amenazar y después estaríamos empezando a comprar juegos digitalmente.

Gameboy

En las décadas pasadas, algo “portátil” tenía un

significado muy diferente al de ahora. Actualmente,

si puedes meterlo en tu bolsillo trasero sin que

piensen que tienes un tumor o te está saliendo algo,

es portátil. En los años 80, si no tenía enchufe a la

corriente, era portátil. ¿Notan la diferencia?

El primer apronte portátil de Nintendo se materializó

en lo que llamamos Gameboy. Para el que nació ayer,

era un aparato muy parecido a un ladrillo del cuento

de El Lobo Feroz y los Tres Puercos, pero de plástico,

plomo, y una pantalla LCD monocroma de color

verdeamarillento. Y se podía jugar en él. Mario Bros,

Metroid, Wario, Kirby, Tetris, había bastante para

elegir y poca batería con la que sobrevivir. No era

una consola para meter en el bolsillo e intentar

sacarlo de ahí sin usar ambas manos – ya saben, por

desgracia tenemos un brazo que está justo en el lado

opuesto de un bolsillo – sino una caja para introducir

adentro de la mochila, bolso, maletín, cajón o

Page 97: Bicentenario BZ CHW

Pág 97 de 254

guantera. ¿Y saben qué tenía adentro? Un procesador de 8bit a no más de 5MHz, un LCD

de 160×144 píxeles, 8KB de RAM y 8KB de VRAM.

Una de sus características más emblemáticas era su durabilidad. Era increíble cuántos

arañazos y caídas podía soportar un aparato de plástico como el Gameboy, y era

totalmente normal ver alguno con sus respectivas marcas de guerra: rozaduras, esquinas

deformadas, rayones profundos, etcétera. Después de un encuentro cercano con el suelo,

con suerte se salían las pilas, por lo que era también normal notar alguno con su parche

de cinta adhesiva por atrás.

No precisamente un aparato portátil como podemos denominar ahora, pero nos entregó

horas de diversión – dependiendo de la calidad de las pilas – a pesar de su abultado

tamaño, dándole paso al corolario “No es necesario una consola gigante en la casa para

entretenerse”. El iPod se quebrará, el DS se partirá por la mitad, la PSP morirá con su

pantalla, pero el Gameboy seguirá de pie como en el primer día de adquirido.

Moraleja: Use Gameboys para construir su casa. Aislante de calor FTW.

Atari 2600

Wikipedia (PD)

Este es más viejo que mis memorias logran recordar, pero me tocó la oportunidad de

conocerla gracias al hermano de un amigo de mi antigua población que la tenía y nos

Page 98: Bicentenario BZ CHW

Pág 98 de 254

invitaba a jugar (al parecer, su hermana era demasiado mala para estas cosas). Antes que

llegase el NEs y SNES la gente que nació en una cuna hecha a mano por sus propios

padres, existían algunos espécimenes de raza humana con una Atari 2600 y evidente

polvo. Las historias son innumerables.

Antiguamente los cartuchos de los videojuegos llegaban por medio de un familiar que

viajaba constantemente a gringolandia, situación muy típica ahora que lo noto, y que

cuando volvía siempre traía un juego nuevo a su sobrino preferido. No había mercado

nacional establecido, por lo menos, donde yo vivía: cualquier parte que no fuese Santiago.

Las gráficas de los juegos de esa consola no eran para nada competitivas frente a un

Gameboy, este último quedaba atrás pero recuerden que fue lanzado después. Podíamos

jugar entre dos y eso era algo bastante entretenido que estar frente a una pantalla en

solitario.

La historia que recuerdo como si me la contasen ayer es la de Estación Fantasma, aunque

su nombre puede variar, que la escuché por primera vez del mismo dueño de ese Atari,

porque antes había tenido una consola a casete. Verán, antiguamente uno podía no sólo

grabar música en casete, sino también cualquier cosa que sonaba en la radio. Y existía una

clandestina en Santiago que emitía los videojuegos en las noches y madrugadas para que

los radioescuchas los grabaran, con algunos alegando al otro día que se grabó mal. ¿La

primera aproximación al P2P en el país? MOMENTO BI-CEN-TE-NA-RIO SEÑORES!

Evidentemente fue una consola que vivió su época de oro a mediados de los ‘80, pero

duró bastante para entregarle mucha diversión a la generación siguiente que no tenía

acceso a una consola top, un tío que viajara o una abuela con herencia.

Moraleja: Integra un teclado a la consola y pasarás a la historia. ¿Y cómo las

computadoras?

Page 99: Bicentenario BZ CHW

Pág 99 de 254

Neo Geo

Wikipedia (CC)

En los años ‘80 y ‘90, montar una tiendita con arcadias, taca-tacas (fútbol de mesa) y

pinballs era buen recurso para sobrevivir, no hasta la crisis asiática que terminó

mágicamente por hacer desaparecer algunas de ellas post-1997. Volviendo al tema, cerca

de los inicios de la década de 1990 encontramos uno de los arcades más famosos y caras

de la historia: Neo Geo. Para muchos, la cuna de varios juegos de pelea y el aparato que

llevó a la edad de oro estas máquinas que tendían a dejar a los pequeños en banca rota y

agotar los vueltos del pan.

SNK decidió lanzar Neo Geo en 1990 con varias ventajas para el tipo que tenía una centro

de entretenimiento y los billetes no sobraban. De partida la consola se considera un

“MVS”, que quiere decir “Multi Video System”, lo que permitía meter hasta 6 cartuchos en

el susodicho sin alegar por nada, lo que ahorraba espacio cuando se trataba de tener

mayor variedad o comprar una máquina nueva: para qué si sólo se colocaba el cartucho

de un nuevo juego o se reemplazaba uno y listo, los que bordeaban los USD$50 y

Page 100: Bicentenario BZ CHW

Pág 100 de 254

USD$150, mucho menos que una máquina nueva. Ahora ya saben porqué algunas

arcadias tenían un juego que sólo usaba dos de los 6 botones disponibles. A todo esto,

mientras ustedes escuchaban Soda Stereo y Los Prisioneros, en Japón estas máquinas

empezaron a popularizar todos sectores de arriba para abajo.

Pero SNK no decidió parar ahí, al revés, quiso tomar la oportunidad de llegar al mercado

hogareño con una versión modificada de Neo Geo (AES - Advanced Entertainment

Machine), pero era un aparato que sólo hijos de gerentes podían pagar; era más caro que

arrendar un servicio de acompañantes por completo (lo acabo de medir), y por los

cartuchos más aún. El precio de lanzamiento fue de USD$649,99 con dos juegos y dos

controles, y posteriormente salió una versión de sólo 1 control y sin juegos por

USD$399,99. Si le sumamos a esto cartuchos que se vendían a más de USD$200, podemos

decir que si te encontrabas con esta versión, tenías una suerte increíble, amigos muy

ricachones, o vivías en el sector privilegiado de tu ciudad.

¿Porqué tanto? De partida el hardware era envidiable. El procesador principal era un

Motorola 68000 a 12Mhz junto a un co-procesador ZiLog Z80 de 4 Mhz, pero andaban a

16-bit y 8-bit, respectivamente. Por una parte el Motorla 68000 podía manejar 65.000+

colores (siendo sólo 4096 disponibles para mostrar) mientras que el co-procesador podía

ayudar en las tareas de sonido junto al chip Yamaha YM2610. A pesar de todo el

hardware, los juegos arcades que salieron en versión hogareña no tenían la misma

calidad, y pagar demasiado por una experiencia que podía salir más barato a unos cuantos

pasos más… no hay por dónde perderse.

A pesar de todo lo malo tratando de entrar al sector hogareño, la vida de las arcadias Neo

Geo se extendió hasta el 2004, fecha en que la empresa decidió cortar el soporte. Esta

plataforma es considerada la cuna de los títulos de peleas 2D y marcaron fuerte entre

quienes son adultos el día de hoy. Entre los que sobrevivieron hasta hoy podemos

encontrar sagas como Metal Slug, Fatal Fury, Samurai Showdown, AeroFighters y el

omnipresente King of Fighters. El resto está lleno de juegos donde los combos abundan.

Moraleja: Lanza una versión modificada de un producto que haga ver la superioridad de la

primera.

Page 101: Bicentenario BZ CHW

Pág 101 de 254

PlayStation (PSX)

Wikipedia (PD)

La navidad oriental de 1994, meses después del mundial de Estados Unidos 1994 (lo

siento, es la manera de ubicarme en el tiempo), fue bastante dulce para quienes les

gustan los discos con mucho contenido. Está bien, no fue la primera consola en ocupar

discos compactos, la primera fue Amiga CD32 que se lanzó 1 año antes. Sólo ese margen

de tiempo necesitó PlayStation para matar a Amiga CD32, no puedes pelear con una

consola que permite mostrarte gráficas 3D.

¿Porqué PSX? ¿Porqué “X”? ¿Qué pasó con Nintendo? Vamos por parte, dijo el carnicero.

Sony le hizo el grandioso y famoso chip de sonido a Nintendo para la SNES, y por esa

relación Nintendo decidió extenderles el contrato para realizar un accesorio para utilizar

CDs en el SNES, llamado “Play Station”, que permitiría más espacio disponible que los

cartuchos. Pero el día después que Sony hablaba sobre su noviazgo con Nintendo en la

presentación de la CES de 1991, el mandamás de Nintendo de América, Howard Lincoln,

contó otra cosa: la Nintendo y Philips se habían unido, dejando de lado la aventura con

Sony. Watafac.

Hiroshi Yamauchi, conocido más por la película “Suck my yellow balls”, se había leído el

contrato con lupa y se pilló con la frase “Sony será el amo y señor de todo lo que se

produzca en los discos compactos del SNES”. Por supuesto eso no le gustó, era una

Page 102: Bicentenario BZ CHW

Pág 102 de 254

“mariconeada” en buen chileno (una estocada por detrás) para aprovecharse del éxito de

la consola, y como estos nipones son vengativos hasta el hueso, mandó a Lincon con otro

señor más a hacer las pases con Philips unos días antes y bien callados para que Sony no

se alarmara. Al final Sony los largó, pero decidió tomar lo que habían aprendido y les puso

el estándar que ellos habían desechado en su propia cara: lanzaron PlayStation en Japón

en 1994, y un año más tarde en Gringolandia. ¿Y la “X” después de “PS”? Es básicamente

el nombre clave por el que se conocía a la consola, PlayStation Experimental.

El asunto aquí es que marcó una era no sólo por las gráficas que podía mover un

procesador de 32bit, o por el catálogo más adulto que la SNES, sino por el uso de los

discos y el posterior auge de los modchips. En un disco podían caber cerca de 600~700MB

de almacenamiento, que podían ser rellenados con videos, música, y el resto de datos del

mismo juego. Ya era normal tomar un café o mirar el cielo mientras cargaba un nivel,

como también mirar cinemáticas largas y escuchar larguísimos diálogos con buena calidad

de audio en vez de tomar nota de los subtítulos. De paso, en algunos lugares se

transformó en el reproductor de música de la casa. A pesar de no tener nunca esta

consola, eso no me detuvo para probar ese disco de Raúl DiBlasio en las casas de mis

amigos sin pedir permiso.

Pero el auge de los modchips apareció, dejando a los consumidores y a Sony como los

grandes ganadores, y todo el resto de desarrolladores con un aire de desconfianza

evidente. Los grabadores de CD empezaron a bajar su precio, y para que se pudiesen jugar

respaldos sólo bastó un chip soldado cuidadosamente en la controladora del lector de la

PSX para que evitara leer el código “SCEA” escrito en el anillo del disco, algo irreproducible

al menos que Sony fuese el creador del medio. Al final, todos hicieron su respectiva

columna llena de discos y juegos, Sony vendió PSX como pan caliente, el mercado del

modchip se agrandó, y terminamos con una consola que ni la Nintendo 64 – junto a todas

sus maravillas técnicas – logró desbancar.

Moraleja: De grandes “mariconeadas” aparecen los mejores productos.

Page 103: Bicentenario BZ CHW

Pág 103 de 254

Nintendo Wii

Wikipedia (CC)

Con código nombre “Revolution”, la consola de Nintendo fue exactamente eso, una

revolución, donde se hizo más importante la interacción con el sensor de movimiento en

vez de las gráficas, que más de alguna vez fueron fuertemente criticadas por no mover ni

un dulce. Mientras la XBOX 360 y PlayStation 3 ponían todo sobre la mesa en las gráficas y

otras posibilidades que permitían (Xbox Live por una parte y Blu-Ray por otra), la Wii

sufría de tener síndrome de “2 x Gamecube + DVD + USB + SD + Sensor de movimiento”.

¿Y saben qué? Les ganó a todas.

Page 104: Bicentenario BZ CHW

Pág 104 de 254

Ya lo comentaba ALX en Niubie. El primer signo de una guerra terminada es cuando los del

bando perdedor adoptan la religión del ganador, para bien o para mal. ¿A alguien le suena

“PlayStation Move”? ¿”Kinect”? Ahí tienen la prueba. Si bien XBOX 360 y PlayStation 3 han

vivido de su propio éxito, la Wii logró crear un nicho que seguro ni si quiera los de

Nintendo habían logrado dar en un principio: el mercado de los jugadores casuales. Ese

perfil que juega ocasionalmente desafíos fáciles y entretenidos es el que terminó por

demostrar que no sólo de juegos hardcore viven las empresas, y títulos que aprovechaban

el sensor de movimiento aparecieron rápidamente.

Uno de los títulos con el que venía la consola era Wii Sports, que era la sensación cuando

se demostraba en las tiendas de videojuegos – o en el sector de entretención de algunas

casas comerciales – dejando a todos babeando. Y este juego de demostraciones usando

deportes terminó por ser uno de los títulos más vendidos del mundo, con una consola que

superó en ventas a sus “rivales”. Esos días del año 2006 la táctica más usual era ahorrar y

esperar a que bajara de precio. Mi viejo padre me dijo esos años “Espera a que baje de

precio, todas las cosas bajan”. Te vengo a cobrar la palabra: en 3 años de vida la consola

NUNCA ha bajó de precio, sólo para llegar USD$50 menos el 2009. Estás despedido del

cargo de Consultor Económico Financiero, el pez ocupará el puesto desde ahora.

En esta generación, Nintendo Wii probó exactamente lo que quería: las gráficas no lo son

todo si la jugabilidad es genial y si el juego es esencialmente entretenido. Eventualmente

salieron títulos que intentaron sacarle el jugo a la consola, pero como no podía estar a la

altura de una XBOX 360 o PlayStation, Wii terminó estableciendo su propio catálogo de

videojuegos que una colista de las consolas superiores en hardware. Y al final ambos

primeros tuvieron que resignarse a explorar ese mercado.

No podía terminar este capítulo sin mencionar las gracias que trajo la comunidad después

que encontrar un bug en el último juego de Zelda para la consola. The Homebrew Channel

(El Canal de software casero) terminó por expandir las posibilidades de la consola,

dejando claro que no por ser una Gamecube al cuadrado no podrías ver una película a

través de WiFi o emular esos clásicos de Gameboy Advance y Coleco.

Moraleja: Para revolucionar el mercado necesitas simplemente cinta adhesiva y nadar

contra la moda.

Page 105: Bicentenario BZ CHW

Pág 105 de 254

Dreamcast

Wikipedia (CC)

No podía quedarse afuera, la consola que golpeó primero y fuerte. Lejos, la mejor consola

inventada en su tiempo, y el sueño de muchos quienes querían la guinda de la torta, hasta

que desapareció. Duró menos que un suspiro.

Terminado el mundial de Francia ‘98, la Dreamcast llegó al mercado japonés con un golpe

categórico: Fue la primera consola de la “sexta generación”, antes de la PlayStation 2,

XBOX y Gamecube. Se vendió como pan caliente en Norteamérica al año siguiente por

unos míseros USD$200, junto a títulos como Soul Calibur y Sonic Adventures, pero sólo

durante los primeros días de lanzamiento. Lo que movía las piezas detrás de esta máquina

era un procesador RISC de 128-bit a una frecuencia de 200Mhz, capaz de mover 1.4

GFLOPS de precisión simple. A este le acompañaba el chip PowerVR2 CLX2, que podía

mover la módica suma de 7.000.000 de polígonos por segundo como máximo. Con 16MB

de RAM para el sistema, y 8MB para el video, era muy poco lo que no se podía hacer en la

consola, pero claro, ese trabajo de hacer cosas fue el fallo.

Quienes deben hacer juegos son las compañías de terceros, y en esta ocasión no apoyaron

mucho a SEGA. Habían tres razones, principalmente. La primera era la historia que tuvo

SEGA con su Saturn, nunca logró reflotar después de meterle tanto hardware para estar a

la moda. Aprender a programar en esa consola era como aprender programación desde

cero, ya que se manejaba de forma diferente y el tiempo que había que meterle era

Page 106: Bicentenario BZ CHW

Pág 106 de 254

demasiado, así que ese pasado condenó a las otras compañías que no estaban dispuestas

a quemar más billetes para investigar si esta vez se podría hacer un juego en esa consola.

De pasada, el sistema operativo para cargar los juegos no residía en la consola, sino en el

propio disco del juego, que significaba un trabajo extra, aún cuando estaba la opción de

colocarle una versión optimizada de Windows CE con DirectX, lo que atrajo a bastantes

desarrolladores pero no a todos. La segunda razón es bastante simple: pobre marketing.

Y la tercera es también simple: el lanzamiento de la PlayStation 2 estaba requete-recontra-

súper-hype-ado y con eso para salir pronto, era mejor quemar los billetes en una consola

que prometía bastante – 16 millones de polígonos por segundo para ser exactos – que

crear para una consola que estaría atrás de una XBOX y Gamecube, además de la PS2. Las

dificultades financieras de SEGA terminaron por enterrar este engendro que salió antes

que nadie, pero murió primero, ya que el nuevo cabezón de la compañía decidió

transformar a SEGA en algo más software que hardware. Las consolas que salieron

después terminaron por hundir a la Dreamcast, catalogándola como un engendro que

salió entre medio y que ya era vieja.

Moraleja: “Nombre de Consola + Número generacional” puede acabar con cualquier

producto del mercado.

Page 107: Bicentenario BZ CHW

Pág 107 de 254

iPhone / iPod Touch / iPad / iCosa

Meter todos al saco de “teléfonos móviles”,

siendo que el único que llevó la entretención

más allá fue el iPhone, me parece ofensivo,

pero empieza a tomar forma cuando pensamos

que otros dispositivos también están

empezando a transformarse en consolas

portátiles. Pero por ahora, me quedo con el

aparato de Apple exclusivamente.

De buenas a primeras, a Apple le importa un

carajo los videojuegos. Bajen STEAM, hagan la

comparativa de algún juego compatible

también con Windows, y verán que el rendimiento es mucho menor donde la manzana.

Nada en contra de la compañía de Jobs, pero desde que fracasaron con Pinpin, una mugre

por donde se le mire, que le tienen miedo a explorar este mercado, y por la fama que han

alcanzado sus equipos es que los desarrolladores de videojuegos están empezando a

tomar en cuenta el sistema. Pero en iOS es otra historia, porque “mágicamente” se

abrieron las puertas para estos desarrolladores, tanto grandes como chicos, que se

encargaron de explotar el sistema del teléfono y reproductor de música.

Y el resto es historia. Ninguna consola en el mercado tenía soporte multi-touch capacitivo,

una pantalla buena, cámara y giroscopio. Okey, la Nintendo DS se aproxima, pero el App

Store era la ventaja: miles de juegos – algunos buenos y otros como el nepe - por un par de

dólares. De pasada podías reproducir música o hacer una broma anónima a un número

desconocido. Un procesador ARM bien formado, 128MB o más de memoria para hacer

cualquier cosa, muchas aplicaciones para acompañar, y la visión de un producto apetecido

por mucha gente: la combinación perfecta.

¿Suena injusto? Sí, porque Nokia se tiró a la piscina con ese N·GAGE, también llamado

“orejera”, y no le resultó, mientras que otra empresa lanzó un aparato y sin querer

terminó por transformarse en otra consola de videojuegos portátiles que, según el orgullo

de Steve, ha vendido más que la PSP y DS juntas. En mi universidad a veces aparecen mis

compañeros con ideas generadas en 5 minutos, que terminan sacándose la mejor

calificación del mundo, mientras otros que pasaron su semana cabecéandola terminan

pasando apenas. La vida es injusta, pero ¿qué le vamos a hacer? ¿Un App Store?

Page 108: Bicentenario BZ CHW

Pág 108 de 254

Moraleja: Cualquier producto que hace todo mejor menos su cometido principal es un

éxito. El N·GAGE no servía para jugar ni para llamar. ¿Ven?

PC

¿No veían esa venir, eh? El PC se convirtió también en

una máquina de videojuegos exactamente en 1958,

cuando William Higinbotham creó Tennis for Two, en

una máquina que en ese entonces estaba destinado al

cálculo duro, científicos serios y ocio después de la

jornada de trabajo. Algunos años más tarde sería la

cuna de todos los juegos que conocemos – no hay

ningún título de consola que no haya pasado por PC

primero – y anfitrión de sí mismo.

Una de las cosas que vale la pena destacar fue la era del shareware, donde la gente podía

obtener una prueba del juego antes que tuvieran que mostrar los billetes. Esta práctica

para la industria fue bastante famosa en los años ‘80 hasta mediados de los ‘90, y una de

las razones por las cuales los usuarios pudieron verse más dispuestos a pagar por un juego

completo. ¿A quién no le tentó Duke Nukem, Wolfenstein, y otros más? Por lo menos yo

pude probar Raptor antes de comprarlo en algunos disquetes años atrás por unos míseros

billetes en un supermercado.

Para qué vamos a ahondar en el hardware, cada uno arma su equipo como quiere. Para

qué vamos a ahondar en el software, cada uno instala lo que quiere. ¿Penetración? Ahora

tenemos una computadora como mínimo en cada casa. ¿Precio? Tú se lo colocas.

¿Disponibilidad? Aquí y ahora. En vez de estar esperando a que una consola salga, puedes

jugar con tu teclado y mouse ahora mismo. Por ahora, nada ha podido quitarle el trono al

PC como la plataforma predilecta para jugar cualquier tipo de videojuego sin preocuparse

de las limitaciones o retrocompatibilidad. El mouse es lo mejor para apuntar a la cabeza

de tus rivales.

Moraleja: Jugar en una consola es para niñitas que les falta fuerza para instalar algo en el

slot ZIF.

Menciones honrosas

Magnabox Odissey: Me disculparán si no entró la primera consola hogareña del mundo.

Pero sólo jugar “Pong” – no fue llamado así hasta que Atari le puso ese nombre – no me

calienta demasiado, nací una década y media después de eso. El control me recuerda las

Page 109: Bicentenario BZ CHW

Pág 109 de 254

arcadias de Arkanoid, eso no más. Sí la vi en carne y hueso cuando andaba paseando por

Valparaíso cuando pequeño, sólo para darme cuenta después qué era de verdad.

Sega Genesis: Nunca en mi vida pensé que a alguien se le ocurriría meter tantos

accesorios en una consola para que lograse vender más. Pregúntenle a alguien con años

encima si alguna vez encontró genial tener un Sega 32X o un Sega CD además de la

consola. Por lo menos Angry Videogamer Nerd no lo encuentra tan así. Además, los ports

de arcade a Genesis eran deplorables. ¿Alguna vez compararon Sunset Riders para

Genesis con el de arcades?

Nintendo DS: Cuando llegó la DS al mercado apenas había vuelto a la civilización, así que

me pilló por completo. Pero lentamente empezamos a olvidarnos del Gameboy Advance

para reemplazarlo por un stylus y juegos donde podíamos interactuar entre dos pantallas,

y los números de las ventas confirman que es un éxito. Se aproxima la 3DS, y de no ser un

próximo lanzamiento, lo hubiese puesto primero en la lista.

Page 110: Bicentenario BZ CHW

Pág 110 de 254

(088) Sergey Brin y Larry Page, los arquitectos de Internet Por Juan Pablo Oyanedel

Cuando Johannes Gutenberg inventó la imprenta moderna hace más de 500 años atrás,

inmediatamente se le reconoció como un personaje que cambió la forma en la que el ser

humano se comunicaba y se transmitía la información. En la actualidad, y apoyados por

los avances tecnológicos, puede que Sergey Brin y Larry Page sean los Gutenberg de

nuestra era, al también revolucionar el ámbito de la difusión de conocimientos a través de

Internet.

Larry Page y Sergey Brin

Porque hay un antes y un después de Google, donde salimos de una época con

buscadores inexactos, repletos de publicidad y con un pobre motor de indexación. El

modelo seguido por estos dos jóvenes para construir un sistema que organizara el caos

reinante en la web era limpio, rápido y eficiente, lo que luego llevó a la creación de

servicios basados en Internet entregando lo que ningún otro había podido dar antes,

resultando en un cambio en la vida de las personas.

Page 111: Bicentenario BZ CHW

Pág 111 de 254

Los inicios de Sergey Brin

Sergey Mikhaylovich Brin nació en Rusia durante la

época de la Unión Soviética, el 21 de agosto del año

1973, teniendo ahora 37 años de edad. Sus padres,

ambos de religión judía, se sintieron descontentos en

su país de origen debido a que Michael Brin, padre de

Sergey, quería estudiar astronomía pero las escuelas

de física en su nación no querían judíos en sus aulas,

por lo que optó a una carrera matemática casi a la

fuerza y sin mucha alegría.

Producto de esta situación, cuando Sergey tenía seis

años finalmente la familia decidió emigrar a los

Estados Unidos, donde el padre encontró trabajo

como profesor de la Universidad de Maryland y su

madre, una científica de profesión, se desempeñaría

como investigadora en la NASA.

Fueron sus padres, amantes de la ciencia y las matemáticas, quienes iniciaron al niño en

las artes de la informática, puesto que el padre le enseñó desde muy pequeño números y

programación a Sergey, regalándole además su primera computadora en su cumpleaños

número nueve: una Commodore 64.

Luego de graduarse de la secundaria, el joven entró a estudiar Ciencias de la Computación

y Matemáticas a la Universidad de Maryland, la misma donde su padre ejercía como

docente. Más tarde, decidió matricularse en Ciencias Informáticas de la Universidad de

Stanford, completando todos los cursos de la carrera. En ese momento es cuando su vida

sufre una interrupción permanente llamada Google.

Page 112: Bicentenario BZ CHW

Pág 112 de 254

Los inicios de Lawrence “Larry” Page

Nacido el 26 de marzo de 1973 en

Michigan, Estados Unidos, Page

tiene la misma edad que su amigo

Sergey: 37 años. Pero no sólo eso

comparten, sino que Larry también

es de familia judía, con padres que

coincidentemente ejercían como

profesores de Ciencias de la

Computación en la Universidad de

Michigan.

Este ambiente intelectual fue

propicio para que Larry se involucrara desde pequeño en el mundo de las matemáticas y

la informática, confesando una pasión por descubrir e inventar cosas nuevas, donde él

mismo se refiere a esta época de su vida de la siguiente forma:

Desde muy temprana edad, me di cuenta de que también quería inventar cosas. Así que

me volví muy interesado en la tecnología y los negocios. Probablemente cuando tenía 12

años ya sabía que eventualmente iba a comenzar una compañía.”

Es así como luego de salir de la secundaria en 1991 entra a Ciencias de la Ingeniería

Informática en la Universidad de Michigan, para luego aplicar a una maestría en la

Universidad de Stanford, donde el destino quiso que se conociera con Sergey Brin.

Una estabilidad gracias a la unión

Estando en Stanford, Larry Page se interesó en el tópico de la relación entre las

matemáticas e Internet, entendiendo a la red como un conjunto de nodos unidos por

enlaces o aristas, sólo que a una escala enorme y representando lo que finalmente

son los hipervínculos.

Page 113: Bicentenario BZ CHW

Pág 113 de 254

Así, se dio cuenta de que los llamados “backlinks”, o vínculos que apuntan a cierto sitio

web, eran de vital importancia para otorgarle un rango de calidad a la página web en

cuestión, por lo que unificó toda esta teoría con fundamentos matemáticos en una

investigación llamada BackRub.

Es aquí cuando aparece la figura de Sergey

Brin, quien conoció a Page en marzo de 1995 mientras le enseñaba el campus de la

universidad al que más tarde sería uno de sus mejores amigos y socio fundamental dentro

de Google.

Sergey se interesó mucho por la idea del BackRub, viendo en ella un reflejo de los

conocimientos que el ser humano podría depositar en Internet si se organizaba

correctamente. Es así como juntos desarrollaron PageRank, el sistema para darle una

categoría a cada sitio web basándose en sus relaciones con los demás portales, naciendo

finalmente el buscador que todos conocemos y amamos: Google.

Page 114: Bicentenario BZ CHW

Pág 114 de 254

La vida actual

Por todos es sabido el éxito que se generó gracias a

Google, derivando a numerosos servicios y a una

plataforma de publicidad en línea que produce

millones de dólares mensualmente. Sin embargo,

esta fortuna no hizo que ambos fundadores

cerraran los ojos al mundo real, creándose

entonces el sitio alternativo google.org, dedicado a

la filantropía y a la búsqueda de soluciones

energéticas para mejorar las condiciones climáticas del planeta.

En forma paralela, Larry Page está aún más comprometido con las formas de generar

energía alternativa al invertir en compañías como Tesla Motors, quienes desarrollan

nuevas tecnologías para crear automóviles eléctricos.

Todas estas ocupaciones de igual forma dejan espacio para la vida amorosa, ya que Sergey

está casado desde el 2007 con Anne Wojcicki, bióloga de la Universidad de Yale, mientras

que Larry también contrajo matrimonio el año 2007 con Lucinda Southworth, doctorada

en Informática Médica de la Universidad de Stanford.

Y es que como podemos ver, la vida de ambos amigos y colegas está llena de similitudes

bastante curiosas, quizás en una clara señal del destino que ya había planeado de

antemano el encuentro de estas dos mentes, que juntos lograron rearticular Internet para

luego intentar centralizarla en servicios propios, llevándose gran parte de la atención en la

red y sin duda siendo protagonistas permanentes de todas las tendencias que involucran

la vida en el mundo de la WWW.

Page 115: Bicentenario BZ CHW

Pág 115 de 254

(095) Fabricantes de microprocesadores x86 que pasaron a

la historia Por David Sarmiento Portocarrero

Actualmente son muy pocos los fabricantes de microprocesadores x86 que han podido

sobrevivir a la dura competencia que representa Intel, el creador de dicha arquitectura;

quedando unos pocos competidores como AMD (conocida por sus microprocesadores

Sempron, Athlon II, y Phenom II) y VIA (conocida por sus microprocesadores C3, C7, y

Nano); pero tal como se vio en el artículo por el día de la tierra, existen también otros

competidores poco conocidos, pero con algunos desarrollos interesantes enfocados al

bajo consumo.

Page 116: Bicentenario BZ CHW

Pág 116 de 254

Las pocas empresas actuales que desarrollan microprocesadores x86 han sobrevivido y/o

han surgido como nuevas competidoras, fusionándose y/o absorbiendo (adquiriendo) a

alguna de las empresas que originalmente fabricaban microprocesadores x86. Pasa que,

aunque muchos no lo recuerden, Intel no siempre fue la gigantesca empresa que es ahora,

y en los inicios del despegue del x86, se vio en la necesidad de licenciar su tecnología a

muchas otras empresas, a fin de asegurarse de que en el mercado hubiese un número

suficiente de chips x86 para satisfacer la en ese entonces naciente y creciente demanda

de PCs IBM compatibles (conocidas en esas fechas como clónicas de Intel).

En este artículo haremos una breve descripción de los fabricantes de CPUs x86 que

pasaron a la historia del hardware, así como también en manos de quien terminaron

algunos de ellos.

Generación 8088/8086 (1978 a 1982)

Eran los inicios del x86, y quizá la etapa más prolífica en cuanto al número de fabricantes

de microprocesadores compatibles; haremos una lista de los existentes en ese entonces:

AMD, CCCP, Fujitsu, Harris, IBM, Intersil, MHS, Mitsubishi, National Semiconductor, NEC,

OKI, Siemens, Sony, y Texas Instruments. Muchos de los chips fabricados por estas

empresas en realidad eran vendidos por Intel, llegándose a ver casos curiosos como un

microprocesador 8086 con los logotipos de AMD e Intel en el mismo silicio, una

combinación que sería imposible de ver en la actualidad, en esos tiempos la

compatibilidad a nivel de socket era absoluta, y se mantuvo en las siguientes generaciones

hasta la aparición del slot 1 de Intel en tiempos de los Pentium II, hecho que se detallará

posteriormente.

Page 117: Bicentenario BZ CHW

Pág 117 de 254

Siemens 8086 5MHz

Generación 80188/80186 (1982)

CCCP, MHS, Mitsubishi, NEC, OKI, y Sony fueron los primeros fabricantes de chips x86 que

cayeron, abandonando el negocio, y dedicándose a otros de los rubros que mantenían,

muchas de estas empresas caídas continúan hasta la actualidad fabricando periféricos, PC

y laptops, entre ellas quizá la más famosa sea Sony.

AMD 80186 8MHz

Generación 286 (1982 a 1985)

En esta generación no hubo bajas, la popularidad de las IBM PC compatibles no hacía más

que crecer, pero nuevos competidores estaban empezando a surgir, con novedosos

desarrollos basados en la ingeniería inversa.

Page 118: Bicentenario BZ CHW

Pág 118 de 254

Harris 286 16MHz

Generación 386 (1985 a 1989)

Harris, Intersil, y Siemens son los siguientes en caer, de ellos Siemens en la actualidad es

ampliamente conocida por sus tecnologías de comunicación y celulares. Pero también se

aprecia el nacimiento de 5 nuevos competidores: Acer Labs Inc (ALI/ULI), Chips and

Technologies, Cyrix, NexGen (famosa por introducir un diseño híbrido CISC-RISC), y UMC,

los cuales como se comentó, lograban la ansiada compatibilidad x86 haciendo uso de

ingeniería inversa, lo que originó problemas legales con Intel, siendo famoso el caso de

Cyrix (conocida en ese tiempo por sus coprocesadores matemáticos Fasmath), empresa

que consiguió vencer a Intel en la corte, e incluso posteriormente en tiempos de los

Pentium Pro y Pentium II, irónicamente demandó a la propia Intel por violar sus patentes

de ahorro energético, hecho que llevó a un acuerdo extrajudicial, en el cual Intel y Cyrix

lograban un arreglo de patentes cruzadas, y Cyrix también ganaba el acceso a la licencia

x86, así como la capacidad de exteriorizar la fabricación de sus microprocesadores, lo que

originaría el nacimiento de algunos nuevos fabricantes de chips x86.

Cyrix 486DLC 40 MHz para mainboards 386

Generación 486 (1989 a 1993)

Ali y Chips & Technologies abandonan el negocio, en el caso de Ali podemos comentar que

se mantuvo fabricando chipsets hasta tiempos de los AMD Athlon 64 socket 939/AM2, y

se mantuvo vendiendo chips 386 compatibles, años después desarrolló SoCs basados en

386 enfocados a sistemas embedidos, para posteriormente terminar siendo adquirida por

Nvidia, perdiendo su licencia x86. En cuanto a Chips and Technologies esta fue adquirida

Page 119: Bicentenario BZ CHW

Pág 119 de 254

por la propia Intel, la cual se quedó con su división de chipsets y VGAs, a fin de usar sus

tecnologías para fortalecer su presencia como plataforma.

Debido a la mencionada victoria de Cyrix sobre Intel, esta externalizó su producción de

chips x86 a IBM, ST Microelectronics, SGS Thompson, y Texas Instruments.

IBM 486 DX4 100 MHz

Generación Pentium/MMX/Pro (1993 a 1997)

Fujitsu y UMC abandonan el negocio x86, pero UMC mantiene sus fábricas, encargándose

de fabricar los chips de futuras competidoras x86 como Rise Technology y SiS. Vemos

también el nacimiento de 2 nuevos competidores al mundo x86: IDT/Centaur (CPUs

Winchip) y Rise Technology (CPUs MP6) las que aparecen como opciones económicas en

tiempos de los Pentium MMX siendo compatibles con el socket 7; por su parte IBM se

convierte en aliado de Cyrix, fabricando los CPU de esta, así como vendiendo algunos de

ellos con su propia marca.

Page 120: Bicentenario BZ CHW

Pág 120 de 254

Nextgen Nx586 P90 84MHz

Generación Pentium II/III (1997 a 2000)

Cyrix, IDT, NextGen, y Rise Technology son absorbidas por National Semiconductor (lo que

origina que IBM, SGS Thompson y Texas Instruments abandonen también el mercado x86),

VIA, AMD (baso sus próximos Athlon en las tecnologías adquiridas a NextGen) y SiS

respectivamente, marcando el final en la carrera de estas empresas, pero el inicio de SiS y

VIA en el mercado x86, así como también Transmeta hace su aparición con sus chips x86

(CPUs VLIW que emulaban el código x86) de bajo consumo; otro nuevo competidor a

mencionar es el chip chino Godson/Longson/Dragonson el cual fabrica chips x86 para el

mercado chino, obviamente que sin contar con la licencia de Intel.

Cyrix MII 400 285 MHz

Generación Pentium 4 (2000 a 2006)

Page 121: Bicentenario BZ CHW

Pág 121 de 254

National Semiconductor, SiS y Transmeta y son las más recientes en la lista de bajas,

National Semiconductor vendió su división MediaGX a AMD, y el resto de su división de

chips x86 a VIA; SiS vendió su división x86 a DM&P Electronics (CPUs Vortex86) la cual

continua desarrollando estos chips enfocados al bajo consumo; mientras que Transmeta

vendió su división de CPUs y otras tecnologías de ahorro energético a Nvidia.

National Semiconductor GX1300B 300MHz

Generación Core/Core II/Core ix Series (2006 hasta la actualidad)

Surge un nuevo competidor: Montalvo Systems, el diseño de su chip x86 enfocado al

mercado de servidores llama incluso la atención de Sun, la cual la adquiere, y

posteriormente Sun es adquirida por Oracle la que desecha dicho proyecto. A partir de

este momento la historia es conocida por todos, las actuales empresas que aún

sobreviven en el mercado oficial x86 son: AMD, DM&P Electronics, Intel, y VIA. Sobreviven

también algunas empresas poco conocidas que poseen chips basados en las viejas

arquitecturas 386/486 enfocados al mercado de productos embedidos: RDC

Semiconducters, Zet, y ZF Micro.

DM&P Electronics Vortex86MX PMX-1000 1GHz

Page 122: Bicentenario BZ CHW

Pág 122 de 254

Notas finales

Un minuto de silencio por: Ali, CCCP, Chips & Technologies, Cyrix, Fujitsu, Harris, IBM, IDT,

Intersil, MHS, Mitsubishi, Montalvo Systems, National Semiconductor, NEC, NextGen, OKI,

Rise Technology, SGS Thompson, Siemens, SiS, Sony, Texas Instruments, Transmeta, y

UMC; en el mercado x86, si bien muchas de ellas continúan vivas en manos de sus

actuales dueños, mientras otras ganaron reputación en otros rubros, y otras quebraron

definitivamente. El que actualmente queden unos pocos fabricantes en el mercado x86, es

un reflejo de las actuales tendencias del mercado y del duro mundo de los negocios.

Page 123: Bicentenario BZ CHW

Pág 123 de 254

(102) Steve Ballmer, todo un personaje tech No tiene precisamente fama de simpático, pero detrás del carácter tan extrovertido hay

un ejecutivo exitoso que hoy comanda el navío luego de la era Bill Gates.

Publicado el 15/09/10 a las 9:15 am por Juan Pablo Oyanedel

Quien fuera por mucho tiempo la mano derecha de Bill Gates al mando de Microsoft,

Steve Ballmer hoy está a la cabeza en la compañía donde alguna vez fue sólo un

empleado, perfilándose actualmente como uno de los personajes más relevantes de la

escena tecnológica y destacando, como siempre, por su interesante personalidad

y carácter, que le han entregado al jet set de la informática grandes momentos

comunicacionales.

Su historia temprana

Steven Anthony Ballmer, más conocido como “Steve”, nació el 24 de marzo de 1956 en

Detroit, Michigan, hijo de un inmigrante suizo y de madre norteamericana. Asistió a una

escuela privada en su niñez y adolescencia, para luego graduarse de ella en 1973

obteniendo un puntaje perfecto de 800 en el examen matemático del SAT; sistema para la

admisión a la universidad en Estados Unidos.

Así, entró a la Universidad de Harvard con una beca ganada gracias a sus buenos

resultados académicos, institución donde sería compañero de cuarto con Bill Gates,

fundador de Microsoft. Y aunque Bill se retiró para darle énfasis a su nueva empresa,

Steve siguió su camino y se graduó con grandes honores obteniendo un título en

matemáticas y economía.

Page 124: Bicentenario BZ CHW

Pág 124 de 254

Luego de aquello, trabajó dos años como asistente de productos en Procter & Gamble, sin

embargo, se retiró de la compañía para entrar a estudiar un Master en administración de

negocios en la Universidad de Stanford en 1979.

La entrada a Microsoft

Pero en 1980, su antiguo acompañante de

cuarto Bill Gates lo convenció para que dejara Stanford y se fuera a trabajar con él en

Microsoft, prometiéndole un salario de $50.000 dólares y un porcentaje del 8% de la

compañía, para que fuese también dueño. Ni tonto ni perezoso, Ballmer aceptó la cálida

oferta de su compañero y juntos siguieron un camino en Microsoft que los ha convertido a

ambos en parte del grupo de los hombres con mayor fortuna económica en el planeta.

Así, Steve Ballmer se hizo cargo del área de marketing y finanzas en Microsoft, algo que

por sus estudios sabía hacer muy bien y que le vino como anillo al dedo a un Bill Gates que

deseaba preocuparse de su visión de la tecnología y nuevos productos para cambiar la

vida de las personas.

Su gestión fue un éxito, pues durante los primeros cinco años Steve logró duplicar en

forma anual la cantidad de empleados, junto con reorganizar la estructura interna, crear

positivos grupos de trabajo e inagurar un programa para que los empleados tuvieran la

opción de hacerse con acciones de Microsoft, algo que a la larga llevaría a que varios de

ellos se convirtieran en multimillonarios.

En julio de 1998, Ballmer fue ascendido al cargo de Presidente de Microsoft, sillón que

dejaría en enero del año 2000 para asumir como CEO de la compañía, luego de que Bill

Gates cediera su puesto y empezara a perder protagonismo en forma voluntaria dentro de

la institución que construyó. Hasta el día de hoy, Steve ejerce como CEO de Microsoft.

Su cara más conocida

Page 125: Bicentenario BZ CHW

Pág 125 de 254

Independiente de sus estudios, logros en la empresa, o relevancia en la marca de

tendencias tecnológicas, Steve Ballmer se ha hecho más conocido en la industria por su

singular y única personalidad, la cual ha provocado toda una construcción de un personaje

alrededor de su persona, estando marcado inevitablemente por momentos que muchos

de nosotros jamás olvidaremos.

La publicidad para vender Windows

Como buen hombre de negocios, Ballmer hacía lo posible para vender el que siempre ha

sido el producto estrella de la empresa: Windows. Con muy poca vergüenza, un articulado

discurso y entusiasmo de sobra, un par de videos fueron grabados con él mismo como

protagonista resaltando en forma exaltada los beneficios de migrar a una plataforma

Windows 1.0. Eso demuestra que para hacer un comercial no hace falta guionista, ni un

curso de modulación, y hasta se puede usar una chaqueta vieja de vendedor puerta a

puerta.

.

Eventos en vivo

Page 126: Bicentenario BZ CHW

Pág 126 de 254

En grandes eventos, Ballmer no sólo destacó por su voz y entusiasmo, sino que también

hasta por sus bailes en el escenario. Y es que el ahora CEO de Microsoft afirma en una de

estas presentaciones que “ama a esa compañía”, algo que sin duda demuestra con creces

cuando habla frente al público.

Pero este amor también lo comparte con los desarrolladores, pues en una segunda

ocasión al entrar al escenario Ballmer no se cansa de repetir a gritos “developers!

developers!” (¡desarrolladores!), con una camisa completamente mojada por el sudor y

sin duda en busca de caer bien entre la multitud presente en el evento que era

precisamente de desarrolladores, contagiando alegría, entusiasmo y algunas veces temor

a los asistentes.

Sobre la competencia

La mordaz lengua del CEO de Microsoft no se deja

de mover cuando es momento de referirse a la

competencia, dejando damnificados de todos los

bandos en el camino, algunas veces con dichos en

público con un micrófono al aire y otras a través de

diálogos internos que igualmente se filtran.

Tal es el caso de lo que supuestamente habría

ocurrido cuando Mark Lucovsky, un importante ingeniero de Microsoft, decidiera aceptar

una tentadora oferta desde Google para cambiarse de trabajo, desatando la furia de

Page 127: Bicentenario BZ CHW

Pág 127 de 254

Ballmer en una reunión que tuvo éste con Lucovsky cuando discutieron acerca de su

renuncia. El diálogo habría sido el siguiente:

(Ballmer) Sólo dime que no te vas a Google.”

(Lucovsky) Sí, a Google.”

(Ballmer, mientras toma una silla y la lanza a través de su oficina) ¡Maldito Eric Schmidt es

un maldito cobarde! ¡Voy a enterrar a ese tipo, lo he hecho antes y lo haré otra vez! ¡Voy

a matar a Google!”

Acto seguido, Steve se habría calmado e intentó persuadir al ingeniero a quedarse en

Microsoft, algo que éste claramente no aceptó luego de ver la verdadera cara de su jefe

poseído por la furia. Más tarde, Ballmer se referiría a esta historia como “una grosera

exageración de lo que realmente sucedió”, confirmando que efectivamente “algo” pasó,

pero que no habrían habido malas palabras (que por amor a la lingüística no quisimos

traducir en el diálogo) ni sillas voladoras de por medio.

Apple también ha sufrido las críticas de este personaje, quien ve con malos ojos el precio

de los computadores de la manzana, se ha reído del iPhone y ha menospreciado al

popular iPod.

¿Pagar $500 dólares extra por una computadora en este ambiente (de crisis económica),

con el mismo hardware, pagar $500 dólares más por tener un logo (de la manzana) en

ella? Creo que esa es una proposición más arriesgada para la persona promedio hoy de lo

que fue en el pasado.”

“No, yo no uso un iPod. Ni lo hacen mis hijos. Mis hijos, en muchas dimensiones se

comportan tan mal como otros niños, pero al menos en esta dimensión les he lavado el

cerebro a ellos: No usarás Google, ni usarás un iPod.”

¿$500 dólares, con subsidio completo y un plan? Ése es el teléfono más costoso del

mundo, y no es interesante para el mercado de los negocios porque no tiene un teclado

físico, lo que no lo convierte en una muy buena máquina para enviar correos

electrónicos.”

Su futuro en Microsoft

Pero pese a sus momentos mediáticos al mando de la compañía, Steve Ballmer sin duda

ha hecho un buen trabajo en ella desde que era compañero de Bill Gates en 1980 hasta

que asumió el 2000 en el mayor desafío de su carrera: ser CEO de Microsoft.

Page 128: Bicentenario BZ CHW

Pág 128 de 254

Con Gates fuera del camino y dedicado a la filantropía, actualmente quedó en manos de

Ballmer el manejo de los proyectos que podrían catapultar a un mayor éxito o bien

sepultar a la institución, por lo que hay que mirar con atención el presente y el futuro de

la innovaciones tecnológicas que impulse Microsoft para saber si el actual CEO se

mantendrá en su cargo o caerá producto del fracaso y las malas ventas.

Por lo pronto, podemos poner atención a lo que ha hecho con el sistema operativo

Windows 7, el cual resultó ser un gran éxito, al igual que la hoy consolidada consola de

videojuegos Xbox. Pero el discreto rendimiento del reproductor multimedia Zune y el

incierto futuro del sistema operativo para smartphones Windows Phone 7 podrían definir,

en parte, cómo terminará esta historia.

Page 129: Bicentenario BZ CHW

Pág 129 de 254

(109) Cuando PCI Express reemplazó al AGP Porque no hay segunda sin primera (sino estaríamos retrocediendo en el tiempo), mi

último artículo les hablará de otro hito materializado en un puerto: PCI Express.

Editar | Publicado el 16/09/10 a las 9:11 am por DarkGhostHunter

Lo más doloroso para algún techie es decidir cuándo y cómo actualizarse a la nueva

tecnología. Creo que lo vivimos todos, y así como cada cual nace sabe de antemano que se

morirá tarde o temprano, el que presiona teclas en la computadora sabe también que

algún día llegará ese fatídico momento donde dirá, con énfasis en el adjetivo calificativo y

una rabia evidentemente sempiterna durante toda la frase, “Esta basura está más vieja

que mi mamá”.

Eso fue lo primero que dije cuando noté que algunos videojuegos requerían una tarjeta de

video mucho mejor, y gracias a mi mamá, tengo esta cicatriz. Para que Katarn le cortara la

cabeza a un Sith tenía primero que entender la letra de una canción Death Metal

cualquiera para lograrlo – así de difícil era tratar de jugar mientras mi computadora

alegaba hasta en calidad baja y resolución mínima. Para sopesar ello, tenía una opción

muy clara: votar esa antigua Radeon 7000 de 64MB que me acompañó por años sin

ningún problema, y reemplazarla por algo mucho mejor como una Radeon X700 o

GeForce 6600. La sorpresa que me llevé al saber que no había versión AGP, la misma

cuando supe que mis zapatillas de planta lisa no servirían para jugar fútbol en el pasto

(doh!). El sólo hecho de cambiar la tarjeta gráfica era algo así como un cambio de cancha

completo, pero después de investigar algo, mi billetera tenía todas las de perder.

PCI a otro nivel

Así como AGP era la solución de de los cuellos de botella, PCI Express también era una

nueva tecnología para solucionar los problemas del anterior, pero estaba en juego algo

más allá de las tarjetas gráficas; era cambio arquitectónico sobre cómo comunicar lo que

se conectaba en ese bus con el resto del sistema.

Page 130: Bicentenario BZ CHW

Pág 130 de 254

Wikipedia (GNU)

PCI sufría de un malestar: todos los dispositivos que se conectaban allí compartirían el

mismo bus, por lo que el rendimiento se vería mermado cuando una necesitara más

ancho de banda que otro dispositivo. Esta pelea de intereses llevaría, por poner un

ejemplo, a que dos controladoras de discos estuviesen rindiendo a la mitad en la

transferencia mientras peleaban con los datos que entraban y salían de alguna LAN gracias

a la tarjeta de red. Ni hablar de resoluciones HDTV y video en alta resolución, 133MB se

escuchaba grande pero en la práctica no es tanto cuando tienes muchas cosas conectadas

chupando como reviewer de cumpleaños en botillería sin nadie que atienda.

Llegó el momento de las analogías: imaginemos el caso de la carretera 5 Norte que

interconecta a todas las ciudades del país del norte de Chile, pero con sólo 1 línea en vez

de 4. Todas las ciudades comparten la misma carretera, y todos se entenderán bien

mientras no salga de Arica una caravana gigante que termine por crear un interminable

taco en los cientos de kilómetros que faltan a la capital, aún cuando alguien desee llegar

sólo a Iquique o la ciudad de más adelante.

Page 131: Bicentenario BZ CHW

Pág 131 de 254

Ars Technica (C)

¿Qué sucedería si cada ciudad tuviese una carretera exclusiva hacia Santiago? Eso es PCI

Express, una conexión punto-a-punto, con un “switch” al otro extremo de la línea,

encargado de mandar cada auto a su destino correspondiente. Y el cambio arquitectónico

no era nada de otro mundo, por lo que aquellos dispositivos hechos para PCI sólo tenían

que, en el mejor de los casos, cambiar la conexión a PCI Express. De pasada, como estás

solo en esta especie de pista recta, no hay miedo en presionar el acelerador hasta que la

aguja se de unas diez vueltas al tacómetro. ¿O acaso vas a chocar con una curva?

Hay que tomarse la línea (no esa línea)

La filosofía de PCI Express es la conexión en serie, directa,

mientras permitía que la información llegara sin errores, y

con el menor esfuerzo posible. La conexión está basada en

líneas, cada una de ellas consta de dos pares de “sub-

líneas” que transmiten hacia y desde – en total 4

autopistas, dos en sentido contrario a las otras dos.

Cada uno de ellos lanza 1 bit al aire por cada ciclo (o

hertzio para que no se pierdan), y cada byte está codificado

en 10 bits en vez de 8 (luego explico eso). Con esto luego el

switch que recibe la información verifica a través de la

decodificación del mismo paquete si todo salió bien o mal.

HowStuffWorks (C)

Page 132: Bicentenario BZ CHW

Pág 132 de 254

La frecuencia de operación de PCI Express 1.0 es de 2.5GHz, o mejor dicho, 100MHz con

un multiplicador de x25, lo que se traduce en 250.000 bits por segundo. Resultado: los

datos que pueden salir por una línea en un segundo es de 500MB redondeados, sin

embargo, dado que los dos bits de codificación ocupan el 20% de lo que se transfiere,

estamos hablando de 400MB reales, o 200MB por cada lado. Mientras AGP lograba los

2133MB en el mejor de los casos, con sólo 8 líneas PCI Express se lograban 3200MB

asíncronos por segundo y sin despeinarse. Tecnologías comparables, pero no iguales.

La gran diferencia entre el AGP, PCI y PCI Express era que este último era administrado por

un “switch” que tenía lugar en el Northbridge, aquél chip donde pasa todo incluyendo el

bus del sistema, para administrar los datos que pasaban y su destino: el CPU, RAM, o el

mismo bus central. También trajo bastantes cambios abajo del capot, como lo hizo AGP en

su tiempo:

• Prioridad: Antiguamente, si algún “paquete” de datos de algún dispositivo PCI debía llegar rápido y sin demoras a un lugar, tenía que quedarse en la cola de los otros que habían llegado antes. Con PCI Express, el switch se encarga de ordenarlos en caso que uno necesite tener más prioridad que el otro. Por ejemplo, mientras uno le da duro a un videojuego de acción, los paquetes de información gráfica serán los primeros en llegar en vez de aquellos que mande una tarjeta de red inalámbrica.

• Punto a Punto: El trabajo del switch también es interconectar cada dispositivo directamente con otro, asegurando el ancho de banda completo a cada uno en vez de dividirlo entre un número determinado de dispositivos conectados.

• Full Duplex: Mientras el bus PCI estabas recibiendo o enviando datos, considerando la espera entre cada paquete, en PCI Express se pueden hacer ambas cosas simultáneamente. No más “Cambio y Fuera”.

• Ancho de banda ajustable: Todos los puertos PCI por norma eran iguales, pero en PCI Express se puede crear un puerto con menos líneas para otros dispositivos que no demandan tanto, como tarjetas de sonido, de red, controladores de discos, etcétera. De ahí los puertos PCI Express 1X, 2X y 4X.

• Menor degradación de la señal: Como la señal ya no es compartida en un mismo bus, la recepción de las señales son mucho más limpias y hay menos errores entre los datos. Cada línea envía una versión “positiva” y otra “negativa/invertida” de la señal al destino, donde se combinan al llegar al switch, limpiando el ruido electromagnético.

• Coexistencia con software: PCI Express es una tecnología que no es diferente a como PCI funciona a nivel de software, por lo que los sistemas operativos necesitaron muy pocas maniobras para ser compatibles.

• Donde quieras: La versatilidad de PCI Express es suficiente para que una tarjeta de 8X o 4X pueda insertarse en un puerto PCI Express 16x (pero en muchos casos no al revés). Total, lo único diferente eran el menor número de líneas.

Page 133: Bicentenario BZ CHW

Pág 133 de 254

• Mejor reconocimiento de errores: Nadie es perfecto, y menos las computadoras. Como en el bus PCI Express se codifican los 8bits en 10bits, una pérdida del 20% del ancho de banda es marginal comparado con la posibilidad de recuperar el byte corrupto en el próximo ciclo.

• Hot Swap: Así como algunos discos SCSI eran posibles de ser intercambiados mientras funcionaban, en PCI Express también es posible si la tarjeta conectada lo permite. Eso sí, no lo intenten con la tarjeta de video mientras funciona, es pésima idea. Ya lo comprobé y tuve que reiniciar.

• Mayor energía: El puerto AGP podía entregar cerca de 40W a la tarjeta de video, pero PCI Express lograba 75W mientras se usaba el puerto con 16 líneas. No más pines de alimentación aparte, no más estragos a la hora de crear un GPU que consumiera menos.

Aún con todas esas ventajas, la transición a PCI Express fue bastante dolorosa para

algunos, pero en el mercado de tarjetas gráficas el cambio era casi obligado cuando

apareció el rumor que algunas de las próximas tarjetas gráficas empezarían a sentir el

techo de lo que podía ofrecer AGP y el rendimiento que se perdía al no usar las ventajas

del nuevo estándar. Se dieron algunos casos alejados de puertos PCI Express 32x, pero el

slot era demasiado largo que era mucho más común verlo en tarjetas madres de

servidores con algún engendro chupa-ancho-de-banda montado que en las computadoras

de los consumidores finales. De hecho solo las he visto por fotos de Google.

¿Verdad que les dije que les iba a explicar eso de la codificación? Eso de 8b/10b mucha

gente no lo entiende, así que aquí les va otra analogía. Imagínense que vamos a comprar

huevos, y nos encargan 8 bandejas gigantes para llevar en nuestra mochila. Lo más obvio

sería comprar aquellas 8 e ir directamente a entregarlas, pero nadie nos asegura que

durante el camino se nos pierda o se suelte el paquete entero con las 8 bandejas. La

solución que pone en el tapete PCI Express era llevar 8 piezas y 2 bandejas más vacías, que

para esta analogía colocaremos una en cada extremo. Si bien aportan con más espacio, es

mucho más seguro que lleguen las 8 a salvo si se nos cae el paquete completo y pega en

una de las bandejas vacías. Después de tres vueltas habremos entregado 24 bandejas con

huevos en vez de 30, pero hey, no tendremos que hacer un cuarto transporte para

reponer aquella que se perdió.

Pero no se crean el todo esa analogía. En PCI Express no se ponen un bit al principio y otro

al final del byte, sino que se dan vuelta unos bits de posiciones, se intercalan con dos bits,

y el resultado es un número decimal que puede resultar en un dato o un caracter. Sí,

tampoco lo entiendo yo, pero sí entiendo que no puedo alegar para que me devuelvan

esos dos bits demás.

Page 134: Bicentenario BZ CHW

Pág 134 de 254

Casi todos con el pulgar arriba

Recordarán en el episodio anterior de nuestra web-novela, “me cambio de puerto”,

también conocido como “Cuando llegó el puerto AGP al mundo”, AGP era un cambio que

afectaba específicamente a los fabricantes de tarjetas de video y un poco más a aquellos

que hacían chipsets y placas madres. Eso no fue nada comparado con el cambio que

impulsó PCI Express, porque este nuevo estándar significaba deshacerse por el AGP y los

puertos PCI. Así de simple.

La primera tarjeta de sonido PCI Express de Creative recién se presentó el 2007 - PC Watch (C)

O sea, no sólo tenemos en el saco de la

actualización a los fabricantes de tarjetas de

video, sino a aquellos que hacen placas

madres, chipsets, tarjetas de sonido, de

red, controladoras de discos, y todo el

resto. Por una parte era entendible, pero

los cambios que representaban en ellos los nuevos puertos, como también los costos

asociados, eran mucho más grandes que la ganancia para el usuario al usar un puerto PCI

Express en vez de un PCI. Me explico: una tarjeta de sonido perfectamente podía

funcionar en el puerto PCI como una de red. Dicho y hecho, aquellos fabricantes que

tenían productos útiles pero poco demandantes no se movieron mucho, lo que terminó

por dejar a los fabricantes de placas madres casi-obligados a ofrecer productos con

puertos PCI normales para coexistir.

Quienes sí se regocijaron mucho fueron aquellos creadores de portátiles. El nuevo

estándar permitía menos espacio para conectar tarjetas WiFi u otras en comparación con

el puerto PCI, mientras por otra parte le daba paso a la creación del derivado ExpressCard,

que mató a la PCCard por el tamaño y la velocidad. También habían otras soluciones locas

como la posibilidad de conectar un puerto PCI Express a un cable de hasta 5 metros, pero

existió poco apoyo, al parecer, porque PCI-SIG aún no daba con las especificaciones

concretas, por lo menos, hasta hace poco. Otra solución más loca, pero genial al fin y al

cabo, es wPCIe, una solución para conectar algo sin cables como una controladora de

audio o un chip de video.

Page 135: Bicentenario BZ CHW

Pág 135 de 254

En el caso de los servidores era un poco diferente. Allí se necesitaba la mejor velocidad

posible, y PCI Express abría las puertas a más tarjetas de red y más controladoras de disco.

Allí se usaban principalmente puertos PCI-X, una variación de los antiguos PCI que en su

etapa de oro tenían 64-bits, eran algo más largos y andaban entre los 66MHz y 133MHz,

pero aún así sostenían los mismos problemas que el PCI. El nuevo estándar era un respiro

para los problemas de ancho de banda, así que el cambio fue casi natural pero no

inmediato – recuerden que en este sector los billetes que se mueven son más grandes

pero a mediano o largo plazo. De hecho apareció un estándar en paralelo llamado PCI

Express ExpressModule, que por lo que sé permitía conectar placas madres en placas

madres creando un loop infinito de divisiones por cero.

La versatilidad de PCI Express logró algo que también era muy difícil lograr entre AGP y

PCI. En los workstations, o “estaciones de trabajo”, para tener una salida a múltiples

pantallas usualmente se combinaban tarjetas AGP en conjunto con otras PCI para lograrlo,

implementación que era más rara y cara, y nunca llegaron al consumidor final a un precio

aterrizado y buen rendimiento. Pero en PCI Express perfectamente se podían conectar

una tarjeta de video “A” y otra “B” directamente, permitiendo que tanto NVIDIA como ATI

lanzaran soluciones como SLI y Crossfire, respectivamente, donde los chips gráficos se

comunicaban directamente.

The Tech Report (C)

Page 136: Bicentenario BZ CHW

Pág 136 de 254

Como les comentaba en el artículo anterior, para los usuarios que no querían actualizar

aún la placa madre, sumando el procesador y memorias en algunos casos, hubo algunas

soluciones gráficas basadas en PCI Express que tenían un chip “Rialto” que actuaba como

intermediador entre el chip gráfico y el bus, transformando la señal PCI Express en algo

entendible para el AGP. Pero el puerto tenía una fecha de muerte tan fuertemente

impresa que empezó a ser una prioridad secundaria. Las GeForce 8800, que salieron el

2007, no tenían ninguna versión compatible con AGP – por lo menos que yo recuerde – y

sobre las nuevas Radeon HD 5000 que salieron el 2009, tampoco había una entre sus filas.

0MG tengo un facepalm para compartir xD

Cuando muchos cambiaron del puerto PCI a AGP, no habían foros, redes sociales, blogs, ni

Internet para toda la gente: todas las anécdotas sobre el cambio de tecnologías se

pasaban de boca en boca. Pero en este cambio sí existen, y gracias a ello pudimos apreciar

una obra de arte en el concepto de botar dinero. Un usuario de Tech-Forums intentó

poner su tarjeta PCI Express en (presumiblemente) un puerto AGP, sin mucho éxito:

Asunto: NVIDIA 7800 no funciona

Compré una de estas e intenté colocarlo en mi Dell Dimension 2350. Mi amigo me dijo

que la parte brillante de metal abajo tiene unas líneas para que yo las pudiese cortar en

caso que no entrara. Así que cuidadosamente las corté para que pudiera caber en un

puerto de mi computadora. Pero no funciona. ¿Corté algo mal? Pondré una imagen ¿Hay

alguna manera de arreglar ésto? Gracias por la ayuda.

Page 137: Bicentenario BZ CHW

Pág 137 de 254

Sí hay una manera de solucionarlo: extiende el cupo de tu tarjeta de crédito.

Esta historia está lejos de terminar

Los tipos de PCI-Sig, las 900 compañías detrás del estándar, lanzaron la especificación PCI

Express 2.0 el 2007, y trajo cambios mucho más grandes a diferencia de los anteriores

1.0a y 1.1, siempre manteniendo la retrocompatibilidad. La segunda versión doblaba la

frecuencia base, pasando de los 2.5GHz a los 5.0GHz. Sin tomar en cuenta la codificación

8b/10b, en una línea se podían transferir 500MB por segundo en cada lado, y en bruto un

puerto PCI Express 16X logra alcanzar 16GB por segundo. Lo que hizo PCI-SIG fue

simplemente cambiar el multiplicador de x25 a x50. Además, lograron que duplicar el

suministro de energía a la tarjeta de video, de 75W a 150W, por lo que algunas tarjetas de

video no necesitaban necesariamente de un enchufe 6-pin extra para funcionar.

Las nuevas tarjetas de video que salieron apuntando las nuevas especificaciones fueron

las Radeon HD 3000 y GeForce 9000. Eran retrocompatibles con PCI Express 1.1, eso sí

algunas pedirían enchufe 6-pin para solucionar el problema de un menor suministro de

energía. También hubo algunos casos de tarjetas que se negaban a partir en placas con la

versión de PCI Express atrasadas; creo haber visto algunos casos en el foro en su tiempo

Page 138: Bicentenario BZ CHW

Pág 138 de 254

donde sólo podían cambiar de placa madre para no perder la inversión, o probando con

otra fuente de poder más top.

Ahora PCI-SIG planea lanzar al aire el más que retrasado PCI Express 3.0, que tenía como

objetivo terminar sus especificaciones el año pasado, pero no logró. La nueva versión

traerá lo siguiente:

• Dejará a PCI Express funcionando a 8GHz, o sea, el bus base de 100MHz multiplicado por 80.

• La frecuencia dará como resultado una línea pasando 1GB de información por segundo (500MB en cada dirección) aproximadamente.

• Reemplazará la codificación 8b/10b a favor de 128b/130b (si todo les resulta bien). • Logrará suministrar el doble de energía, cerca de 150W. • Usuarios preguntando si su tarjeta PCI Express 3.0 le hace a la 2.0. • Más de alguno cambiando de placa madre por pavo.

Pero según lo que reportamos anteriormente, el “cacho” de pagar nuevo hardware recién

lo viviremos entrado el 2011. El cálculo es simple: si terminan las especificaciones este

año, pasará bastante tiempo para que los desarrolladores y arquitectos que tienen los

fabricantes de placas madres y chipsets los adapten a sus próximos productos, y

perfectamente principios o mediados del próximo año estarán listos. Según el calendario

maya, eso es justamente antes del fin del mundo.

Por ahora sólo nos queda mirar cuántos otros fabricantes se están sumando al barco de

PCI Express, porque lentamente los puertos PCI están dejando de ser numerosos en las

placas madres, y sólo es cosa de darse una vuelta por las vitrinas de tu tienda favorita para

notar que estas tarjetas nuevas están empezando a traer uno o dos de esos puertos en

vez de sólo traer un par de PCI Express para la tarjeta de video. Menos mal, todos se están

cambiando, y recién este año hemos empezado a notar que las tarjetas de sonido, y

algunas de red, están usando PCI Express para funcionar. Espero que el cambio de PCI

Express 3.0 al próximo estándar sea mucho más fuerte y menos caro, miren que mi vecino

recién terminó de pagar las cuotas de esa placa nForce 4 con PCI Express.

Page 139: Bicentenario BZ CHW

Pág 139 de 254

(116) Los 10 mejores IGP de la historia Por David Sarmiento Portocarrero

IGP de la Foxconn Digital Life Conema II Deluxe

Introducción

Si bien las PC basadas en la popular arquitectura x86 fueron populares desde sus inicios

con los viejos chips 8088/8086, no fue hasta la aparición de los sistemas operativos con

una interfaz gráfica de usuario como el popular Microsoft Windows 95, que empezó la

época dorada para la PC; las ventas se elevaron exponencialmente, y un componente que

había pasado desapercibido empezó a tomar relevancia: los chips de video o aceleradores

gráficos, los cuales empezaron a mostrar su impacto en el rendimiento general del equipo,

y no solamente en los viejos juegos para MS-DOS, el popular sistema operativo

predecesor de Windows. Los grandes OEM iniciaron una dura competencia, y a fin de

diferenciarse de sus competidores e incrementar sus ganancias tuvieron una idea genial,

integrar un chip de video soldado en la propia mainboard a fin de reducir costos y espacio,

un enfoque que se inició en tiempos de las Intel 386, y que se mantuvo popular incluso en

tiempos de los microprocesadores Intel Pentium, pero no fue hasta que un fabricante de

chipsets llevó este concepto más allá dando nacimiento a los actuales IGP.

Page 140: Bicentenario BZ CHW

Pág 140 de 254

El IGP

Inicialmente un IGP (Integrated Graphic Processor o procesador gráfico integrado)

consistía en un chip de video incorporado al chipset (siendo preciso al northbridge), pero

en la actualidad este concepto se está extendiendo también a los chips gráficos integrados

en el microprocesador (bien sea como parte integral de él como el caso del próximo AMD

Fusion, o en forma de un chip independiente pero ubicado en el mismo die del

microprocesador como el enfoque de Intel Core i3/i5/Pentium G).

Page 141: Bicentenario BZ CHW

Pág 141 de 254

Los 10 mejores IGP

A continuación haremos un breve recorrido por una lista de los 10 mejores IGP de la

historia, lista ordenada cronológicamente en orden de los adelantos que incorporaron a

través de su evolución. Debido a la diversidad generacional se hace muy difícil e insulso

declarar a un ganador, por lo que ese no será el objetivo de este artículo; sino

simplemente describir la importancia que tuvieron cada uno de estos chips, los que sin

dudarlo fueron los 10 más importantes dentro del mundo de los IGP para PC Compatibles

x86.

1. SiS 5596 (inicios de 1996)

El IGP acaba de nacer, SiS, una reconocida

empresa fabricante de chipsets y VGAs,

tuvo la genial idea de integrar una versión

básica de su VGA SiS 6215 junto a un

northbridge, dando origen al 1º IGP de la

historia, y al chip que inició la carrera por

las mainboards económicas con el mayor

número de funciones integradas: el chipset

IGP SiS 5596, el cual hizo su aparición en

tiempos de los primeros microprocesadores

Intel Pentium Socket 5, posteriormente SiS

lanzó una versión adaptada al socket 7 de

este chip a la que denominó SiS 5598. Este

IGP al estar basado en el chip de video SiS 6215 carecía de funciones de aceleración 3D, y

sus funciones de aceleración 2D fueron muy básicas (podía usar hasta 4MB de la RAM del

sistema), pero se convirtió en una de las alternativas más económicas de su tiempo.

Page 142: Bicentenario BZ CHW

Pág 142 de 254

2. Cyrix MediaGX (fines de 1996)

Un nuevo tipo de IGP había nacido, Cyrix,

empresa fabricante de microprocesadores x86

(posteriormente adquirida por National

Semiconductor y luego dividida y adquirida por

AMD y VIA) marcó un hito en la industria al

integrar un chip gráfico y un controlador de

memorias a su microprocesador Cyrix 5×86,

dando como resultado el microprocesador Cyrix

MediaGX, microprocesador del que hablamos en

otro artículo dedicado por completo a él, debido

a su impacto y trascendencia en el mercado. Era

un acelerador 2D.

3. SiS 620 (1998)

Con la aparición del microprocesador Intel Pentium

MMX socket 7 la fiebre por los juegos 3D se disparaba,

creando en los usuarios nuevas necesidades, las cuales

crecieron al hacer su aparición los nuevos Pentium II y

AMD K6/K6-II; y SiS estaba listo para atender dichas

necesidades lanzando 1º IGP 3D: el chipset SiS 620 el

cual estaba basado en el GPU SiS 6326 (posteriormente

hizo su aparición el SiS 530, prácticamente un SiS 620 adaptado para los

microprocesadores socket 7/Super 7). Apoyaba el API DirectX 5 (podia usar hasta 8MB de

la ram del sistema) pero a diferencia del SiS 6326 en el que estaba basado, no apoyaba

OpenGL, pero aun así se constituyó en la opción más económica permitiendo a usuarios

de equipos de gamas bajas disfrutar de gráficas 3D, en tiempos en los que estas eran

componentes elitistas.

Page 143: Bicentenario BZ CHW

Pág 143 de 254

4. Intel 815 E/P/EP (2000)

Otro IGP que causó gran impacto en la

industria, borrando por completo la asociación

que los usuarios daban a los IGP con los

equipos con poca capacidad de expansión

gráfica, siendo el 1º IGP que brindó a los

usuarios la capacidad de realizar mejoras a

futuro incluyendo una ranura AGP 2x/4x, otro

de sus aportes fue el uso de la tecnología de

memoria dinámica DVMT (usada hasta la

actualidad en los IGP de Intel), con DVMT el IGP realizaba un consumo mínimo de la

memoria compartida (UMA) entre 512kb a 8MB, y en el modo 3D podía llegar a usar hasta

64MB. Otra de sus peculiaridades era la de podérsele instalar módulos AIMM en la ranura

AGP, los cuales incrementaban su desempeño gráfico al estar conformado por entre 4 a

8MB de memoria dedicada de video conectándose directamente a una ranura AGP. El IGP

Intel 815 era compatible con los microprocesadores Pentium III/Celeron socket 370 y

estaba basado en el GPU Intel 740.

5. Nvidia Nforce 420 (2001)

Luego de que Nvidia

desarrollase su chipset para la

consola Xbox de Microsoft,

aprovechó dicho desarrollo

para crear su IGP Nforce, el

primer chipset desarrollado por

una de las empresas líderes en

el mercado 3D. Nforce hizo su

aparición para la plataforma

AMD Athlon/XP socket 462,

llevando las gráficas integradas

a un nuevo nivel de performance, al integrar un chip de video basado en el GPU Nvidia

Geforce 2 MX. Apoyaba las API DirectX 7 y OpenGL; otro de los adelantos de este IGP fue

el uso de un controlador de memoria de doble canal, con el cual solventaba el escaso

ancho de banda de las memorias DDR-200/266, eliminando el freno al desempeño gráfico

que daría a dicho chip. Podía usar hasta 64MB de la memoria RAM del sistema.

Page 144: Bicentenario BZ CHW

Pág 144 de 254

6. ATI Radeon 320/330/340 IGP (2002)

ATI otra de las empresas líderes en el desarrollo

de chips gráficos, desarrolló un IGP basado en

sus exitosos GPU ATI Radeon 256/7000 dando

origen al ATI Radeon 320/330/340 IGP, más

conocido como Radeon 7000 IGP, el cual traía los

mismos beneficios que el Nforce de Nvidia a la

plataforma socket 478 de Intel (330 y 340 IGP), y

posteriormente también lanzó una versión de

este chip para la plataforma AMD socket 462

(320 IGP). Apoyaba las API gráficas DirectX 7 y

OpenGL; fue el primer IGP en apoyar la

reproducción de videos acelerada por hardware

DXVA, brindando a los equipos de escaso poder

de cómputo la capacidad de reproducir DVDs a alta calidad sin saltos y con un bajo uso de

microprocesador. Podía usar hasta 128MB de la RAM del sistema.

7. ATI Radeon Xpress 200 (2004) Trajo las gráficas integradas DirectX 9.0 a las plataformas Intel socket LGA 775, 478, y

AMD socket 754 y 939, y fue el primer IGP diseñado para el bus PCI Express (Intel pocos

meses antes había lanzado su 915G, pero este IGP tuvo muchos problemas gráficos que lo

descalifican como para ser incluido en esta lista, Nvidia lanzó el Geforce 6100 un año y

medio después); este chipset fue quizá uno de los más populares por su bajísimo consumo

(8W TDP) así como su gran estabilidad y desempeño gráfico, lo que le valió que incluso sea

usado por la propia Intel en sus populares mainboards D101GGC y D102GGC2. Radeon

Xpress 200 estuvo basado en los

GPU ATI Radeon X300 (DX 9.0B), y

mantuvo e incrementó las

capacidades multimedia de sus

predecesores ATI Radeon 9100 y

7000 IGP. Podía usar hasta 256MB,

y además era compatible con la

tecnología Hypermemory.

Page 145: Bicentenario BZ CHW

Pág 145 de 254

8. AMD 780G (2008)

El IGP que dio inicio a las mainboards

enfocadas al HTPC (HD) debido a sus

excelentes capacidades gráficas. Apoya

las API DirectX 10, OpenGL, entre sus

capacidades multimedia tenemos el

soporte a DXVA-HD o reproducción de

videos HD acelerada por Hardware, lo

que unido a su soporte para múltiples

conexiones tanto análogas como digitales

hizo de las mainboards basadas en este

chipset, una de las opciones más

populares; una de sus peculiaridades fue su apoyo a memorias SidePort (DDR3 128MB),

así como la capacidad de combinar su poder gráfico con algunos GPU ATI de gama baja

(Radeon HD 2400, HD 3400) a fin de lograr un desempeño superior, característica

denominada Hybrid CrossFire. Este chipset está disponible para los microprocesadores

AMD socket AM2+ e incluso algunos fabricantes lograron adaptarlo a los viejos sockets

939 y 754. Es capaz de usar hasta 512 de la RAM del sistema, y posee la tecnología

Hypermemory.

9. Intel HD Graphics (2009)

Por segunda vez en esta lista vemos un IGP

integrado a un microprocesador (aunque quizá

lo más apropiado sea decir, pegado junto al

microprocesador en el mismo encapsulado),

Intel HD Graphics representa una senda mejora

y la reivindicación de Intel en el mercado de los

IGP, brindando unas características multimedia

(sobre todo en la calidad en la reproducción de

videos HD acelerados por hardware) que se

acercan a las de los IGP de AMD e incluso igualan a actuales GPUs Nvidia de gama baja; en

modo 3D da algunas sorpresas acercándose en algunos test a los IGP de AMD y Nvidia.

Soporta DirectX 10. Está disponible en los microprocesadores para socket LGA 1156: Intel

Pentium G, Core i3, y algunos Core i5.

Page 146: Bicentenario BZ CHW

Pág 146 de 254

10. AMD 890GX DirectX 10.1 (2010)

El más actual y el más potente de los IGP

de esta lista. Soporta DirectX 10.1 e

incorpora el motor de video acelerado

por hardware UVD2, gracias a su soporte

DirectX 10.1 brinda una mejor experiencia

de uso en los equipos que usan el sistema

operativo más reciente de Microsoft

(Windows 7) al soportar nativamente

todas las funciones gráficas de su GUI

(interfaz gráfica de usuario). Está

disponible para los microprocesadores

AMD socket AM3.

Page 147: Bicentenario BZ CHW

Pág 147 de 254

Premios Consuelo

Han existido otros IGP dignos de mención, pero que por motivos como el haber sido

lanzados posteriormente, u ofrecer relativamente pocas mejoras frente a sus

predecesores no están incluidos entre los 10 mejores, uno de ellos sería el popular Nforce

2 (2003 – socket 462/A), el cual si bien trajo un incremento de performance en promedio

30% superior que el Nforce original, no trajo nuevas características gráficas (pero si las

trajo como northbridge y southbridge); otro seria el ATI Radeon 380IGP (2003 – socket

478/754), el 1º IGP DirectX 8.1 existente, y con un performance y características que

podrían haberle dado un lugar en la lista, pero de nuevo, no ofrecía muchas novedades

frente a su antecesor el Radeon IGP 320/330/340, y los GPU DirectX 9 existían un año

atrás; por último ION2, aunque en términos exactos no se le podría considerar un IGP,

pues es un GPU completo que viene acompañado de la tecnología Optimus.

Notas finales

En la rápida evolución de la tecnología hemos apreciado la constante evolución de los IGP,

los cuales iniciaron su vida como chips gráficos 2D, y se han ido adaptando a las

necesidades del mercado hasta la actualidad, quizá dentro de algunos años el termino IGP

desaparezca de los diccionarios informáticos, pues su integración al microprocesador los

convertirá en una más de sus unidades de cálculo, tal como ocurrió en su momento con

los chips coprocesadores matemáticos (ahora la unidad FPU del microprocesador, pero

antes se insertaban en un socket en las mainboards), los módulos de memoria cache L2 y

L3 (si, antes eran vendidos por separado y existía una ranura en las mainboards para

insertarlos), y recientemente el northbridge (microprocesadores como Intel Core i Series y

AMD Fusion los integran en el CPU).

Page 148: Bicentenario BZ CHW

Pág 148 de 254

(123) La historia del disco duro: 60 años de evolución Por Francisco Bravo

Y todo comenzó con 5 Megabytes

Corría el año 1995, tal vez principios de 1996 (lo recuerdo claramente por la propaganda y

el “hype” por el lanzamiento de Windows ‘95) y yo por fin tenía en mis manos mi primer

PC hecho y derecho – comprado por mis padres -, anteriormente usaba un Atari 65XE, que

entre la tortuga del Logo, el Montezuma y el rechinar de la casetera ya me tenía harto,

hasta que pasó de moda, por suerte – aunque en honor a la verdad Montezuma era un

juegazo.

Pero la idea no es echar abajo el Atari sino recordar mi primer PC. Lo recuerdo como si

fuera ayer, era un glorioso Compaq Presario 5528 “unibody” con un veloz procesador 486,

4MB RAM, lector de CDs de cuádruple velocidad (sonaba mucho más lindo que 4X) y un

inagotable disco duro de 400MB, o eso al menos pensaba yo en ese tiempo al compararlo

con los míseros (aunque en ese tiempo era un espacio más que respetable) 1,4MB de un

diskette de 3,5″. Hacía el cálculo mental, si cabían casi 300 diskettes dentro, no había

forma que se me llenara. ¡Imposible!

Probablemente alguien que lea esto dirá algo como “pff, eso no es nada, mi primer PC

tenía 50 MB en disco duro”, y eso, estimados lectores, es lo lindo de todo esto, cada uno

tiene su propia historia y están todas unidas a través de todos estos años por uno de los

elementos que ha evolucionado mucho y poco a la vez, pero que sigue siendo tan

indispensable como su primer día, el disco duro.

Page 149: Bicentenario BZ CHW

Pág 149 de 254

IBM 350 RAMAC

Lo que yo no sabía en esos años era que justo 40 años antes, en un laboratorio de IBM

nacía el primer disco duro de la historia, se trataba del IBM 305 RAMAC (Random Access

Method of Accounting and Control), una mole de 1 tonelada, del porte de dos

refrigeradores que en su interior tenía 50 platillos de 61 centímetros (24″) cada uno y su

capacidad era de 5 millones de caracteres de 7-bits, aproximadamente 4,4 MB actuales o

el espacio que ocupa una canción en formato MP3 que cualquier hijo de vecino tiene hoy

en día en su computador. Cada megabyte costaba USD$10.000 de la época, para que se

hagan una idea.

El sistema RAMAC representó una evolución enorme a las cintas de almacenamiento

debido al acceso aleatorio, ya no dependían de la lentitud de búsqueda secuencial de las

mismas sino que mediante platillos se lograba acceso con las cabezas de lectura/escritura

a través de las pistas en un tiempo relativamente pequeño, uniforme y constante. La

superficie de cada plato estaba cubierta de pintura magnética, en donde se almacenaban

los 1’s y 0’s que luego la cabeza detectaba, leía y escribía.

Si bien podemos tender a mirar con pena o sentimientos de obsolescencia a este gigante,

no se engañen, muchos de los conceptos iniciados con el RAMAC se mantienen en los

discos duros actuales: varios discos o platos muy juntos unos de otros con superficies

Page 150: Bicentenario BZ CHW

Pág 150 de 254

magnéticas, cabezas de lectura/escritura que permiten trabajar con una gran cantidad de

pistas e información y el hecho que estas cabezas estén separadas de la superficie por la

distancia suficiente para que cumplan su objetivo y evitar el daño mutuo entre una y otra.

Modelo más moderno de un disco duro IBM.

Seagate y la explosión de los computadores personales

A través de los años estos platos se han ido haciendo cada vez más pequeños, con el

consiguiente aumento de densidad para almacenar los 1’s y 0’s. Pero no fue sino hasta el

“boom” de las computadoras personales a principios de los ‘80 que la historia de esta

noble pieza de hardware tomó fuerza descomunal. Es acá donde entra en juego una

empresa que siempre ha llevado la vanguardia en éste tipo de tecnologías, hablamos de la

estadounidense Seagate Technology, fundada en 1979 por Al Shugart.

Page 151: Bicentenario BZ CHW

Pág 151 de 254

Desde los años ‘50 a principios de los ‘70 los discos duros eran

utilizados por sistemas computacionales de corporaciones,

gobiernos, etc., y no fue hasta fines de los ‘70, principios de

los ‘80 que el panorama cambió con las “computadoras

personales”. Así es como esta historia comienza a tomar

forma el año 1980 con la salida del ST-506 de 5,25″ de

Seagate que almacenaba, curiosamente, 5MB igual que su

tatarabuelo de 1 tonelada, pero 999 kilos más liviano. Posteriormente en 1983 la empresa

Rodime lanza el que sería el primer HDD de 3,5″ de la historia, se trataba del RO352 de

dos platos y 10MB de capacidad, había nacido el disco duro para las masas.

Desde esos años a la actualidad todo ha ido evolucionando hacia la minimización de los

factores, por un lado del tamaño de los dispositivos y por otro la economía de escala ha

permitido hacer discos duros cada vez de mayor capacidad y más baratos. Desde el

tamaño de dos roperos hasta el disco duro más pequeño del mundo fabricado por Toshiba

de 0,85″, pasando por el popular tamaño para dispositivos móviles (y no tan móviles) de

2,5″, utilizado en laptops, ciertos reproductores MP3’s, consolas como la PS3 y la Xbox

360, y sin olvidar, por supuesto, a nuestro incondicional disco de 3,5″.

¡Quien gira más rápido gana!

En el año 1992 Seagate presentó por primera vez el primer disco duro Ultra ATA de 7.200

RPM, era un Barracuda de 2,1GB, posteriormente en el año 1996 presentaron el primer

disco duro de 10.000 RPM, nacía la familia Cheetah. Finalmente en el año 2000, también

Seagate estrena el llamado Cheetah X15, que giraba a vertiginosos 15.000 RPM.

Dato freak: ¿Alguien recuerda los discos Quantum? Estoy seguro que más de alguno sí.

Esa empresa fue comprada el año 2000 por Maxtor. Quantum era el segundo mayor

fabricante de discos duros a la fecha, detrás de Seagate. Con la adquisición, Maxtor pasó a

ser el mayor fabricante de discos duros del planeta. Tal vez de esa época en adelante

relajaron la mano en el control de calidad y fue donde nació el apodo “Malaxtor”. Como

son las vueltas en esta industria el año 2006 Seagate adquiere Maxtor, dejando aún más

estrecha la competencia en el mercado.

Ahora que estamos hablando de los RPM’s se me vino a la cabeza el famoso SCSI, esta

historia estaría incompleta sin una reseña al respecto.

SCSI (Small Computers System Interface), pronunciado, al menos coloquialmente, como

“escasi”, es una interfaz estándar para la transferencia de datos entre distintos

dispositivos. Esta interfaz no fue especialmente popular entre los computadores de

Page 152: Bicentenario BZ CHW

Pág 152 de 254

escritorio de las “masas” pero sí lo fue en el entorno de alto rendimiento, servidores, y

periféricos de gama alta. La historia de SCSI se remonta al año 1981 cuando Al Shugart, el

mismo de Seagate, se asocia con la compañía NCR para desarrollar una “interfaz de

unidades de disco inteligente” a la que llamaron Shugart Associates Systems Interface

(SASI), que fue, en definitiva, el padre de SCSI.

Así es como el año 1986 las especificaciones finales de SCSI son liberadas y nació la

leyenda. El primer computador personal (o uno de los primeros) en utilizar esta interfaz

fue un Apple Macintosh Plus el mismo año ‘86.

De la arquitectura longitudinal a la perpendicular

En la constante carrera por hacer cada vez discos duros con más capacidad se supo que la

tecnología de grabación longitudinal tenía un límite físico debido al llamado “efecto

superparamagnético” y que éste era de 100 a 200GB por pulgada cuadrada. Es por eso

que ya se está utilizando en algunos modelos la tecnología PMR (Grabación Magnética

Perpendicular), la cual tiene en teoría diez veces la densidad de almacenamiento que la

Page 153: Bicentenario BZ CHW

Pág 153 de 254

longitudinal (hasta 1TB por pulgada cuadrada), lo que a la postre alargará en varios años

más la vida del disco magnético.

Del PATA al SATA, un mundo de diferencia

El caso de las interfaces que se utilizan en un PC común y corriente hoy en día en bien

particular, si bien una es muy superior a la otra, aún conviven sanamente en la mayoría de

los computadores de escritorio actuales y algunos laptops también, ya sea por un disco

duro antiguo o debido a algún dispositivo de lectura/escritura óptico como un grabador

de DVDs. Así es, estamos hablando de la tecnología PATA (Parallel Advanced Technology

Attachment) y la tecnología SATA (Serial ATA).

La tecnología PATA y sus dispositivos, también conocidos como dispositivos IDE, ha ido

evolucionando junto con el disco duro. El ATA original de los ‘80 soportaba una

transferencia total de 8,3MB/s, lo que era bastante para la época. ATA-2 increíblemente

dobló esa cifra a un máximo de 16.6MB/s. Posteriormente llegó Ultra ATA y sus muchos

diferentes sabores, a saber eran Ultra DMA-33 (Direct Memory Access) con 33MB/s, hasta

el Ultra DMA-133 con 133MB/s, también conocidos simplemente como Ultra ATA-33 y

Ultra ATA-133, pasando por Ultra ATA-66 y Ultra ATA-100.

Page 154: Bicentenario BZ CHW

Pág 154 de 254

Uno de los problemas para los entusiastas de llevar su máquina a los límites era

justamente el tamaño que suponía el cable de 40 u 80 alambres del IDE. ¿Quién no enrolló

alguna vez estos gruesos cables con un scotch para mejorar la ventilación dentro de la

torre? Aquellos más busquillas compraban esos cables IDE directamente redondeados, yo

aún utilizo uno de esos para el grabador de DVDs. La llegada de la interfaz SATA vendría a

tomar en cuenta ese detalle, adiós a la mala ventilación.

Cuando el Ultra ATA-133 quedó obsoleto por el cuello de botella que significaba, se diseñó

SATA. Actualmente SATA existe en tres sabores, SATAI, SATAII y SATAIII: 150MB/s,

300MB/s y 600MB/s respectivamente. El resto es historia, nada más agradable de

conectar que el delgado cable SATA, un simple movimiento seguido de un “click” y

estamos listos, no más pelear por varios minutos al poner o sacar un cable IDE.

Sobre la lenta adopción de los SSDs

No entraré en mayores detalles sobre los SSDs, de partida porque no es un disco mecánico

(y técnicamente no es un disco duro) – que es sobre lo que ha tratado éste artículo -, pero

sí nombraré ciertos hitos que marca como un antes y un después, mal que mal los SSDs

Page 155: Bicentenario BZ CHW

Pág 155 de 254

son, en teoría, cuando sus precios se hagan accesibles, los sustitutos naturales de los

discos mecánicos en un futuro próximo.

Una unidad SSD, siglas del inglés ‘Solid State Drive’ o ‘Unidad de estado sólido’ es un

medio de almacenamiento que no depende de piezas mecánicas para su funcionamiento,

ya saben, las revoluciones por minutos (RPM) de los platos que hacen a un disco tener una

lectura mucho más veloz. En cambio un SSD posee almacenamiento de datos gracias a

memoria no volátil o del tipo flash, lo que lo hace menos susceptible a los golpes,

prácticamente no hacen ruido y tienen un menor tiempo de acceso y de latencia. Por otro

lado los SSDs utilizan la misma interfaz que los discos actuales, SATA, por lo tanto son

completamente compatibles con un sistema actual.

La lenta adopción de esta tecnología se debe básicamente al alto costo de estas unidades,

esto a su vez porque las memorias flash son considerablemente más caras de fabricar. Sin

embargo esta no es una desventaja técnica, con el correr de los años el mercado

madurará y se equiparará, tarde o temprano, con uno disco duro mecánico. Por otro lado

está la baja capacidad actual si los comparamos con su par magnético que ya supera los

2TB (como el Seagate GoFlex externo de 3TB). Una desventaja técnica de los SSDs es su

baja o nula recuperación luego de un fallo de alguna de las celdas que lo componen, al

fallar la celda queda completamente destruida, inutilizable y por ende imposible de

recuperar, a diferencia de uno mecánico que bajo supervisión experta es posible lograr

alguna recuperación.

Conclusión

Y así concluye esta reseña al que probablemente sea el componente menos apreciado y

reconocido dentro de la historia de la computación. No me cabe duda que alguien leerá

estas líneas en 5 años más y se dirá a sí mismo: “Estos tipos tenían discos duros

magnéticos de apenas 3TB de capacidad y SSDs de míseros 512GB, ¡ahh, qué tiempos,

cómo cambia de rápido la computación”. Y 5 años después la historia volverá a repetirse,

es la evolución, nadie se escapa a ella, tal vez en 10 o 15 años los discos magnéticos estén

obsoletos y los SSDs ya estén temblando por perder el trono frente a otro competidor.

Tiempo al tiempo, señores, tiempo al tiempo.

Page 156: Bicentenario BZ CHW

Pág 156 de 254

(130) Fabricantes de GPUs que murieron en el camino Por David Sarmiento Portocarrero

La actual industria de los GPU actualmente está limitada a las opciones que nos dan AMD,

Nvidia, y S3 Graphics (división gráfica de VIA). Pero ello no siempre fue así, en los inicios

de la PC existieron muchas fabricantes de chips gráficos, pero al igual como ocurrió con los

primeros fabricantes de CPUs x86, muchas de estas gráficas eran clónicas del chip gráfico

IBM Monochrome Display Adapter (MDA), chip gráfico lanzado en 1981, con tan sólo 4kb

de memoria y que era capaz de mostrar 80 columnas por 25 líneas de caracteres de texto.

IBM MDA ISA 8 bits

Generación Pre-DirectX (1981 a 1995)

Desde la original MDA, la industria del video para PC ha tenido muchas evoluciones,

siendo las más sonadas: CGA, HGC, EGA, VGA, y SVGA; sería un tema demasiado extenso

el detallar cada una de dichas evoluciones, así como a los fabricantes de chips gráficos de

esa época, por lo que nombraremos a algunos de los más conocidos: IBM (al ser el creador

de la PC, también fue el primero en ofrecer un chip gráfico), Hercules (1º competidor), 3D

Labs, Alliance (Promotion), Amdek, ATI (Small Wonder, VGA Wonder, Mach Series),

Avance Logic (adquirida por Realtek), BitBoys (Acceleon), Chips & Technologies, Cirrus

Logic (GD 400/500/5000 Series, Alpine), Genoa Inc, Matrox (Millennium, Impression),

Number Nine, OAK Technology (chips Eon, OTI, SpitFire y Warp), Orchid Technology,

Paradise Inc, Plantronics Colorplus, PowerVR/Videologig (Apocalypse), Realtek (RT Series),

Rendition (chips Verite), S3 Graphics (800/900 Series, Vision, Trio), STB, SiS (chips 62xx),

Tandy, Trident (chips Providia), Tseng Labs (chips ETxxxx), Video 7, entre otros.

Page 158: Bicentenario BZ CHW

Pág 158 de 254

VGA FIC con chip Cirrus Logic CL-5426 VLB

Alliance Promotion 6410 PCI

Los requerimientos gráficos por esas fechas se limitaban a resoluciones VGA (640×480,

320×200 e inferiores) en la época de apogeo de los juegos, así como también las

extensiones SVGA y sus modos VESA VBE (VESA Bios Extensions) con los que se conseguía

Page 159: Bicentenario BZ CHW

Pág 159 de 254

superar los 640×480 de resolución, pasando por 800×600, 1024×768, y llegando hasta los

1280×1024 (existían resoluciones mayores, pero no eran parte del estándar). Por esas

fechas destacaron PowerVR, Rendition y 3dfx siendo las líderes al incorporar funciones 3D

que fueron usadas por muchos juegos MS-DOS.

3dfx Voodoo PCI

Generación DirectX 1/2/3/5 (1995 a 1998)

En esas fechas hizo su aparición Windows 95, este popular sistema operativo introdujo el

API gráfica estándar Direct3D (parte de DirectX), la cual causó tal revolución en el mundo

gráfico que muchas de las empresas existentes no pudieron adaptarse a los cambios

quebrando, o dedicándose a otros rubros (muchas de ellas debido a la competencia ni

siquiera llegaron a esa época), o siendo absorbidas por otras empresas (fueron famosos

los casos de Chips & Technologies que fue adquirida por Intel, y de Tseng Labs adquirida

por ATI).

Page 161: Bicentenario BZ CHW

Pág 161 de 254

Si bien fueron muchas las empresas que dejaron de existir, otras como 3D Labs (chips

Permedia), ATI (Chips Rage 3D), Cirrus Logic (Laguna), Matrox (Millenium g100/g200,

Mystique), Number Nine (chips Revolution, Imagine y Pepper), PowerVR (chips

Apocalypse), Rendition (chips Verite 1000/2000), S3 (chips Virge VX/DX/GX/GX2/VX,

Trio3D), SiS (chips 6326), Trident (chips 3D Image 9×50 y Blade3D), lograron adaptarse a

los cambios ofreciendo chips de video compatibles con las primeras versiones de DirectX;

mientras que otras como BitBoys planificaron chips DirectX que nunca llegaron a lanzar; y

otras se dedicaron a otros rubros como por ejemplo IBM, Hercules y STB (estas 2 últimas

pasaron a ser fabricantes de tarjetas de video usando GPUs de otras compañías). Vimos

también la aparición de 3dfx (chips Voodoo 1/2/Rush), Intel (chip i740 el primer chip AGP),

y Nvidia (chips Riva 128/ZX).

STB Glyder Max 2 basada en el GPU 3DLabs Permedia 2 AGP 2x

Page 162: Bicentenario BZ CHW

Pág 162 de 254

Number Nine Revolution IV 16MB AGP

Generación DirectX 6/7 (1998 a 2000)

Empresas como 3D Labs (adquirida por Creative Labs para dedicarla al mercado

profesional), Intel (abandonó la producción de GPUs para dedicarse a los IGP, basándose

en las tecnologías de sus desarrollos anteriores y las de su nueva adquisición: Cirrus Logic),

Number Nine (adquirida por S3), y Rendition dejaron de existir, las demás: 3dfx (chips

Banshee, Voodoo 3/4/5), ATI (Chips Rage Pro/128/128PRO, Radeon 256/7×00), Matrox

(chips Millennium G400/450, G500/550), Nvidia (Riva TNT/TNT2, Geforce 256/2/MX),

PowerVR (chips Kyro I/II), S3 (chips Savage 3D/4/2000, SuperSavage, SavageXP), SiS

(300/305, y 310/315), Trident (chips BladeT/XP), lanzaron GPUs compatibles con las

nuevas API.

Page 164: Bicentenario BZ CHW

Pág 164 de 254

Generación DirectX 8/8.1 (2000 a 2002)

GPU Trident Blade XP4 T1

Observamos que en este punto el mercado se consolida aún más,

con la desaparición de 2 empresas: 3dfx (adquirida por Nvidia) y

PowerVR (se dedicó a la fabricación de chips de bajo consumo e IGPs

para los chipsets de Intel, división que mantiene hasta la actualidad),

las empresas restantes: ATI (Chips Radeon 8000/9000/9100/92×0),

Matrox (chips Millennium 650/750 y Parhelia), Nvidia (chips Geforce

3/4), S3 (fue adquirida por VIA, pero continuó desarrollando IGPs, pero no lanzó ningún

chip DX8), SiS (Xabre/600), y Trident (Blade XP4) continuaban en la competencia.

SiS Xabre 400 AGP 8X

Page 165: Bicentenario BZ CHW

Pág 165 de 254

Matrox Parhelia 128 256MB AGP 8x

Generación DirectX 9/9.0a/9.0b/9.0c (diciembre 2002 hasta noviembre 2006)

BitBoys es adquirida por ATI, Matrox abandona la competencia, y se enfoca a desarrollar

chips gráficos para aplicaciones médicas y profesionales, Trident es adquirida por SiS, la

cual se dedica de lleno a los IGPs, pero crea una nueva empresa llamada XGI (eXtreme

Graphics Innovation), la cual usa las tecnologías combinadas de SiS y Trident lanzando su

familia de chips Volari V3/V5/V8/V8 Ultra/Duo); las demás empresas restantes: ATI

(Radeon 9500/9700/PRO, Xxx0, y X1xx0), Nvidia (Geforce FX/6/7), y S3

(DeltaChrome/S10/S20 Series, GammaChrome/S10/S20 Series, Chrome S20 Series)

continúan desarrollando sus productos; pero el no haber lanzado un GPU por casi 3 años

significó para S3 empezar de nuevo.

Page 167: Bicentenario BZ CHW

Pág 167 de 254

Generación DirectX 10/10.1 (noviembre 2006 a octubre 2009)

XGI al igual que PowerVR abandona la competencia 3D, pero se mantiene hasta la

actualidad fabricando chips DirectX 10 y 10.1 enfocadas a mercados de servidores y

productos embedidos de bajo consumo; las demás empresas: ATI (es adquirida por AMD,

y con su nueva dueña lanza sus GPU Radeon HD 2000/3000/4000), Nvidia (Geforce

8/9/G20x/G2×0), y S3 (Chrome S400/S500 Series) continúan ofreciendo productos

compatibles.

S3 Chrome 540 GTX PCIe

Page 168: Bicentenario BZ CHW

Pág 168 de 254

Generación DirectX 11 (octubre 2009 hasta la actualidad)

ATI (Radeon HD 5000 Series) y Nvidia (Geforce 400 Series) son por el momento las únicas

empresas que ofrecen chips DirectX 11, las demás: Matrox, PowerVR, S3, y XGI si bien

continúan desarrollando productos DirectX 10 y DirectX 10.1, aún no poseen un chip

DirectX 11, siendo de entre ellas S3 la única que ha anunciado próximamente GPUs e IGPs

compatibles con DirectX 11.

ATI Radeon HD 5870 1GB PCIe

Notas finales

Han sido muchas las empresas que han desaparecido desde los inicios de las PC

compatibles; siendo Matrox (actualmente desarrolla GPUs para entornos profesionales) y

PowerVR (Continua siendo la división gráfica de Imagination Technologies al igual que en

las fechas cuando fue fundada) las únicas que se ha mantenido desde tiempos de las

primeras PC; S3 Graphics aún sobrevive en manos de su actual dueña VIA Technologies,

mientras que recientemente le dijimos adiós a ATI; no nos olvidemos de XGI la cual se

podría considerar a la de menor antigüedad entre las actuales fabricantes de GPUs,

puesto que le será quitado dentro de algunas semanas cuando AMD lance los primeros

GPUs con su propia marca (Radeon HD 6000 Series).

Page 169: Bicentenario BZ CHW

Pág 169 de 254

(137) Procesador Intel 8086 Por Geovanne Salinas

El abuelo de todos los X86

El 8 de Junio de 1978, Intel presentó al público el chip 8086 (también conocido como

iAPX86), procesador que se convertiría en la base para el actual conjunto de instrucciones

de arquitectura x86, dando inicio a la historia moderna de las CPUs de propósito general.

Con frecuencias que bordeaban los 5 MHz en un principio, ese número se logró duplicar

para 1990, año en que el chip fue descontinuado por la compañia.

Cerca de dos años de desarrollo tomó al equipo liderado por Bill Pohlman diseñar el chip

Intel 8086 de 40 pines y extensión completa de 16-bit, siendo el sucesor directo de 8080,

microprocesador de 8-bit construido en 1974 y que empezaba a bosquejar los primeros

intentos de un procesador

de propósito general por parte de

Intel. Curiosamente,

la producción del chip 8086 era

subcontratada, y en la siguiente

imagen podemos ver dos modelos

hechos por AMD y Fujitsu

respectivamente:

Historia

Durante los años 70, Intel era una compañía que prácticamente se dedicaba a

la producción DRAM en lugar de procesadores, pero gracias al chip 8008, lograron

un éxito que les permitió seguir en competencia con los grandes de la época como:

Motorola, National Semiconductor o ZiLog, esta última empresa se volvió muy popular

gracias a su chip Z80, el cuál había sido diseñado por exs empleados de Intel utilizando

una microarquitectura e instrucciones muy similares al chip 8085 (versión con

compatibilidad binaria de 8080).

El diseño de Intel 8086 tenía como principal objetivo seguir la línea y mantener

retrocompatibilidad con los chips 8008, 8080 y 8085, de este modo los programadores

(machos que hacían todo el aseembler) no debían editar o rehacer código, pero a

Page 170: Bicentenario BZ CHW

Pág 170 de 254

diferencia de sus hermanos menores, 8086 incluiría soporte completo para el

procesamiento de 16-bit.

Stephen P. Morse, principal arquitecto del proyecto 8086, comentó que las instrucciones

en el nuevo diseño de Intel tendrían mejor relación con algunos lenguajes de más alto

nivel de la época (Pascal, PL/M) y no tanta implicancia con el compilador.

La contratación de Morse en el proyecto dio bastante que hablar, ya que era un Ingeniero

de Software que tenía una visión totalmente distinta sobre el diseño de CPUs, la que había

estado dominada por Ingenieros de Hardware:

Por primera vez, íbamos a mirar las características del procesador desde una mirada del

software. La pregunta no es ‘¿Para qué características tenemos espacio?’ sino

‘¿qué características queremos en orden para hacer el software más eficiente?’

Junto a las nuevas instrucciones agregadas al procesador como: soporte completo para

enteros con signo, direccionamiento base-offset, y operaciones repetitivas con una

perspectiva de computó general, diferenciaron a Intel del diseño de Z80.

El chip 8086 finalizó con 20.000 transistores activos (29.000 contando todos los ROM y

PLA), mientras la construccion del procesador fue hecha bajo el proceso llamado HMOS

(High performance MOS) y utilizado por Intel para fabricar de manera más rápida sus

productos SRAM.

Page 171: Bicentenario BZ CHW

Pág 171 de 254

Bus, registros y otras hierbas

La verdadera identidad de 8086 se establecen en sus registros y buses (interno, externo)

de 16-bit, lo que permite un direccionamiento I/O de 64 KB (216 = 65.536), mientras el bus

externo de 20-bit permitía un direccionamiento físico de 1 MB.

Los registros del 8086 estaban divididos en dos secciones principales, de propósito general

y de índice.

AX: Registro acumulador, dividido en AH / AL. Su principales funciones eran generar

código de máquina, operaciones de aritmética, lógica y transferencia de

datos, multiplicación y división, salidas y entradas.

BX: Registro base de direccionamiento, dividido en BH / BL.

CX: Registro contador, dividido en CH / CL. Su objetivo era iterar segmentos de código,

repetir operaciones y contar bits

Page 172: Bicentenario BZ CHW

Pág 172 de 254

DX: Registro de datos, dividido en DH y DL. Junto con AX se concatenan operaciones MUL

y DIV en un registro de 32-bit, también especificaba puertos en algunas operaciones de

entrada/salida.

SI: Registro indice. Usado de puntero para ciertos datos y como fuente para ciertas

instrucciones de procesamiento.

DI: Indice destino. Cumple el mismo objetivo de SI con un offset distinto (SS).

BP: Puntero base. Usado para acceder a parámetros pasados vía pila.

SP: Puntero de Pila. Siempre apunta al primer item de una pila (a FFFEh si está vacía)

Luego tenemos los registros bandera, de segmentos y apuntador de instrucciones

especial; Cada uno de ellos cumplía funciones muy específicas, como conocer el estado

del procesador luego de haber realizado una operación (banderas) o acceder a los valores

alojados en memoria (segmentos) aunque también se podían almacenar en aquellos

registros (64KB) pero no era la idea para aquella época donde un KB más o menos

marcaba la diferencia.

Uno de los inconvenientes del bus de datos del 8086, era que estaba multiplexado

(dividido en varias señales) con el bus de direccionamiento, limitando el rendimiento final

especialmente en aquellos procesos de 8-bit, que corrían ligeramente más lentos que los

procesadores de 8-bit de aquellos tiempos. Otros problemas que afligían al recién nacido

8086 eran la lentitud con la que se realizaban operaciones aritméticas, por lo que Intel

decidió agregar un segundo chip (8087) encargado de realizar

operaciones matemáticas con números de 80-bits, éste es el denominado co-

procesador matemático.

Page 173: Bicentenario BZ CHW

Pág 173 de 254

Pines

El sistema de entradas y salidas del microprocesador 8086 está diseñado en el formato

DIP (Dual Inline Package), que consiste en 40 patas (o pines) en total -20 en el lado

izquierdo, 20 en el derecho- separadas entre sí por 2,54 milímetros.

Cada uno de los pines cumple con una función específica y están enumerados del 1 al 40.

Para identificar cada pin es necesario fijarnos en la muesca semicircular que marca el

comienzo de la numeración de los pines, siempre desde el lado izquierdo hacia abajo y

luego desde abajo hacia arriba por el lado derecho. Esto último es muy importante tener

en cuenta antes de conectar los pines a sus respectivas entradas/salidas, porque no

faltará el descuidado que conecte la entrada de 5V (Vcc) a la salida GND (tierra/masa).

Page 174: Bicentenario BZ CHW

Pág 174 de 254

Las funciones de los pines son las siguientes:

1. GND (Masa) 2. AD14 (Bus de direcciones) 3. AD13 (Bus de direcciones) 4. AD12 (Bus de direcciones) 5. AD11 (Bus de direcciones) 6. AD10 (Bus de direcciones) 7. AD9 (Bus de direcciones) 8. AD8 (Bus de direcciones) 9. AD7 (Bus de direcciones y datos) 10. AD6 (Bus de direcciones y datos) 11. AD5 (Bus de direcciones y datos) 12. AD4 (Bus de direcciones y datos) 13. AD3 (Bus de direcciones y datos) 14. AD2 (Bus de direcciones y datos) 15. AD1 (Bus de direcciones y datos) 16. AD0 (Bus de direcciones y datos) 17. NMI (Entrada de interrupción no enmascarable) 18. INTR (Entrada de interrupción enmascarable) 19. CLK (Entrada de reloj generada por el 8284) 20. GND (Masa) 21. RESET (Para inicializar el 8088) 22. READY (Para sincronizar periféricos y memorias lentas) 23. /TEST 24. /INTA (El 8088 indica que reconoció la interrupción) 25. ALE (Cuando está uno indica que salen direcciones por AD, en caso contrario, es el

bus de datos) 26. /DEN (Data enable: cuando vale cero debe habilitar los transceptores 8286 y 8287

(se conecta al pin de “output enable”), esto sirve para que no se mezclen los datos y las direcciones).

27. DT/R (Data transmit/receive: se conecta al pin de dirección de los chips recién indicados).

28. IO/M (Si vale 1: operaciones con ports, si vale 0: operaciones con la memoria) 29. /WR (Cuando vale cero hay una escritura) 30. HLDA (Hold Acknowledge: el 8088 reconoce el HOLD) 31. HOLD (Indica que otro integrado quiere adueñarse del control de los buses,

generalmente se usa para DMA o acceso directo a memoria). 32. /RD (Cuando vale cero hay una lectura) 33. MN/MX (Cuando esta entrada está en estado alto, el 8088 está en modo mínimo,

en caso contrario está en modo máximo) 34. /SSO (Junto con IO/M y DT/R esta salida sirve para determinar estados del 8088) 35. A19/S6 (Bus de direcciones/bit de estado) 36. A18/S5 (Bus de direcciones/bit de estado)

Page 175: Bicentenario BZ CHW

Pág 175 de 254

37. A17/S4 (Bus de direcciones/bit de estado) 38. A16/S3 (Bus de direcciones/bit de estado) 39. A15 (Bus de direcciones) 40. Vcc (+5V)

Esta es la configuración del 8086 en modo mínimo, cuando se le aplica más de 5V al pin 33

(MN/MX) automáticamente el microprocesador entra a funcionar en modo máximo y

algunos de los pines cambiaban su significado:

• Pin 24, QS1: Estado de la cola de instrucciones (bit 1). • Pin 25, QS0: Estado de la cola de instrucciones (bit 0). • Pin 26, S0: Bit de estado 0. • Pin 27, S1: Bit de estado 1. • Pin 28, S2: Bit de estado 2. • Pin 29, /LOCK: Cuando vale cero indica a otros controladores del bus (otros

microprocesadores o un dispositivo de DMA) que no deben ganar el control del bus. Se activa poniéndose a cero cuando una instrucción tiene el prefijo LOCK.

• Pin 30, RQ/GT1: Es bidireccional y tiene la misma función que HOLD/HLDA en modo mínimo.

• Pin 31, RQ/GT0: Como RQ/GT1 pero tiene mayor prioridad. • Pin 34, Esta salida siempre está a uno.

Micro-computadores con 8086 y clones

Uno de los primeros computadores en

incorporar la tecnología del chip Intel

8086, fue el famoso IBM PC, modelo que

utilizaba el chip 8088 -una versión de 8086

con un bus de datos de 8-bit- y marcó el

comienzo de un estándar para el resto de

la industria de computadores. Luego de

IBM PC, vinieron los modelos IBM PS/2

que incorporaron el verdadero 8086 con una frecuencia de 8 MHz. Sin embargo, el primer

micro-computador en comercializar el procesador 8086 fue el fabricante noruego Mycron

y el su modelo Mycron 2000, que utilizaba el sistema operativo CP/M-86. Otros micro-

computadores que adoptador el procesador de Intel fueron:

• Compaq Deskpro, con el chip 8086 a 7,14MHz, además fue el primer IBM PC clon que permitía tarjetas diseñadas para el IBM PC XT.

• IBM Displaywriter, máquina de procesamiento de texto diseñada en los Laboratorios Wang

• Tandy 1000 serie SL

Page 176: Bicentenario BZ CHW

Pág 176 de 254

• Amstrad PC1512, PC1640 y PC2086, todos utilizaban el chip 8086 corriendo a 8MHz

• FLT86, fabricado en Inglaterra

Como toda buena influencia en el mercado, no podía estar ajena a las copias y el chip Intel

8086 fue víctima de aquello.

En los años 80, Intel no disponía de sus propias fabricas para proveer de sus chips a todo

el mundo, por lo que muchas unidades eran encargadas a otras compañías como: Fujitsu,

Harris/Intersil, OKI, Siemens AG, TI, USSR, NEC o Mitsubishi, las que aprovechaban de

hacer versiones compatibles. En algunos casos, el 8086 no sólo era copiado, sino que

también mejorado para diversos propósitos, esto sucedió con los modelos V20 y V30 de

NEC, los que agregaban el set de instrucciones de los 80186 y una frecuencia ligeramente

mayor, aunque en esos tiempos tener 2 MHz extras podía significar hasta un 30% más de

rendimiento.

Sin embargo, también existieron clones de 8086, estos nacieron en la ex

Union Soviética gracias el espionaje industrial y la ingeniería inversa. El clon ruso de Intel

8086 era denominado K1810BM86, que además -patudamente- era compatible con los 40

pines y set de instrucciones del original. La necesidad de proveer de procesadores a los

computadores de la Union Soviética los llevó a implementar su propia solución de chip,

diseño de circuitos y bus de datos independientes al producto original de Intel.

Page 177: Bicentenario BZ CHW

Pág 177 de 254

Conclusión

El éxito logrado por Intel y sus microprocesadores 8086 y 8088 no sólo tuvo un fuerte

impacto en la computación de hoy en día, en los años setenta fue catalogado por la revista

“Fortune” como uno de los mejores negocios de la época gracias a la inclusión del

microchip en soluciones de computación económicas como fueron los IBM PC, aunque

originalmente fue pensado para sistemas embebidos.

Al mismo tiempo que se iba masificando el chip 8086 y sus hermanos, nacía un nuevo

termino, x86, y que hace referencia al conjunto de instrucciones de arquitectura que se

estaba formando. Desde aquellos tiempos hasta la fecha, x86 se ha vuelto en la

arquitectura más popular entre PCs de escritorio como portátiles gracias a que varias

marcas como HP, Sanyo, Toshiba y otros, imitaron los pasos de IBM con productos clones.

Las siguiente iteraciones de la arquitectura fueron mejorando considerablemente

en características, por ejemplo: La segunda generación x86 estuvo liderada por los chips

Intel 80186 y 80286 comenzó a ofrecer un espacio de direccionamiento físico de 24-bit y

paginamiento de memoria, la tercera y cuarta generación estuvo marcada por la evolución

a un direccionamiento lineal y físico de 32-bit, la transición más larga de

la computación personal moderna.

Han pasado más de 32 años desde la aparición del histórico Intel 8086 y hoy nos

encontramos en la denominada décimo tercera generación de la arquitectura x86, que

nos ofrece un direccionamiento lineal/físico de 64-bit y todo un nuevo conjunto de

instrucciones y características como SSE5/AVX, virtualización, controladores de memoria

en el mismo die de la CPU, FPU superescalar y por supuesto un diseño totalmente

modular. Todo esto no habría sido posible sin 8086.

Page 178: Bicentenario BZ CHW

Pág 178 de 254

(144) El primer CPU QuadCore x86 Por David Sarmiento Portocarrero

Un CPU Quad Core (cuádruple núcleo) integra 4 núcleos en un único chip, y se

constituyeron en el siguiente paso evolutivo luego de los CPU Dual Core (doble núcleo), en

teoría un CPU Quad Core debe integrar 4 núcleos en el mismo die, pero el 1º CPU Quad

Core conocido: Intel Core 2 Quad QX6700 Extreme Edition obviaba esta regla integrando 2

die cada uno con 2 núcleos y comunicados internamente por el FSB (Front Side Bus) en el

mismo encapsulado (caso similar al acontecido con el 1º Dual Core: Intel Pentium D); lo

que en su tiempo desató la polémica, siendo muchos los que no lo consideraban un

verdadero CPU Quad Core; mientras que el CPU Phenom X4 de su rival AMD si fue

considerado un verdadero Quad Core al poseer 4 núcleos en el mismo die, lo que por ese

tiempo llamaron un CPU Quad Core monolítico.

AMD Phenom X4 y Core 2 Quad "al desnudo"

Basándonos en lo anterior podríamos afirmar que Intel Core 2 Quad QX 6700 Extreme

Edition fue el 1º CPU con 4 núcleos en el mismo sustrato (2 die con 2 núcleos cada uno),

mientras que AMD Opteron 8350 fue el 1º CPU con 4 núcleos en el mismo die… así que

porque no describir los productos de ambas empresas.

Page 179: Bicentenario BZ CHW

Pág 179 de 254

Intel Core 2 Quad QX6700 Extreme Edition

El 2 de noviembre del 2006, Intel lanza su primer CPU Quad Core, un nuevo hito en el

mundo x86, tanto desde el punto de vista tecnológico, como en rendimiento, superando a

cualquier CPU x86 existente hasta ese momento: Intel Core 2 Quad QX6700 Extreme

Edition, un CPU dirigido a los usuarios entusiastas con el “módico” precio de $999. Este

CPU tenía un chip Kentsfield fabricado con el proceso de manufactura de 65nm con 4

núcleos funcionando a 2.66GHz, 8MB de cache L2 (4MB por cada 2 núcleos), un TDP de

130W, y compatible con el socket LGA775; no introdujo nuevas características en

comparación con los Core 2 existentes.

Este microprocesador tuvo un rendimiento sobresaliente en multitareas, superando por

amplio margen al Core 2 Extreme X6800 (Dual Core a 2.93GHz y máximo exponente de los

Dual Core hasta ese entonces), y a cuanto competidor le saliera al frente; aunque en test

que no aprovechaban la multitarea se veía superado por este último. Aun así su

rendimiento en multitareas en muchos casos era del 60 a 70% superior frente al Core 2

Duo E6700, CPU que equivalía a uno de los núcleos dual core del QX6700 (en test

sintéticos si alcanzaba el doble del desempeño).

Page 180: Bicentenario BZ CHW

Pág 180 de 254

AMD Phenom X4 9600

El mismo mes del lanzamiento de los CPU Intel Core 2 Quad Extreme Edition, AMD en una

maniobra desesperada lanza su plataforma Quad FX (2 CPU Athlon FX + mainboard doble

socket), con la cual ganó tiempo hasta que un año después el 19 de noviembre del 2007,

AMD lanza su 1º CPU Quad Core para el mercado doméstico: el Phenom 9600 (el 10 de

setiembre 2007 ya había lanzado el Opteron 8350 para el sector profesional), Phenom

hizo su aparición en un momento muy difícil para AMD (pocos meses atrás , lanzó las poco

exitosas Radeon HD 2000 Series).

Phenom 9600 usaba el núcleo Agena en su revisión B2, fabricado con el proceso de

manufactura de 65nm funcionando a 2.3GHz, 2×512kb de cache L2, 2MB de cache L3,

introdujo la nueva versión del bus HyperTransport 3.0 (HT 3.0, para aprovecharlo era

necesaria una mainboard socket AM2+) con un 86% mayor ancho de banda comparado

frente al HT 2.0, un nuevo controlador de memoria con la capacidad de funcionar en 2

modos de doble canal: agrupado (ganged, el modo dual cannel 128 bits tradicional) y

desagrupado (unganged, 2 canales de 64 bits independientes), una nueva unidad de

Page 181: Bicentenario BZ CHW

Pág 181 de 254

cálculo de enteros, una nueva unidad de predicción de ramas, virtualización mejorada, y

las nuevas instrucciones SSE4a.

Este microprocesador no se destacó por su elevado rendimiento frente a los CPU

existentes de Intel, pero ofreció una mejora suficiente en comparación con los Athlon

64/X2/FX existentes, su punto fuerte fueron las multitareas y su atractivo bajo precio

(comparado con las opciones de Intel).

Page 182: Bicentenario BZ CHW

Pág 182 de 254

El Bug TLB en los Phenom de AMD

Un hecho que manchó la reputación de los primeros Phenom de AMD fue el error en los

buffers TLB (descubierto a los pocos días de lanzado), responsables de sus mejoradas

capacidades de virtualización, error exagerado por muchos medios informativos; pues era

prácticamente imposible de detonarlo en el uso de escritorio normal (se detonaba en

ambientes servidor con uso intensivo de virtualización); error que fue corregido en la

siguiente revisión B3 (para los CPU B2 existió un parche de microcódigo activable en el

BIOS); pero AMD recibió demasiada mala prensa por él, lo cual sumado al lento soporte

que brindaron los fabricantes de mainboards con los primeros Bios compatibles para las

viejas mainboard socket AM2 (Bios Beta y en muchas ocasiones llenos de inestabilidades)

detonó que la web se llenara de temas culpando al error TLB por prácticamente cualquier

problema de compatibilidad CPU/mainboard AM2. AMD lanzó 10 meses después la nueva

revisión B3 con el error corregido, pero el daño ya estaba hecho.

Page 183: Bicentenario BZ CHW

Pág 183 de 254

El Bug TLB en los Core 2 de Intel

Para muchos es un hecho desconocido que el error TLB también estuvo presente en los

microprocesadores Core 2 Quad Extreme Edition (y otros modelos Dual y Quad Core), este

error fue descubierto casi 5 meses después de su lanzamiento (ocasionaba inestabilidades

y cuelgues en ciertos escenarios no descritos por Intel) , y que fue corregido por Intel con

una nueva actualización de microcódigo en nuevos Bios para las mainboards socket 775,

en combinación con un parche de Microsoft. Error que recibió casi nula atención de los

medios informativos, y quizá muchos recién se enteren que existió.

Notas finales

Han pasado casi 4 años desde la aparición de los CPU Quad Core, y la industria ha

continuado su evolución con los actuales Hexa Core (AMD Phenom II X6 e Intel Core i7 9×0

Extreme Edition), y dentro de poco tendremos CPUs Octa Core (con 8 núcleos; para el

sector profesional y servidores si existen microprocesadores con 8, 10, y hasta 12

núcleos); y es de suponer que el número de núcleos continúe en aumento conforme el

software evolucione también hacia la misma dirección.

Page 184: Bicentenario BZ CHW

Pág 184 de 254

(151) George Hotz, GeoHot: el maestro jailbreaker Por Geovanne Salinas

George Hotz

Nacido un 2 de octubre de 1989, George Francis Hotz -alias GeoHot, million75 o mil- ha

logrado capturar la atención de los medios durante los últimos años gracias a su ingenio,

que lo llevó a romper la protección de seguridad en el baseband del iPhone cuando sólo

tenía 17 años y a los 19 vulnerar el sistema ultra seguro que Sony implementó en

PlayStation 3.

Hoy cuando está a punto a cumplir 21, se ha convertido en toda una estrella en el mundo

del hacking por sus habilidades que han permitido que millones de usuarios puedan

disfrutar de un iPhone totalmente desbloqueado, tener un iPod Touch/iPhone con

jailbreak, y por supuesto, ofrecer total libertad a los primeros usuarios de PlayStation 3.

A continuación revisamos la historia detrás del genio, y que entregó felicidad al mundo y

dolores de cabeza para Apple y Sony.

Page 185: Bicentenario BZ CHW

Pág 185 de 254

Historia

La vida del hacker transcurrió tranquilamente en la ciudad de Glen Rock, un poblado de no

más de 15.000 habitantes ubicado en el condado de Bergen County, New Jersey.

Su talento fue alimentado desde pequeño por la educación recibida en Bergen County

Academies, una escuela que divide sus clases en academias como por ejemplo:

Ciencias, Ingeniería, Telecomunicación o Negocios. Cada una de estas academias tiene

un currículo bastante especifico que refuerza las habilidades de los alumnos. Hotz estuvo

enrolado en la Academia de Ingeniería, donde participaba activamente de concursos

relacionados con las ciencias.

El año 2005, Hotz fue finalista de la competencia Intel International Science and

Engineering Fair con su proyecto “TheGoogler”, luego en el año 2007 gana junto a sus

compañeros de escuela en la misma feria de Intel que participó el 2005, gracias a un

dispositivo que proyectaba imágenes 3D denominado “I want a Holodeck”, recibiendo un

premio de nada menos que USD$20.000.

Los inicios de Hotz ya nos entregaban una pista de sus capacidades prematuras y que

siempre fueron apoyadas por la educación recibida.

Desbloqueo del iPhone

El 29 de junio de 2007 -y luego de meses de espera- Apple finalmente puso a la venta su

primer terminal telefónico, hablamos del iPhone, y denominado el invento del año por la

revista Times. Muchos recordarán el incontable número de personas que hacia fila en las

tiendas de AT&T y Apple Store para obtener la última ganga tecnológica, y por supuesto

Hotz estaba en presente para adquirir el suyo.

Durante las semanas al lanzamiento del iPhone, muchas fueron las criticas por estar

amarrado a un sólo carrier telefónico. Hotz con tan sólo 17 años, decidió invertir varias de

sus horas de vacaciones en buscar una solución al bloqueo y permitir que se pudiera

utilizar el iPhone en otros operadores. Finalmente, bastaron 500 horas de arduo trabajo,

varias latas de Red Bull y un soldador para alcanzar el éxito, porque GeoHot había logrado

por primera vez vulnerar la seguridad de Apple vía hardware:

Viví y respiré ese teléfono por los últimos dos meses

El hack realizado al iPhone para poder hacer llamadas desde otros carriers no era algo

simple, y muchas fueron las criticas por parte de los medios. Sin embargo, Hotz subió a

Page 186: Bicentenario BZ CHW

Pág 186 de 254

YouTube un tutorial que explicaba paso a paso como realizar la modificación al teléfono, la

que tuvo más de 107.000 visitas en la misma noche de la publicación.

Fueron varios los interesados en contactar a Hotz para tener acceso exclusivo a su

teléfono, uno de ellos fue el empresario Terry Daidone, fundador de Certicell, quién

ofreció su auto -un Nissan 350Z- y otros 3 iPhones por ser el dueño del iPhone modificado

de GeoHot:

El resto de la iPandilla

Luego del desbloqueo que lo llevó a la fama, era momento de buscar una nueva forma de

desbloquear el iTeléfono y el reproductor multimedia iPod Touch.

El 8 de Febrero del 2008, Hotz liberó por primera vez un método de desbloquear el iPhone

con bootloader 4.6 vía software. Este lanzamiento marcaría el fin de la plataforma cerrada

de Apple, permitiendo que nuevos operadores GSM pudieran ser utilizados, incluso

en países donde no había ningún acuerdo para utilizar iPhones. Lo que para muchos podía

ser una desgracia no poder usar el carrier que uno quiera, para GeoHot es todo diversión:

Personalmente, me gusta que Apple mantenga al iPhone así de cerrado. Este es un

pasatiempo personal; y no sería tan divertido si Apple hubiera hecho al iPhone tan abierto

como otros terminales. Pongan frente a mi a un ‘policia anti-jailbreak’, y después podré

demostrarle a Apple de lo que soy capaz de hacer.

Page 187: Bicentenario BZ CHW

Pág 187 de 254

Para la salida del iPhone 3G (11 de Julio del 2008), la técnica por hardware utilizada por

Hotz ya no era valida, por lo que todos sus esfuerzos se concentraron en vulnerar el

código del baseband y bootloader.

El 3 de Julio del 2009, Hotz anunció la salida de purpler1n, el primer exploit público y por

software para el jailbreak del iPhone 3GS, lo que permitiría que se pudieran instalar

terceras aplicaciones en el iTeléfono. Un par de meses más tarde, se anunciaría blackra1n,

la aplicación para realizar jailbreak a todos los iPhones y iPod Touches lanzados por Apple,

una verdadera bomba en las oficinas de Cupertino.

La ronda de nuevas versiones de blackra1n continuó en los siguientes meses, y se

encargarían de romper una y otra vez las nuevas mejoras en seguridad que

Apple incluía con los nuevos dispositivos (iPhone 3GS y iPod Touch 3G modelos MC).

Durante el 2010, las cosas se volvieron bastante complicadas en torno al jailbreak y unlock

de la iPandilla, por lo que GeoHot decidió alejarse un poco de la escena. El 24 de Junio del

mismo año, Hotz escribió en su Twitter que no tenía intenciones de liberar un nuevo

jailbreak, aunque en los días siguientes se filtró una imagen de un iPhone 4 corriendo iOS

4.0 y ejecutando Cydia, pero ese método nunca fue liberado al público. Luego de varios

dichos en contra de Hotz por no liberar el jailbreak, éste anunció por Twitter su retiro del

hacking de dispositivos de Apple:

Me estaba diviertiendo pero hay demasiadas personas que se lo toman enserio. Solo es un

teléfono y esto ya no es tan divertido.

Mi biografía no es la de un hacker de iPhones,lo era cuando estaba

aburrido.Realmente,muchos de uds se deberían preocupar por otras cosas, no por mi.

Fue muy entretenido, y aprendí de todos los desafíos. Sin embargo, uno de estos días

tendré que despedirme de forma mas formal.

La protección de Sony

PlayStation 3 fue la tercera consola fabricada por Sony y parte de la séptima generación

de consolas, junto a la Nintendo Wii y XBOX 360 de Microsoft, ambas tenían en común

que eran vulnerables al hackeo, mientras Sony se jactaba de tener la única consolas de

videojuegos inviolable. Las ventas de ésta consola no fueron muy fructíferas en un

principio, algunos de los factores eran: su elevado costo, utilización de discos Blu-Ray, y

por supuesto, que no era posible utilizar juegos de “respaldo” como si se podía hacer en

las consolas XBOX 360 y Wii.

Page 188: Bicentenario BZ CHW

Pág 188 de 254

Lamentablemente para Sony, toda la protección incluida en su consola llegó a su fin el día

en que Hotz comunicó sus intenciones de vulnerar la increíble seguridad de la PlayStation

3, calificandola como “Todo un reto”, palabras de las que se arrepentiría cinco semanas

más tarde. El 22 de Enero de 2010, GeoHot escribió en su medio de comunicación oficial

(Twitter) lo siguiente:

Bien, un tweet… acabo de hackear la PS3

La entrada de Twitter llevaba a un link de su blog, donde anunciaba el hackeo de la

consola luego de obtener acceso al monitor virtual de máquina (o hipervisor), lo que le

permitía leer y escribir sobre el sistema de memoria de la PlayStation 3. Tan sólo fueron

necesarias 3 semanas de análisis a la consola y otras 2 para el cracking del sistema. Súper

simple.

Cuatro días más tardes del anuncio en su blog, GeoHot -desde ahora, la leyenda viviente-

ponía a disposición del público un exploit que permitía ganar privilegio hipervisor en la

consola, sólo era requisito tener una consola PS3 con soporte para OtherOS,

una característica que permitiría -eventualmente- instalar el sistema operativo Linux en la

consola. A parte del exploit, también se encontraron especificaciones sobre como instalar

Homebrew y un emulador de PlayStation 2, funcionalidades que luego fueron removidas

por Sony -al igual que OtherOS- por motivos de seguridad.

Sony contraataca

Page 189: Bicentenario BZ CHW

Pág 189 de 254

La respuesta de Sony -luego de que GeoHot vulnerara la in-hackeable consola- no se hizo

de esperar, y a finales de Marzo del 2010 lanzaron una actualización al firmware para la

PlayStation 3 que deshabilitaba la función OtherOS, imposibilitando el hackeo a la consola

vía Linux.

Sin embargo, “la leyenda” no se detuvo ante las amenazas de Sony para que dejara de

intervenir en la consola, ahora sus esfuerzos estaban centrados en lanzar un firmware

modificado que permitía correr Linux incluso con el último firmware de la compañía

(3.21). Hotz utilizó YouTube para dar a conocer los avances sobre el firmware que estaba

modificando, tenía número de versión 3.21OO y traía nuevamente el soporte OtherOS a la

consola.

Lamentablemente, el progreso del firmware modificado de Hotz sólo pudo ser apreciado

por videos y nunca se publicaron avances. Para el 13 de Julio del mismo año, George

colgaba los guantes en la batalla contra Sony, el anuncio fue hecho vía Twitter:

Fue un viaje entretenido, y aprendí demasiado. Tal vez en los próximos días haga un adiós

formal

Conclusión

El genio detrás del primer jailbreak/unlock del iPhone y hacking de la PlayStation 3 aunque

se encuentra por el momento retirado de las canchas, sigue siendo uno de los personajes

más recordados del último tiempo por sus hazañas, y en especial por tener un prontuario

con tan sólo 20 años de edad.

Page 190: Bicentenario BZ CHW

Pág 190 de 254

A nadie le queda duda de que el chico de Glen Rock volverá a las canchas en un futuro

cercano, como el mismo dice, los retos -y el tiempo libre- son sus principales motivaciones

para seguir en el rubro del hackeo.

Page 191: Bicentenario BZ CHW

Pág 191 de 254

(158) ENIAC: La primera computadora electrónica

programable Por Geovanne Salinas

… Con la llegada del uso cotidiano de complicados cálculos, la velocidad se ha vuelto

fundamental en un grado tan alto que no hay un equipo en el mercado capaz de satisfacer

toda la demanda de los métodos modernos de cálculo. Las máquinas más avanzadas han

reducido en gran medida el tiempo necesario para alcanzar soluciones a los problemas

que podría haber precisado de meses o días por procedimientos antiguos. Este avance, sin

embargo, no es el adecuado para muchos de los problemas encontrados en el trabajo

científico moderno y la presente invención tiene por objeto reducir a segundos tales

cálculos largos.

Nada podría haber explicado mejor el principal propósito de construir ENIAC (Electronic

Numerical Integrator And Computer), conocida como la primera computadora electrónica

digital programable. El párrafo citado corresponde a la solicitud de patente número

3.120.606 llenada el 26 de Junio de 1947, y que pretendía dejar constancia de

la creación del Integrador Numérico Electrónico y Computador por el Laboratorio de

Investigación Balística del Ejercito de Estados Unidos.

ENIAC marca varios precedentes importantes en la informática y electrónica, como el

inicio de la computación de propósito general, la programación en lenguaje de máquina

(digital), y la historia de seis mujeres -ignoradas en su momento- hábiles en matemáticas y

lógica, que se convirtieron en las primeras programadoras.

Historia

Para Estados Unidos, el estallido de la Segunda Guerra Mundial en 1939 los hizo

despertar de la poca preparación militar que habían tenido en las últimas dos décadas,

dejandolos virtualmente eliminados como una potencia en materia bélica. En tiempos de

paz, los principales establecimientos científicos y de soporte para el departamento

encargado de diseño, desarrollo, adquisición, almacenamiento y expedición de todo el

material de combate y municiones para el ejército, estaban prácticamente abandonados.

Como en la mayoría de los grandes avances de la tecnología, ENIAC nace a partir de la

extraordinaria demanda que implicaba la guerra en esos tiempos, la milicia necesitaba

encontrar soluciones rápidas y precisas para sacar ventaja de sus rivales. Una de las

principales tareas a desarrollar en aquél entonces, era un sistemas de alta precisión para

bombardeos y manejo de datos complejos de balistica, por lo que el Ejercito de Estados

Page 192: Bicentenario BZ CHW

Pág 192 de 254

Unidos encargo el diseño de ENIAC en los primeros años de la Segunda Guerra Mundial y

para el 5 de Junio de 1943 se firmaba la construccion secreta del computador por la

Escuela Moore de Ingeniería Eléctrica de la Universidad de Pennsylvania.

Originalmente, ENIAC fue conocida por el nombre clave “Proyecto PX”, liderado por John

Mauchly y John Presper Eckert, junto a un equipo de ingenieros que incluía a Robert F.

Shaw, Chuan Chu, Thomas Kite Sharpless, Arthur Burks, Harry Huskey, Jack Davis y Iredell

Eachus Jr, cada uno de ellos encargados de una función especifica del computador como:

acumulador, multiplicador, programación, funciones de tabla, lectura/impresión, entre

otras.

ENIAC finalmente fue terminada el 14 de Febrero de 1946, luego de una inversión de

USD$500.000 (USD$6 millones actuales) hecha por el Ejercito de Estados Unidos. La

computadora fue presentada al público en Julio del mismo año, donde fue catalogada por

los medios como un “cerebro gigante”. Para el mes de Julio, ENIAC estaba funcionando a

su máxima capacidad y sólo fue apagada 4 meses más tarde para una actualización de

memoria y transferencia hasta las instalaciones de Aberdeen Proving Ground en

Maryland. Un año más tarde su puesta en marcha, ENIAC estaba nuevamente en las

canchas y continuó operando ininterrumpidamente hasta las 11:45pm del 2 de Octubre de

1955.

Descripción

Los números detrás de ENIAC son bastante grotescos, pero antes de ir con ellos debemos

recordar que ésta computadora era modular, es decir, estaba compuesta por distintos

componentes separados entre sí y que cumplían con distintas funciones; Veinte de

estos módulos eran acumuladores, los que se encargaban de sumar, restar y almacenar

hasta un número decimal de 10 dígitos. Los datos viajaban en buses de propósito general -

llamados trays- a través de todos los componentes, los que debían priorizar las acciones

en: enviar y recibir números, computar, salvar la respuesta, y desatar la

siguiente operación.

Sin embargo, lo más llamativo de ENIAC era su impresionante tamaño:

Page 193: Bicentenario BZ CHW

Pág 193 de 254

• Peso: 27 toneladas • Tamaño: 2.6 m x 0.9 m x 24 m • Espacio: 63 metros cuadrados

Si el tamaño no te sorprende, tal vez la complejidad de su construcción lo haga:

• 17.468 válvulas electrónicas • 6.000 interruptores • 7.200 diodos de cristal • 1.500 relés • 70.000 transistores • 10.000 capacitores • 5 millones de uniones soldadas • 200.000 W de consumo

Recordemos que ENIAC era capaz de almacenar un número con máximo de 10 dígitos,

para ello utilizaba contadores de anillo de 10 posiciones, cada uno de estos utilizaba

36 válvulas electrónicas y 10 de ellos realizaban el flip-flop en el anillo. La capacidad de

realizar operaciones simples no escapaba del asombro en aquella época, gracias a los 20

Page 194: Bicentenario BZ CHW

Pág 194 de 254

acumuladores, ENIAC era capaz de realizar 5.000 sumas o 300 multiplicaciones en tan sólo

1 segundo, y calcular la potencia 5.000 de un número de hasta 5 cifras en tan sólo 1,5

segundos. Otras operaciones que era capaz de realizar ENIAC era la resta, division y

extraer raices cuadradas.

Uno de los objetivos de diseño de ENIAC, era hacerla totalmente electrónica para obtener

mayor velocidad. El producto final cumplió el objetivo, porque sólo un

elemento mecánico quedó presente, se trataba del lector de tarjetas perforadas de IBM, y

que se encontraba fuera del sistema de cálculo como tal. Las tarjetas de

IBM permitían ingresar datos a la computadora como también imprimirlos.

Máquinas de la época

Podemos decir que el inicio de la computación moderna comenzó en los años 30, con una

serie de máquinas de cómputo mecánicas/electrónicas bastante limitadas en cuanto a

la programación y finalidad. Antes del desarrollo de éste primitivo hardware, la gente

debía hacer los cálculos a mano y sólo recibían algo de ayuda de máquinas mecánicas

(análogas) a las que podríamos llamar las primeras calculadoras.

Zuse Z3 (Alemania): Fue creada por Konrad Zuse en 1939 y tiene el mérito de ser la

primera computadora digital programable y de propósito general, curiosamente, en

la mayoría de los libros de historia se le atribuye a ENIAC el título de la primera

computadora programable, los motivos son totalmente discutibles, por un lado, Z3

realmente fue la primera computadora parcialmente programable, pero programable al

fin y al cabo. ENIAC por su parte, fue la primera computadora electrónica totalmente

programable. ¿Se entiende que la historia la escriben los ganadores?, en este caso Estados

Unidos y no la Alemania Nazi.

Page 195: Bicentenario BZ CHW

Pág 195 de 254

Replica de Zuse Z3

La lógica detrás de los cálculos de Z3 era binaria de punto flotante, y accidentalmente se

descubrió en 1998 que tenía Turing Completo. Lamentablemente, la vida de Z3 fue muy

precoz, sólo se conoce una presentación en público en Mayo de 1941, para luego ser

destruida en el bombardeo a Berlin de Diciembre de 1943, aunque una replica se conserva

en el Museo de Munich.

Atanasoff-Berry Computer o ABC (Estados Unidos): Mostrada al público en el verano de

1941, fue el primer computador electrónico de la historia, poseía una lógica binaria

y válvulas electrónicas, pero no era de propósito general y tampoco programable,

su misión era simplemente resolver sistemas de ecuaciones lineales.

Colossus Mark 1 y 2 (Inglaterra): Diseñada por Tommy Flowers fue una de las primeras

computadoras totalmente electrónicas junto a ENIAC, su lógica matemática estaba basada

en binario y era usada para el criptoanálisis, específicamente su misión era interceptar y

descifrar las comunicaciones nazis. Fueron destruidas en 1945 para mantener

el secretísimo, sólo en 1970 se supo de su existencia.

Page 196: Bicentenario BZ CHW

Pág 196 de 254

¡Cuidado!, mujeres programando

Controlar ENIAC no era algo trivial, se trataba de una máquina de 30 toneladas y varios

paneles (o módulos) que abarcaban toda una habitación, imaginen como se programaba

en tremenda máquina… no, no usaban teclados gigantes, todo se resumía a unir cables

entre los distintos componentes que formaban el primer computador programable

electrónico.

ENIAC estaba conectada por más de 1.500 relés, los que conectaba pulsos eléctricos

emitidos por las unidades del sistema, una de ellas era denominada la “unidad cíclica” que

se encargaba de los pulsos básicos, otras unidades se encargaban de repetir los pulsos,

acumular números y realizar el cálculo. La programación de ENIAC estaba a cargo de

mujeres (simples operarias en aquella época), quienes debían tomar un problema y

mapear la solución en un lenguaje comprensible para la máquina. Programar los ciclos,

estructuras y subrutinas era una tarea compleja que podía llevar un largo tiempo

planificarlas en papel, y varias semanas en aplicarla en la máquina al mover los cables y

conectarlos con ciertas entradas/salidas de las unidades. Luego de que

la programación estuviera lista, venía el periodo de verificación o debugeo.

Page 197: Bicentenario BZ CHW

Pág 197 de 254

Betty Snyder Holberton, Jean Jennings Bartik, Kathleen McNulty Mauchly Antonelli,

Marlyn Wescoff Meltzer, Ruth Lichterman Teitelbaum y Frances Bilas Spence, sentaron las

bases para una programación sencilla y accecible a todos, fueron las encargadas de crear

complejos set de funciones, aplicaciones de software y clases, pero nunca se les otorgó el

merecido reconocimiento, incluso en la década de los 80 se pensaba que las mujeres

que aparecían en el registro fotográfico de ENIAC eran simples “modelos” sin

ninguna relación con la máquina.

Sin embargo, también existe otro personaje importante detrás de la programación de

ENIAC, su nombre es Jon Von Neumann, matemático que estuvo involucrado en el primer

año de construccion de la máquina. Aunque ENIAC era un proyecto financiado e

impulsado por el Laboratorio Balístico del Ejercito, el Laboratorio de Los Alamos -donde se

trabajaba en simulaciones de la bomba de hidrogeno- se vio involucrado directamente con

la computadora, participando de la definición de un sistema lógico basado en la ideas

del matemático húngaro y que es conocido como la Arquitectura Von Neumann.

Page 198: Bicentenario BZ CHW

Pág 198 de 254

Eventualmente, el Laboratorio de Los Alamos ejecutó en ENIAC las primeras pruebas

de simulación sobre la bomba de hidrógeno (o atómica), alcanzando más de un millón de

entradas y salidas reflejadas en tarjetas perforadas.

Conclusión

La primera computadora electrónica programable, no sólo marca el comienzo de

la computación tal y como la conocemos -por su arquitectura, componentes electrónicos y

modelo de programación- sino también nos enseña como las motivaciones bélicas llevan a

grandes mentes a desarrollar este tipo de máquinas que eran muy avanzadas para la

época.

Aunque el objetivo original de ENIAC se cumplió a cabalidad: calculó varios bombardeos,

incluso contribuyo al desarrollo de la bomba atómica, lo que puso fin a la Segunda Guerra

Mundial y a Estados Unidos a la vanguardia de la tecnología, hoy su evolución nos permite

disponer de varios dispositivos de cómputo en nuestros hogares

para propósitos de diversión o aprendizaje, también ha permitido que la humanidad

avance en otras materias de importancia como la ciencia o medicina y que distan de la

finalidad inicial de ésta computadora.

Page 199: Bicentenario BZ CHW

Pág 199 de 254

(165) La compra de ATI por AMD – Parte I: Dificultades

iniciales Por David Sarmiento Portocarrero

Han pasado exactamente 50 meses desde que AMD adquirió a ATI, compra que

actualmente se considera una de las mejores decisiones tomadas por AMD; pero fue una

decisión bastante riesgosa en su momento y que llevó a AMD a uno de los peores

momentos en su historia, en este artículo detallaremos las distintas etapas de esta fusión

AMD/ATI, una de las más sonadas adquisiciones de la industria.

Antecedentes

A inicios de julio del 2006 (3 semanas antes del lanzamiento de los Core 2) se desvelaba el

nuevo proyecto Larrabee de Intel, con el cual ofrecería múltiples mini núcleos x86

enfocados a cálculos de gran paralelismo para el mercado HPC (proyecto que en la

actualidad es una realidad: CGPU Knights Corner); y con el cual consolidaría su posición

como líder en todos los aspectos de procesamiento, así como expandiría el alcance de su

concepto de plataforma a mercados distintos al mercado de consumo… mercado en el

cual sus soluciones chipsets, gráficas integradas (Extreme Graphics), lan (Pro

100/1000/wireless) junto a sus populares microprocesadores habían demostrado ser una

poderosa combinación, llevando a Intel a una posición de mercado mayor a la que había

tenido hasta ese entonces. Sus próximos proyectos buscaban hacer lo mi

Page 200: Bicentenario BZ CHW

Pág 200 de 254

Opciones de AMD

AMD la estaba pasando mal, Core 2 Duo de Intel fue un CPU con un rendimiento

sobresaliente, y acompañado de un bajo consumo, y con el cual Intel fortaleció su

presencia en el mercado desktop y portátil, y AMD no poseía nada con que contrarrestar

el fuerte argumento de ventas en que se habían convertido las plataformas de Intel

(conjunto CPU+chipset+gráficas+lan todo de una misma marca). Si bien AMD poseía

chipsets propios (pero no IGPs), estos no alcanzaban el rendimiento ni características de

los chipsets de ATI, Broadcom, Nvidia, SiS, Uli/Ali, y VIA compatibles con sus CPU (sockets

462, 754, 939 y AM2); ni tampoco tenía nada con que competir ante el anunciado

Larrabee en el mercado profesional. Una situación muy complicada para AMD.

Nvidia era la empresa que tenía mayor participación entre los chipsets para los CPU AMD,

sus chipsets/IGP Nforce mantenían el 80% de las ventas, también sus recientes GPU

Geforce 6 y 7 gozaban de gran popularidad; debido a ello cuentan los rumores que Nvidia

fue la primera opción de compra que consideró AMD a fin de aspirar a una plataforma

completa y competir ante los futuros proyectos de Intel en el mercado profesional (la

línea de GPUs Nvidia Quadro tenía también una fuerte presencia en dicho sector), pero

ello no se concretó.

Otras opciones de AMD pasaban por ATI (la 2º competidora en el mercado gráfico), Ali/Uli

(poseían buenos chipsets, pero en esas fechas ya había sido adquirida por Nvidia), SiS

(dueña de XGI y fabricantes de chipsets e IGPs de bajo consumo), y VIA (dueña de la

división S3 Graphics, pero esta empresa ya poseía una plataforma completa: CPUs,

chipsets, IGPs, GPUs, Lan, Sonido, USB).

Page 201: Bicentenario BZ CHW

Pág 201 de 254

ATI All in Wonder X1900, la última All in Wonder lanzada por ATI

Entre sus otras opciones, ATI era la que más se ajustaba a las necesidades de AMD, por

poseer una fuerte división gráfica tanto en el mercado de consumo (Radeon) como en el

profesional (FireGL), mientras que las demás opciones no tenían participación en las

gráficas de gamas altas ni para uso profesional… Otro detalle interesante era el reciente

cómputo GPGPU, estrenado por ATI en sus GPU Radeon X1800/1900 bajo el nombre de

Brook+ (1 año y 2 meses antes de que CUDA de Nvidia hiciese su aparición); es decir, un

arma contra el proyecto Larrabee de Intel (Brook+ posteriormente evolucionó en Close To

Metal y finalmente en el actual Stream). Otros beneficios eran que Microsoft usaba los

GPU de ATI en su consola Xbox 360, con ello tenia ventas aseguradas de GPUs por varios

años; además ATI era el proveedor de gráficas para la plataforma Mac de Apple.

Page 202: Bicentenario BZ CHW

Pág 202 de 254

AMD compra ATI

El 24 de julio del 2006 AMD anuncia oficialmente la compra de ATI, por un monto de $

5400 millones, una cifra superior a los $ 4400 que valía AMD; compra que la dejaba en una

delicada posición financiera debido a los préstamos a los que tuvo que recurrir para poder

realizarla; también esta compra fue hecha en un momento poco propicio: dentro de 3 días

Intel lanzaría sus poderosos Core 2 Duo, ATI hacia 9 meses había lanzado sus Radeon

X1000 Series (AMD casi no obtuvo beneficios económicos por dichos GPU) y el desarrollo

de su próxima generación (Radeon HD 2000 Series) se encontraba retrasado.

Pero esta compra desveló los planes a futuro que había hecho AMD, pues junto con ella

patentó una tecnología llamada unidad CPU y gráfica con L3 compartido, es decir lo que

ahora conocemos como Fusion, además obtuvo acceso a otros mercados como el de chips

DTV (procesadores ATI Xilleon en los que la propia ATI basó su tecnología AVIVO y

posteriormente AMD su tecnología UVD); con esta compra AMD también obtendría una

plataforma propia, pero ello sería algo a largo plazo, pues los chipsets/IGP existentes de

ATI, aún tenían que evolucionar para consolidarse junto a los CPU de AMD como una

plataforma.

Consecuencias

La situación financiera de AMD había quedado bastante debilitada con esta compra, las

cosas no podían más que empeorar en los meses siguientes:

Page 203: Bicentenario BZ CHW

Pág 203 de 254

Intel Core 2 Series: Más peligrosos de lo esperado

3 días después de la compra, Intel lanza sus CPU Core 2 Duo, y con ellos recupera la

corona del desempeño, consumo y costo de fabricación. Ante ellos AMD no tuvo otro

remedio que competir con precios económicos, y las cosas no pudieron ponérseles peor

pues 4 meses después Intel lanza los Core 2 Quad, CPUs ante los cuales AMD no pudo

competir hasta después de 1 año.

Intel retira a ATI la licencia para fabricar chipsets para sus CPU

ATI antes de ser adquirida por AMD, mantenía buenas relaciones con Intel, y ante los

poderosos IGP Nforce de Nvidia para la plataforma AMD, ATI se había convertido en el

equivalente para Intel, desarrollando chipsets e IGP con excelentes prestaciones, e incluso

siendo algunos de ellos usados en mainboards que Intel vendía con su marca (D101GGC y

D102GGC2), Intel al enterarse de la compra le retira la licencia, y realiza acuerdos con SiS,

la que pasa a reemplazar la posición que tenía ATI (Intel ofrece algunas mainboards con

chipsets e IGP de SiS), además le da acceso a Nvidia al suculento mercado de IGPs para su

popular plataforma LGA 775, así como también a su plataforma para portátiles (antes de

ello Nvidia únicamente podía fabricar chipsets no IGP y SLI).

Page 204: Bicentenario BZ CHW

Pág 204 de 254

Abit Fatal1ty F-I90HD una de las pocas mainboards basadas en el IGP AMD Radeon Xpress X1250 (el equivalente del 690G para la plataforma Intel socket LGA 775)

Esta medida de Intel tuvo mayor repercución de lo esperado, pues desencadenó meses

después, que Apple abandonara los GPUs de ATI, y se decantara por los GPUs e IGPs de

Nvidia.

Page 205: Bicentenario BZ CHW

Pág 205 de 254

Nvidia: El mayor aliado de AMD se convierte en uno de sus mayores rivales

Las buenas relaciones que mantenían ambas empresas se terminaron, Nvidia al tener

licencia a los sockets de Intel dio mayor prioridad al desarrollo de chipsets e IGPs para las

plataformas desktop y portátiles de Intel, y este en definitiva era un mercado mucho más

suculento que el de los chipsets para la plataforma AMD, Nvidia también incrementó su

competitividad en el sector gráfico lanzando con mucha anticipación sus poderosos GPU

Geforce 8000 Series (Noviembre del 2006), a tan sólo 3 meses de la compra de ATI por

AMD, la cual no tuvo los recursos para reaccionar ante ellas hasta dentro de medio año.

ATI Radeon HD 2000 Series: El primer tropiezo

El 14 de mayo del 2007, AMD lanza sus GPU Radeon HD 2000 Series (14 meses después de

que compró ATI, y 6 meses después de que Nvidia lanzara las Geforce 8 Series), y a pesar

del rendimiento en bruto que ofrecía su nueva arquitectura híbrida (SIMD+VLIW) y el bus

de 512bits de sus modelos de gama alta (Radeon HD 2900 Pro y XT), no pudo igualar el

rendimiento de los GPU de Nvidia, recibiendo una fría acogida. Nuevamente AMD recurrió

a recortar los precios para mantenerse competitiva. Irónicamente su gama media (Radeon

HD 2600 y sobretodo las HD 2400) gozaron de buena popularidad entre los usuarios y

OEMs debido a su bajo consumo (20W la HD 2400 Pro y 25W la HD 2400 XT frente a los

40W de las Geforce 8300 y 8400 GS). En el aspecto profesional introdujo con estos GPU la

nueva API GPGPU Close to Metal.

AMD Phenom: Más problemas para AMD

Noviembre del 2007, 1 año y 4 meses luego de la compra, AMD lanza sus CPU Phenom X4,

los que si bien son más competitivos ante los Core 2 Quad que los anteriores K8, no

consiguen la corona del rendimiento, y al poco tiempo se descube el error en los buffers

TLB del CPU, lo que complica aún más las cosas para AMD, pues la prensa no tuvo

compasión con ellos, AMD lanzó un microcódigo que corregía el problema, pero a costa de

perder entre 10 a 13% de rendimiento; AMD respondió a este problema con una serie de

recortes de precios los que ayudaron a mantener competitivos dichos microprocesadores,

pero estos no resultaron rentables para AMD, meses después lanza una nueva revisión B3

con el problema corregido.

Page 206: Bicentenario BZ CHW

Pág 206 de 254

ATI Radeon HD 3000 Series: Mejor, pero no suficiente

Lanzadas en noviembre del 2007, esta serie de GPUs si bien no constituyeron una drástica

mejora por sobre las previas HD 2000 Series (80 y 65nm), el nuevo proceso de

manufactura de 55nm y algunas mejoras a la arquitectura permitió que estos GPU fueran

más pequeños y tuvieran una buena relación de consumo/rendimiento, lo que les valió

sean más atractivas para los consumidores. En el aspecto profesional introdujeron la

versión evolucionada de Close to Metal llamada Stream.

ATI Radeon HD 3870X2 en CrossFire

AMD pierde valor bursátil: Momento crítico

Diciembre del 2007, debido al poco éxito de las Radeon HD 2000 Series junto a los

problemas de los primeros Phenom, AMD cae en la bolsa de valores llegando a un valor de

$ 5000 millones (en fechas de la compra y contando los prestamos AMD valía $9800

millones), es decir menos de lo que pagó por ATI. Una situación muy difícil para AMD.

Conclusiones

2 años muy duros para AMD, los malos pronósticos de los analistas parecían cumplirse,

pero AMD no se rendiría. No se pierdan la 2º parte de este artículo el día de mañana.

Page 207: Bicentenario BZ CHW

Pág 207 de 254

(172) La compra de ATI por AMD – Parte II: El resurgir de

AMD Por David Sarmiento Portocarrero

Luego de una de las temporadas más difíciles que le tocó pasar a AMD; lentamente los

vientos empiezan a soplar en otra dirección. Aquí la 2º y última parte de este artículo

dedicado a la compra de ATI por AMD.

AMD 700 Series Chipsets/IGP: Un acierto

En noviembre del 2007 AMD lanzó sus primeros chipsets desarrollados expresamente por

ellos y para su plataforma: los AMD 700 Series, chipsets que marcaron una diferencia

frente a sus anteriores chips (los que en realidad eran viejos chipsets de ATI renombrados

con la marca de AMD), tanto en términos de rendimiento como de estabilidad;

constituyéndose por fin en una de las más populares opciones.

El 4 de marzo del 2008 AMD lanza su 1º generación de IGPs desarrollada completamente

por ellos (en febrero del 2007 lanzó los IGP 690 Series, pero estos eran una versión

evolucionada de los IGP ATI Xpress 200) la que combinaba un núcleo gráfico basado en el

GPU Radeon HD 2400 (DirectX 10) con los exitosos chipsets AMD 700 Series, dando

nacimiento a la plataforma con la que AMD había soñado poseer desde un principio,

Page 208: Bicentenario BZ CHW

Pág 208 de 254

ganando popularidad en los sectores desktop y portátil. Y desplazando a los chipsets de

Nvidia (los que posteriormente desaparecieron del mercado).

ATI Radeon HD 4000 Series: Un fuerte competidor

El 25 de junio del 2008, AMD lanzó sus Radeon HD 4000 Series (9 días después de que

Nvidia lanzara sus Geforce 200 Series); GPUs que marcaron el regreso triunfal de AMD a

las grandes ligas, con un rendimiento muy cercano a los GPU de Nvidia, pero a un costo

muy inferior (forzó a Nvidia a reducir drásticamente sus precios), esta familia de GPUs se

ganó la preferencia de los consumidores. En el campo profesional introdujo Stream 2.0 y

apoyó al API GPGPU estándar OpenCL.

Tiempos de cambio: Adiós Hector Ruiz

El 17 de julio del 2008 Hector Ruiz luego de 8 años como CEO de AMD deja el cargo; 4 días

después AMD anuncia a su nuevo CEO Dirk Meyer, quien casi de inmediato sacrifica a una

de las áreas por la que muchos recordaban a ATI, en pos de enfocar sus esfuerzos en sus 3

mayores divisiones (CPUs, GPUs y chipsets).

Page 209: Bicentenario BZ CHW

Pág 209 de 254

AMD vende su división Digital TV: Adios TV Wonder y All in Wonder

El 25 de agosto del 2008 AMD vende su división DTV a Broadcom por $192.8 millones, en

un esfuerzo por reducir costos. Su división DTV se encargaba de fabricar los chips Xilleon

usados en muchos TV y dispositivos de video (AVIVO y UVD son también tecnologías

derivadas de Xilleon), y los chips Theater (chips en los que se basaban las ATI TV Wonder y

ATI All in Wonder originando el final de dichos productos).

AMD All in Wonder HD, la única y última AMD All in Wonder, estaba basada en el GPU Radeon HD 3650

AMD Phenom II/Athlon II: CPUs competitivos

En febrero del 2009 AMD lanza Phenom II, la actual familia de CPUs que es la evolución

directa de los primeros Phenom, pero con mejoras enfocadas a mejorar su rendimiento y

consumo, permitiéndole ofrecer CPUs más rentables que los viejos Phenom originales.

Con estos CPU AMD empieza a recuperar terreno, pero de ninguna forma eran lo único

que AMD tenía planeado, junto a ellos llegaron sus nuevos chipsets 785 Series (basados en

el GPU Radeon HD 3430), los que mejoraban las capacidades gráficas de los anteriores

780g y 790gx.

ATI Radeon HD 5000 Series: 6 meses sin competencia

Lanzadas en setiembre del 2009, fueron los primeros GPU DirectX 11, y llegaron 6 meses

antes que los de su rival, este producto es el que mayores beneficios le ha reportado a

AMD, y con el que consiguió liderar en la participación del mercado de las GPU discretas.

Page 210: Bicentenario BZ CHW

Pág 210 de 254

En el campo profesional (FireSream y FirePro) ofrecen mayor potencia GPGPU y bajos

consumos (incluso soluciones fanless).

Apple nuevamente con gráficas ATI: La manzana vuelve a ser roja

Luego de cumplir casi 2 años usando gráficas e IGPs de Nvidia, Apple retorna a la lista de

clientes de la división ATI de AMD, anunciando el 14 de octubre del 2009 la adquisición de

2 meses completos de producción de GPUs ATI Radeon HD 4850, en los siguientes meses

Apple adopto otras GPUs de ATI como las Radeon HD 4650, posteriormente realizó una

nueva compra masiva de GPUs Radeon HD 5750, y hace poco incorporó de serie los GPUs

de ATI en sus nuevas iMac y Mac Pro.

Arreglo extrajudicial con Intel: Un camino con menos baches

Luego de un largo proceso judicial, el 12 de noviembre del 2009 Intel y AMD arreglan sus

diferencias por un monto de $1250 millones el cual Intel abona a AMD por daños y

perjuicios, Intel también abandona algunas de sus prácticas monopólicas; y muchas más

de ellas llegan a su fin en un posterior nuevo arreglo extrajudicial entre Intel y la FTC.

AMD 800 Series Chipsets/IGP: Reforzando la plataforma

El 24 de febrero de este año AMD lanzó sus chipsets AMD 800 Series, con los cuales

fortalece su plataforma para este año, ofreciendo mayor potencia gráfica y mayor

rendimiento.

La “Fusion”: Adiós ATI

A pesar de los pronósticos negativos de muchos analistas ante la compra de ATI por AMD

(y vaya que casi tuvieron razón); el tiempo ha demostrado que si bien fue una decisión

arriesgada y realizada quizá no en el mejor momento (una posterior compra en los

tiempos de las HD 2000 con una ATI debilitada les hubiera sido más económica, o quién

sabe si para ese entonces hubiese aparecido otro interesado por ATI como la propia

Nvidia o Intel, nunca lo sabremos). Al final lo que importa son los resultados, y con ATI

AMD ganó terreno tanto en el campo doméstico como en el sector profesional.

Para AMD, ATI cumplió su cometido y terminó por absorber la marca y consolidar a ambas

con el nombre de AMD. Esta decisión obedece a la posición que ganó gracias a ATI, y a que

los planes que AMD tuvo con la compra de ATI (la fusión CPU+GPU, una plataforma

Page 211: Bicentenario BZ CHW

Pág 211 de 254

propia, y una poderosa arma con la cual competir contra Intel en el mercado HPC) son

ahora una realidad (recientemente apreciamos demostraciones de sus CPU Fusion).

Panorama actual

AMD ha sabido mantenerse ante las adversidades, siendo una empresa que ha sido

golpeada muchas veces pero ha sabido salir lo suficientemente librada como para poder

seguir compitiendo, el haber comprado a ATI quizá significó la unión de las 2 segundas

mejores empresas en sus respectivos rubros, pero ello también significó la unión de 2

empresas que sabían lidiar con las adversidades y salir adelante. Si bien el panorama

actual de AMD está lejos de lucir “de ensueño”, no nos quedan dudas de que continuará

representando una gran alternativa para los consumidores.

Que viene después

Prácticamente AMD ha revelado todo lo que podemos esperar de ella: Fusion (Bobcat,

Zacate, Ontario, Llano y Orochi), Bulldozer (Zambezi, Interlagos y Valencia), y sus GPU

Page 212: Bicentenario BZ CHW

Pág 212 de 254

Radeon HD 6000 Series (Northern Islands), y en casi todos ellos vemos que tienen algo de

ATI en su interior.

¿Qué hubiera pasado si AMD no compraba a ATI?

Algunas veces leí esa bizarra serie de comics: “What if?” y viendo lo que ha acontecido en

la industria podríamos hacer una predicción de lo que hubiera sucedido si AMD no

hubiese comprado a ATI. Tanto Phenom de AMD como las HD 2000 de ATI eran productos

que tenían un desarrollo bastante avanzado, por lo que no hubieran cambiado demasiado,

ni la forma como los recibió la industria, AMD se habría debilitado paulatinamente, y quizá

no hubiera podido financiar la compra de una empresa del calibre de ATI.

Que hubiera ocurrido con AMD

Por su parte AMD, hubiera dedicado sus recursos a salir del problema del TLB, por lo que

quizá habrían remediado ese problema con mayor prontitud, al no haber podido adquirir

a Nvidia ni a ATI, quizá se hubiese decantado por SiS (VIA sería algo poco probable pues ya

poseía plataforma completa) con la cual también hubiese conseguido su objetivo de una

plataforma completa, pero difícilmente incursionaría en el mercado de gráficas discretas

(Volari de XGI, la división gráfica de SiS, no podría haber competido ante las opciones de

ATI y Nvidia de gamas media y alta, quizá si en la gama baja), por lo que es muy poco

probable que AMD hubiese desarrollado algún IGP tan exitoso como el 690G y 780G, pero

si soluciones de bajo consumo las que hubieran tenido popularidad en el sector portátil;

SiS también posee tecnologías de reproducción de videos acelerados por hardware, por lo

que quizá AMD ofrecería IGPs similares a los que ofrece Intel, con un rendimiento 3D por

debajo de las opciones de ATI y Nvidia, pero con buenas características multimedia en

comparación con las ofertas de Intel. SiS posee también divisiones de fabricación de

módulos de memoria, chips de sonido, lan, wireless, por lo que es probable que AMD las

Page 213: Bicentenario BZ CHW

Pág 213 de 254

hubiese usado en su plataforma. Fusion hubiese existido de todos modos, pero quizá no

con la potencia gráfica que ofrece la versión que conocemos.

La actual AMD tendría una plataforma más débil en gráficos 3D, pero más completa en

cuanto a conectividad (con chips lan y wireless propios) y multimedia (chips de audio

propios), pero con pocas posibilidades en el futuro mercado HPC (tendría que verse

forzada a una alianza con ATI o Nvidia o quizá ambas a fin de competir ante Intel Xeon +

Knights Corner).

Que hubiera ocurrido con ATI

Para ATI, el tropezón sufrido con las HD 2000 no hubiera sido de gran impacto, teniendo

en sus manos el suculento mercado de chipsets e IGP para la plataforma Intel;

690G/X1250 hubiese sido vendido sin inconvenientes para la plataforma Intel, y hubiera

gozado de muy superiores ventas que las del 690G que conocemos, por lo que el éxito de

sus futuros IGP basados en las HD 2000 quizá hubiera amenazado demasiado el mercado

de chipsets Intel; lo más probable es que Intel le hubiese hecho lo mismo que a Nvidia

quitándole la licencia para sus sockets paulatinamente.

ATI no habría dejado de lado al GPGPU (Brook+) que estrenó con sus Radeon X1000 Series

(sin tener x86 sería su único camino), por lo que es muy probable que a esas alturas

estuviese tan asentado como CUDA (el cual salió más de un año después que Brook+), al

no haberse roto las relaciones que mantenían Intel y ATI sobre el desarrollo de Havok

acelerado por GPU, es probable que hubiese salido antes que PhysX o en fechas muy

cercanas. ATI Tampoco habría renunciado a su división Digital TV (Broadcom ofrece chips

basados en Xilleon que adicionan la capacidad para reproducir video y flash acelerado por

hardware en las plataformas Atom de Intel); por lo que hubiera ofrecido también IGPs

para Atom, y también chips aceleradores similares basados en sus chips ATI Xilleon; al no

poseer x86, lo más probable es que hubiese tomado el mismo camino que Nvidia

aliándose con ARM, y fortaleciendo su plataforma GPGPU.

Que hubiera ocurrido con Nvidia

En cuanto a Nvidia, quizá nunca hubiese tenido acceso a la fabricación de IGPs para la

plataforma Intel, por lo que enfocaría sus esfuerzos en la plataforma AMD, con la que si

bien no mantendría una rivalidad en gráficas discretas de gamas medias y altas, si la

habría en gamas bajas, chipsets e IGPs, sabiendo que en temas de consumo los chipsets

de Nvidia nunca pudieron competir ante los de ATI, y sabiendo que en la plataforma Intel,

los chipsets de SiS tenían el menor consumo (inferior que el de los chipsets de Intel y ATI),

Page 214: Bicentenario BZ CHW

Pág 214 de 254

es de suponer que también superaría a Nvidia en dicho punto, pero no en rendimiento;

por lo que veríamos una situación muy similar a la de Nvidia en la plataforma Intel antes

de que le quitara la licencia para sus sockets. Quizá el camino evolutivo hubiese sido casi

el mismo con AMD integrando el IGP y en Northbridge en sus CPU, haciendo menos

rentable el negocio de los chipsets e IGPs.

Notas Finales

Ha sido un muy largo, difícil, y lleno de sacrificios el camino el que ha tenido que recorrer

AMD para llegar a ser lo que es en la actualidad, su futuro ya no suena tan poco

promisorio como en fechas cuando adquirió a ATI, actualmente se ve a una AMD más

sólida que nunca, y quien sabe que rumbos tome en el futuro; nuevos vientos de cambio

suenan en la industria del hardware ante los rumores de una posible compra que podría

marcar un hito similar al que marcó la compra de ATI, pues de ser ciertos AMD (o Nvidia)

podría terminar siendo adquirida por el gigante Oracle.

Page 215: Bicentenario BZ CHW

Pág 215 de 254

(179) El primer CPU dual-core x86 Por Juan Pablo Oyanedel

Hoy en día ya estamos acostumbrados a tener chips con más de un núcleo físico tanto en

PCs de escritorio como en notebooks, siendo casi inconcebible para alguien con más de

$30 dólares en la billetera comprar algo que sea single-core. Pero este cambio en su

momento fue tan significante como sucedió cuando se rompió la barrera psicológica de

1GHz en una CPU, y sin duda la apuesta casi simultánea que hicieron AMD e Intel para

mover el mercado de consumidores hacia soluciones doble núcleo en el pasado rindió sus

frutos en la actualidad, siendo éstos ya adoptados por toda la industria con gran éxito

económico.

Así, se cambió el paradigma de “mientras más frecuencia, mejor”, convirtiéndolo en

“mientras más núcleos, mejor”. Por su puesto, nosotros seguimos creyendo que “mientras

mejor arquitectura, mayor frecuencia y más núcleos, mejor”.

¿Por qué multinúcleo?

Antes de entrar a detallar al chip pionero en los desktops de los usuarios comunes y

corrientes, vale preguntarse el porqué de los fabricantes por optar hacia este camino. En

una industria cuya carrera consistía básicamente por entregar la mayor frecuencia posible,

tanto Intel como AMD e IBM se dieron cuenta de si se continuaba con el desarrollo de

chips bajo este modelo, el consumo energético se haría insostenible e inaceptablemente

alto. Se comenzó a pensar con mayor seriedad entonces en el gasto de las CPUs, pero al

mismo tiempo había que seguir aumentando el rendimiento año a año y quedaban pocas

opciones para mantener un ritmo decente en el acelerado mercado de la computación.

Page 216: Bicentenario BZ CHW

Pág 216 de 254

Es mejor que la información fluya por dos ríos que por uno solo

Se encontró entonces que la mejor opción para seguir escalando en rendimiento y no

llegar a frecuencias alocadas, como los 10GHz que Intel se propuso con la

microarquitectura NetBurst, era irse por un circuito integrado con dos procesadores

individuales, o bien tomar dos die y ponerlos en un solo chip, como lo haría Intel.

Pese a aquello, la inclusión de chips de varios núcleos introdujo un problema de software

que hacía a todos preguntarse si las aplicaciones podrían hacer un uso eficiente del

hardware a disposición, requiriendo además ajustes en los sistemas operativos para

entregar soporte a estas nuevas CPUs. Porque el código estaba hecho para ejecutarse en

un sólo procesador, y continuaría funcionando de la misma manera bajo un dual-core, por

lo tanto gran parte del potencial quedaría desperdiciado y además el rendimiento bajaría

respecto a la competencia debido a que la gracia de estos chips es su rendimiento en

conjunto para llevar a cabo múltiples tareas en menor tiempo, no correr de la forma más

rápida posible un único hilo de ejecución.

Actualmente aún se está trabajando en solucionar esta dificultad de los programas para

que efectivamente puedan ocupar de manera simultánea dos o más núcleos, tanto en el

soporte por parte de los sistemas operativos como en nuevas tecnologías presentes en

ellos, poniendo como ejemplo lo de Apple con Grand Central Dispatch en su OS Snow

Leopard, que reparte la carga de cualquier aplicación a un bajo nivel hacia los núcleos

disponibles.

Citando más situaciones, la compañía de videojuegos Valve adoptó el soporte en su motor

gráfico Source y Crytek hizo lo mismo con CryEngine. Ejemplos como estos hay miles, y lo

Page 217: Bicentenario BZ CHW

Pág 217 de 254

importante es que ya existe una maduración por parte de la industria en este tópico y una

aceptación total hacia el multinúcleo.

Los inicios de una nueva era

Tan difícil como responder quién fue primero, si el huevo

o la gallina, es encontrar efectivamente al primer

exponente de los dual-core en el mundo. Así, lo mejor es

entonces dedicarse al primer procesador que llegó al

mercado de consumidores masivo, es decir, al desktop de

todo quien quisiera usarlo para propósitos generales y no

súpercomputadoras de universidad o servidores de

Microsoft, teniendo que viajar a los laboratorios más

recónditos de IBM para conseguir una muestra.

En tal caso, y pese a que AMD mostró al público el primer

Opteron de esta clase corriendo un servidor Hewlett-

Packard Proliant DL585 durante agosto del año 2004,

sería en el 2005 cuando Intel aterrizara con el Pentium

Extreme Edition 840, adelantándose por semanas al

Athlon 64 X2 de AMD y estrenando en las tiendas el

primer doble núcleo accesible y enfocado al área de

consumidores, cambiando para siempre el pensamiento

acerca de la CPUs.

Pero si queremos ir más allá y en rigor decir cuál fue el primerísimo, no hay que olvidar

entonces al POWER4 de IBM, que se podía encontrar dentro de súpercomputadoras y

grandes servidores en el año 2001. Efectivamente eran dos núcleos en un solo die, con

una frecuencia de 1.1GHz y 1.3GHz, además de un cache L2 unificado pero dividido en tres

partes iguales. Pero sigamos con el Pentium y los elementos que finalmente hicieron de

éste la primera piedra en el mercado masivo para la transformación hacia una vida con

muchos núcleos.

Pentium Extreme Edition 840

En respuesta a lo que AMD hacía en el mercado de los servidores con los Opteron, y con la

clara intención de adelantarse al inminente lanzamiento por parte de la compañía de un

chip dual-core para el mercado de los PCs convencionales, Intel mostró el Pentium

Extreme Edition 840, con nombre clave “Smithfield” y consistente en dos dies de un single

Page 218: Bicentenario BZ CHW

Pág 218 de 254

core empaquetados en un módulo multi-chip, o dicho de otra forma, dos núcleos de

Pentium 4 “Prescott” en una sola pieza de silicio. Sería AMD quien más tarde a través del

Athon 64 X2 realmente pusiera dos núcleos en el mismo die.

Haciendo su debut en abril del 2005, el Pentium EE 840 tenía una frecuencia de 3,2GHz, la

cual era algo modesta para la época, junto con soporte para la tecnología HyperThreading,

la misma usada hoy en día en la línea Core 2010 de Intel, permitiendo correr dos hilos de

procesamiento en un solo núcleo simultáneamente, creando otros dos núcleos

“virtuales”. Así, el 840 se mostraba como un quad-core, pero de mentira, porque ya

sabemos la historia del que realmente fue el primero en tener cuatro núcleos.

Cada uno de los cores tiene 1MB de cache L2 independiente a

bordo, compartiendo un bus frontal de 800MHz y fabricados

con un proceso de 90nm con 230 millones de transistores. Vale

mencionar que en ese entonces Intel ya tenía la costumbre de

ponerle el mismo precio de hoy a sus chips catalogados como

Extreme Edition, así que el costo de salida del Pentium EE 840

era de $999 dólares norteamericanos.

Acompañándolo vino también el chipset Intel 955X Express,

revelando consigo una cruda realidad: los procesadores dual-

core no serían soportados por chipsets anteriores. Es decir, renovación completa, ni una

actualización a la BIOS ni Jesús harían funcionar al 840 ni a ninguno en chipsets anteriores.

De todas formas, el chipset 955X ofrecía un mejor controlador de memoria con soporte

para hasta 8GB de RAM DDR2 en una configuración dual-channel corriendo hasta a

667MHz, subiendo desde los 533MHz de su predecesor el 925XE. Posteriormente, la línea

Page 219: Bicentenario BZ CHW

Pág 219 de 254

de chipsets 945 ofrecería soporte para CPUs doble núcleo a un precio menor, comenzando

la masificación de esta tecnología.

Características del Intel 955X Express Chipset

En cuanto al rendimiento del chip, fue el esperado para la época en escenarios donde el

multitasking o ejecución de múltiples tareas era necesario, brillando por sobre el anterior

Pentium 4 Extreme Edition de un núcleo corriendo a 3.73GHz, como se suponía que iba a

pasar.

Page 220: Bicentenario BZ CHW

Pág 220 de 254

Benckmarks al Pentium EE 840 contra el Pentium 4 EE de generación pasada, donde este último sobrepasa al dual-core en varias tareas

Sin embargo, y ejemplificando el problema de software antes mencionado, la baja

frecuencia le jugó una mala pasada el 840 frente a competidores con algo mayor a los

3.2GHz frente a aplicaciones que no sabían aprovechar los dos núcleos físicos vía

software. Tal fue el caso de los juegos, donde los gamers vieron que con el nuevo y

carísimo procesador Intel el rendimiento decreció en comparación a los 3.73GHz del

Pentium 4, realidad que incluso actualmente sucede regularmente y afecta a la hora de

decidir entre un hexa-core, quad-core o un dual-core con alta frecuencia.

Una historia repetida y sin final

Como muchos se habrán dado cuenta, Intel más tarde repetiría la fórmula de crear

procesadores multinúcleo poniendo varios dies bajo el mismo chip en lugar de usar uno

solo, como corresponde y como lo hace AMD, aunque siempre un paso más atrás

temporalmente. Sin embargo, y pese a la poca elegancia del método, los procesadores

que abren una nueva era en hardware y han venido apareciendo bajo la etiqueta de

Page 221: Bicentenario BZ CHW

Pág 221 de 254

Extreme Edition, desde el Pentium 840 al

Core i7 980X, siempre movieron la tierra

de la industria y en definitiva, marcaron,

marcan y quizás marcarán la tendencia de

lo que se viene en el ámbito de CPUs a

gran escala, como un “adelanto” a las

tecnologías del futuro por $999 dólares.

Y tal parece que Intel no le ha errado en su

pequeño juego de predicciones con los

Extreme Edition, logrando además

siempre el mejor rendimiento disponible en una CPU cuando llega la hora de lanzar algo

nuevo, probando nuevos paradigmas (como usar una menor frecuencia pero número

mayor de núcleos) y teniendo éxito en definir el curso que seguirá el rubro y la misma

Intel en los próximos años, porque nadie puede cuestionar el éxito de los procesadores

multinúcleo en el mercado, desde el 840 hasta el 980X, pasando por los Core 2 Duo y Core

2 Quad.

Page 222: Bicentenario BZ CHW

Pág 222 de 254

(186) Unidades de almacenamiento extraíble: Desde el

disquete al pendrive Por Francisco Bravo

Aquellos héroes de plástico

Es imposible no recordar con nostalgia y cariño a aquellos héroes de plástico, guardianes

de tantos 1’s y 0’s que luchaban a nuestro lado en aquellos difíciles momentos de entrega

de informes, respaldo de importantes documentos e incontables juegos (Prince of Persia y

¿Dónde está Carmen San Diego? se me vienen a la mente en este momento) o

simplemente el almacenar en sus entrañas aquellas pixelada foto “prohibida” que recién

habías conseguido con una escuálida conexión de 14,4 kbps luego de esperar varios

minutos a que terminara de descargar. Estoy hablando de los disquetes y su posterior

evolución, ya fuesen en su formato de 5,25″ o 3,5″, eran la forma de transportar la

información en las décadas de los ‘80 y ‘90. Las nuevas generaciones jamás van a

experimentar esa sensación de estar presenciando el umbral de los albores de la

informática, ni tampoco van a experimentar la frustración cuando llegado el momento de

tener que exponer darte cuenta que el archivo dentro del disquete estaba corrupto,

FUUUUU. En fin, sumando y restando creo que los que sí la vivimos fuimos muy

afortunados de cierta forma.

Si el disco duro tuvo su artículo especialmente dedicado a su historia y evolución, ¿por

qué no dedicarle unas cuantas líneas a sus hermanos menores de plástico? Partiremos con

los disquetes de 5,25″ y 3,5″, pasaremos por la olvidada unidad Zip de Iomega y los discos

magneto-óptico, los cuasi inmortales CD y DVD hasta llegar a los pendrives USB.

Page 223: Bicentenario BZ CHW

Pág 223 de 254

Disquete de 3,5" (1987)

El concepto que nació con el disquete de 8″

Todo partió el año 1971 cuando IBM comenzó la producción en masa (luego de comenzar

la investigación para el desarrollo del dispositivo en 1967) del que sería el padre de todos

los disquetes y el que marcaría el paso para la futura generación de unidades de

almacenamiento extraíble, el disquete de 8″, que en un principio tenía capacidad para

almacenar 81,6KB en 32 pistas; seis años más tarde lograba almacenar 1,2MB en 154

pistas. Nadie se imaginaba en ese entonces que 30 y tantos años después, por ejemplo, en

una memoria flash del porte de una estampilla (como una microSD) o un pendrive de

32GB cabrían más de 26 mil veces esa cantidad de información.

Page 224: Bicentenario BZ CHW

Pág 224 de 254

Disquete de IBM de 8" (1971)

El primer disquete de 5,25″, de esos que estoy seguro que muchos de los que están

leyendo estas líneas tuvieron alguna vez en sus manos con el típico sobre de papel para

proteger la abertura magnética, vio la luz del sol el año 1976 y era capaz de almacenar

prácticamente lo mismo que su primo del año ‘71, 89,6KB en 35 pistas. El salto viene

finalmente el año 1984 con el disquete de 5,25″ de cuádruple densidad que almacenaba

1,2MB.

Page 225: Bicentenario BZ CHW

Pág 225 de 254

Disquetes 5,25" (1978)

El disquete de 3,5″, el rey indiscutido de la familia, y que aún se siguen vendiendo

muchísimo en países como la India y que se niega a morir a pesar que Sony le aplicó

eutanasia, dio sus primeros pasos el año 1982 con una capacidad de 280KB, pero no fue

sino hasta 1987 que nació la iteración que daría en el clavo en la masificación con un

tamaño de 1,44MB, nacía el mítico disquete de Alta Densidad.

La influencia del disquete en nuestras vidas y en la evolución de los sistemas de

informática es innegable, basta darse cuenta cómo aún los desarrolladores de software al

día de hoy representan la función de guardado con un dibujo de un disquete de 3,5″. Sin

duda pasó a formar parte fundamental del subconsciente colectivo. Y al día de hoy, a

pesar que ya ningún fabricante lanza equipos con disqueteras incorporadas, aún tienen

una gran utilidad en ciertas tareas como el crear discos de arranque en caso de

emergencia en el sistema operativo, en el disco duro o un overclock mal hecho debido a

que la BIOS lo reconoce sin necesidad de driver alguno.

Page 226: Bicentenario BZ CHW

Pág 226 de 254

La efímera existencia de las unidades Zip Iomega

Unidad Iomega Zip 100MB (1994)

Un dispositivo que, aunque personalmente nunca tuve uno, sé que muchos usuarios acá sí

tuvieron, sobre todo los que tuvieron algún Apple Macintosh con una de estas unidades

incorporadas. Se trata de la unidad Iomega Zip, lanzaba en 1994 por Iomega en un intento

por reemplazar al disquete de 3,5″; podríamos decir que fue uno de los más fuertes

candidatos para la tarea, pero nunca lo logró.

La primera versión tenía una capacidad de 100MB, aunque más tarde saldrían versiones

de unos apetitosos, para la época, 250MB y 750MB. Paralelamente lanzaron el formato

JAZ, similar al anterior pero de 1GB de capacidad. Tanto el ZIP como el JAZ eran caros. Un

disco costaba casi lo mismo que el adaptador o drive externo en sí, y eso es mucho decir.

La masificación y caída de precios de las grabadoras y sus insumos CD-R y CD-RW, junto

con la también paulatina caída de precio del pendrive USB le dieron la estocada de muerte

a este muchacho que sólo quería hacerle la vida más fácil a los que se quejaban de la poca

capacidad y fiabilidad del disquete.

Page 227: Bicentenario BZ CHW

Pág 227 de 254

El disco magneto-óptico y el MiniDisc de Sony, dos caras de la misma moneda

¿Se acuerdan de los MiniDisk de Sony y sus reproductores de la época? Pues esos discos

eran del tipo magneto-óptico, también rival del disquete de 3,5″ y directo competidor del

Iomega Zip, de hecho éste último le robó una buena cuota de mercado.

Un disco magneto-óptico es en la práctica un disco óptico como lo es el CD, el DVD o el

Blu-ray, sin embargo, tiene una particularidad, tiene la capacidad de escribir y reescribir

los datos sobre sí mismo. Algunos podrán decir que el CD y DVD RW pueden hacer lo

mismo, pero no es lo mismo. El disco magneto-óptico graba la información de forma

Page 228: Bicentenario BZ CHW

Pág 228 de 254

magnética mediante un rayo láser y la lee como unidad óptica también mediante un láser.

Las capacidades más comunes fueron: 230MB, 640MB y 1,3GB.

La baja aceptación de este medio de almacenamiento no fue debido a que fuese un

sistema malo o poco confiable, sino que simplemente el tren CD/DVD le pasó por encima.

Para que se hagan una idea, una de las características de este medio es de hecho la

seguridad que provee para almacenar de forma segura, valga la redundancia, la

información. De partida no es posible borrar/modificar la información contenida mediante

un medio únicamente magnético, lo que los hace resistentes a este tipo de campos, a

diferencia de los disquetes. Los fabricantes aseguran que pueden almacenar datos por 30

años de forma segura. ¿Cuánto aguantaba un disquete bajo un uso normal pero sin

cuidarlo mucho? Ni un mes.

Por otro lado, una de las ventajas por sobre el CD/DVD es que unidades de grabación de

discos magneto-ópticos verifican la información después de escribirla, no así los primeros,

lo que lo hace un medio sumamente seguro. Pero la desventaja lógica de esto es que la

escritura demora tres veces más que los medios antes mencionados. Esto vuelve a

demostrar que no siempre lo mejor pasa a la historia, sino que lo que los intereses de las

grandes industrias dictan, sin importar si el medio logra almacenar la información de

forma segura o no.

Apogeo y decadencia del CD-ROM

CD-ROM

Page 229: Bicentenario BZ CHW

Pág 229 de 254

La llegada del CD supuso una pequeña revolución en lo que hasta entonces conocíamos

como almacenamiento portable. Ya no más cargar cajas y cajas de disquetes de un lado

para otro. Para serles honestos no recuerdo cuánto llegaron constando a nuestro país los

primeros CDs vírgenes (¿alguna idea entre los lectores?), pero ciertamente debe haber

sido una pequeña fortuna. Sí recuerdo que las grabadoras de CDs estaban por sobre los

CLP$200.000 algunas, las más baratas sus CLP$100.000. Ahora un grabador de CD/DVD

cuesta una ganga, es la evolución de la industria. Y para qué hablar de la velocidad de

grabación, con 2X a 4X eras afortunado si lograbas grabar un disco en menos de una hora

y eso si es que no fallaba la grabación entre medio.

Todos tenemos claros que el CD (y sus hermanos mayores) es un sistema de

almacenamiento bastante mediocre, ofrece nula verificación de escritura (sí, muchos

softwares lo hacen pero cuando se graba un CD-R y se encuentra una falla no es posible

sobrescribir el sector) y son muy delicados, cualquier maltrato puede provocarle una raya

condenando con ello a toda la información contenida a la muerte; pero como dijimos, los

intereses y la presión de la industria junto con la facilidad (cada vez mayor velocidad de

grabación) que se fue gestando a través de los años, fueron decidores.

¿Qué hubiese pasado si se llegaba a masificar el disco magneto-óptico, el cual tenía

capacidad igual o superior al CD? Ni idea, no soy adivino, pero ciertamente que otro gallo

cantaría y tendríamos nuestros datos mucho más seguros que el día de hoy con los

medios ópticos.

Page 230: Bicentenario BZ CHW

Pág 230 de 254

El rey que se niega a dejar el trono

DVD-RW

Y llegó el DVD. No creo que sea necesario explayarme mucho al respecto, todos sabemos

lo importante que fue la llegada del DVD grabable y las grabadoras a un precio

conveniente. Sus 4,7GB se convirtieron rápidamente en el medio de almacenamiento por

excelencia. Con la piratería en ciernes esto se hizo crítico, la facilidad de grabación de

grandes cantidades de datos y la copia 1:1 de las grandes producciones de la industria del

entretenimiento, películas, juegos, DVDs musicales, entre otros, jugaron un factor clave en

la masificación. Debe ser lejos el medio más odiado por la industria del entretenimiento.

Cuando el pendrive y las memorias flash salvaron al mundo

Pendrives USB

Page 231: Bicentenario BZ CHW

Pág 231 de 254

La llegada del pendrive marcó un punto de inflexión en la historia de los medios de

almacenamiento. La omnipresencia del puerto USB en cualquier computador del planeta

(y que tenga Windows XP o superior, Windows 98 requiere drivers para reconocer un

pendrive) y su gran durabilidad y resistencia al mal uso, lo ha hecho el medio elegido por

personas que desean transportar datos desde su casa a casa de algún amigo, a la

universidad o al mismo trabajo, o simplemente para almacenar diversos archivos de

importancia a modo de respaldo.

A pesar que un pendrive puede durar, todo esto en teoría, más de 20 años conservando la

información y ser escribible más de 1 millón de veces, los imponderables siempre pasan y

el pendrive no está ajeno a dejar de funcionar por algún motivo desconocido, pasando por

una alza de voltaje o simple falla interna, sobre todo de las unidades más antiguas.

Lo mismo para las memorias flash, son tantas que no vale la pena ir nombrando una a

una, pero son tanto o más importantes que un pendrive, ¿qué sería de nuestro gadget

favorito sin una SD/microSD, una MemoryStick, una compact Flash o una XD? Nada.

Conclusión

Como ven la evolución del almacenamiento extraíble es muy interesante y debemos tener

presente a todos los primeros pioneros, aquellos que abrieron la senda del desarrollo,

optimización y evolución.

La increíble evolución de la que hemos sido testigos todos estos años nos da cuenta de

una industria con una capacidad de reinventarse sorprendente. Lo más entretenido de

este “mundillo” tech es que nunca sabremos qué se nos viene mañana, la industria no

para de sorprendernos con nuevos avances y nuevas tecnologías.

Despidamos con honores, entonces, a los héroes caídos y saludemos con respeto y

admiración a las tecnologías que nos acompañan hoy en día y a los hombres que las

hicieron posible, es lo mínimo que se merecen.

Page 232: Bicentenario BZ CHW

Pág 232 de 254

(193) Mark Zuckerberg Por Francisco Luco

Cuando hablamos de CEO-Rockstars,

inmediatamente se nos viene a la mente la

imagen de personajes que, con sus

particularmente casuales formas de vestir,

no menos curiosas formas de expresarse,

una billetera bien abultada y gran

posicionamiento en los medios, a veces

lucen más como estrellas de farándula que

como presidentes ejecutivos en grandes

multinacionales de la industria tecnológica.

Si estiramos al extremo los elementos de la

fórmula anterior y agregamos unos escasos

26 años de vida, además del hecho de ser

dueño de una de las empresas más

valoradas de Internet (y probablemente la que esté más cerca de dominar el mundo de la

información, junto con Google), el resultado es digno de guión cinematográfico.

Desde luego, Mark Zuckerberg no es otro muchacho del montón, aunque su aspecto a

simple vista resulte engañoso. No habiendo alcanzado aún las tres décadas, su fortuna

estimada ya roza los 7 mil millones de dólares (habiendo superado posiblemente a Steve

Jobs). Por si fuera poco, alberga en su red las vidas privadas de 500 millones de personas,

todo lo cual lo lleva a hacer –o más bien “ser”– noticia muy frecuentemente.

La sabiduría popular profesa que nadie se hace rico de la noche a la mañana, pero esta

industria, con sus inspiradores casos de éxito, se empeña en demostrarnos que no

siempre es así. La corta pero frenética trayectoria de uno de los fundadores y actual CEO

de Facebook es otra contundente prueba en contrario de tal afirmación.

Una historia de traiciones

Curiosamente, mucha de la información que se encuentra por Internet respecto a la

historia personal de Zuckerberg radica menos en lo que él mismo pudiera haber dicho de

sí en alguna entrevista, que en los datos entregados por quienes fueran compañeros de

clase durante su vida de estudiante, todo lo cual contribuye a crear ciertas leyendas y a

veces hasta un delicioso caldo de cultivo para hacer más interesante el guión de alguna

película. Así, pareciera que, paradójicamente, Mark se reserva bastante bien su privacidad

Page 233: Bicentenario BZ CHW

Pág 233 de 254

–a pesar de que su perfil en Facebook sea completamente abierto–, llegando incluso a

declarar en alguna ocasión, a propósito del inminente estreno de The Social Network, que

no le hubiera gustado que se realizara ninguna película sobre él mientras estuviera vivo.

Es de suponer que quien nada hace nada teme, por lo que sus buenas razones tendrá el

joven empresario.

Genio para muchos, un sujeto de perfil psicopático para otros, la historia de Mark Elliot

Zuckerberg adquiere un cariz turbio al mismo tiempo que comienza el desarrollo de sus

primeros proyectos informáticos en la Universidad de Harvard, donde –al igual que varias

otras estrellas como Bill Gates– no alcanzó a terminar su carrera.

Descendiente de padres judíos –si bien insiste en que es ateo–, Mark no nació en Harvard.

Antes de entrar a la prestigiosa institución pasó por la Phillips Exeter Academy, en donde

llevó a cabo su primer trabajo importante: el desarrollo de Synapse Media Player, un

reproductor de medios que de forma inteligente aprendía de los hábitos musicales del

usuario. Esta última idea le interesó de sobremanera a la propia Microsoft, la que no sólo

intentó comprar la aplicación, sino reclutar a Zuckerberg para que formara parte de las

filas del tío Bill. Sin embargo, en una instancia de esas en que la suerte de la historia

pareciera depender de una sencilla decisión, Zuckerberg probablemente tomó la correcta

y se negó al ofrecimiento, para así dar inicio a sus estudios en Harvard. Será, entonces, en

un humilde dormitorio de esta institución (al fin alguien que no fundó su compañía en un

garaje) que Facebook verá la luz, gracias al talento de Mark y a la ayuda de unos

desconocidos Eduardo Saverin, Chris Hughes y Dustin Moskovitz, todos compañeros de

universidad.

Pero como probablemente sepan, Facebook no partió siendo la red social abierta e hiper-

conectada que hoy todos conocemos, sino un proyecto circunscrito únicamente –en un

principio– a la universidad de Harvard, permitiendo compartir datos sólo entre los

estudiantes de dicha institución y armar verdaderas redes de contacto. Sin embargo, a

poco andar y con la ayuda de Dustin Moskovitz, la idea adquirió vuelo y se tomó la

determinación de expandir Facebook a otras universidades, como Stanford, Columbia y

Yale, entre otras.

Luego, fue el inversionista de riesgo Peter Thiel quien inyectara unos cuantos y necesarios

millones de dólares en 2004, mismo año en que la empresa nace con todas las de la ley y

Zuckerberg inaugura la primera oficina de Facebook en Palo Alto, California, ciudad en que

permanecen hasta el día de hoy.

Ésta es, en síntesis, la parte bonita de la historia; la oficial, si se quiere. Sin embargo,

mucho se ha escrito también sobre la supuesta faceta oculta del relato, aquella

Page 234: Bicentenario BZ CHW

Pág 234 de 254

sumamente turbia en que aparecen acusaciones de robo intelectual y hasta hackeo. Es la

historia de compañeros que se volvieron enemigos, de un sitio web llamado ConnectU y

de cómo Zuckerberg terminó desembolsando 65 millones de dólares de su bolsillo

después de haber sido demandado.

Resulta que allá por 2003 Cameron Winklevoss, Tyler Winklevoss y Divya Narendra –todos

estudiantes de Harvard–, concibieron una suerte de red social para la universidad llamada

HarvardConnection, y que más tarde será conocida como ConnectU.

La leyenda cuenta que el trío contactó a Zuckerberg (famoso a esas alturas en la

universidad por haber desarrollado un sitio web que ya en aquel entonces le trajo

problemas disciplinarios, al vulnerar la privacidad de sus compañeros) para que llevara el

proyecto de ser una mera idea a un sitio web. Mark en un principio habría aceptado unirse

al proyecto. Sin embargo, con el transcurso de los meses –según expone Business Insider

en su investigación–, Zuckerberg habría dilatado el asunto, estancando a propósito su

avance y engañando a los creadores originales de la idea, dándoles a entender, primero,

que la sobrecarga académica le impedía dedicar tiempo al desarrollo de

HarvardConnection y, más tarde, que la idea no era viable.

Para sorpresa de todos, cierto día a principios de 2004 vio la luz thefacebook.com, red que

sospechosamente parecía guardar algún parecido con cierta idea original. Sobra decir

cómo deben haberse deformado en aquel entonces los rostros de Divya y los Winklevoss,

quienes habrían visto cómo fueron engañados por Zuckerberg y su proyecto plagiado.

Pero una vivencia como aquella obviamente no podía quedarse en caras largas, de

manera que una demanda en contra de Zuckerberg era cuestión tiempo. Al final en 2008,

y tras un largo proceso judicial, se llegó a un acuerdo por el cual el buen Mark Elliot pagó

Page 235: Bicentenario BZ CHW

Pág 235 de 254

65 millones de dólares a su contraparte. Justificados o no, el hecho es que ese dinero se

pagó.

Otro episodio que da luces sobre el retorcido carácter de de Zuckerberg radica en la

investigación periodística realizada por Nicholas Carlson, editor de Silicon Alley Insider,

quien señaló que durante el año 2004 nuestro buen amigo Mark se habría permitido el

lujo de hackear a unos cuantos compañeros de universidad/enemigos –entre quienes se

encontraban precisamente Cameron y Tyler Winklevoss–, adentrándose en sus correos

electrónicos e interviniendo sus sitios web, todo ello con el fin de boicotear a la

competencia y evitar la publicación de un artículo en que se revelaría la supuesta verdad

detrás de la creación de Facebook y el robo de ideas.

Sin embargo, los hermanos Winklevoss no han sido los únicos personajes que, reclamando

la propiedad de Facebook o parte de ella, han entablado acciones judiciales (si así fuera la

historia ya no sería tan interesante). Notable es también el caso de Paul Ceglia,

empresario y desarrollador neoyorquino que recién hace algunos meses afirmó que en

2003 suscribió un contrato con Zuckerberg, a través del cual aportaba 1.000 USD a un –en

aquel entonces– proyecto de red social, a cambio del 50% de su propiedad más un 1% de

interés por cada día que transcurriera hasta terminar la construcción del sitio web.

Sumando, tenemos que al final Paul Ceglia reclama un impactante 84% de la propiedad de

Facebook.

Lo concreto, sin embargo, es que muchas de estas historias se basan en entrevistas y

discusiones sobre las cuales no pesa aún una decisión judicial (salvo en el caso de la

litigación de Zuckerberg con los Winklevoss). Pero al final todas concuerdan y parecen dar

vida a un perfil interesantemente malévolo; el de un tipo egoísta, aprovechador,

dispuesto a atropellar a quien se le pare por delante con tal de triunfar, quizá ladrón,

ambicioso y déspota, incluso capaz de impedir que los usuarios de Facebook puedan

bloquear su perfil (medida que dice bastante de su carácter y resulta más bien

innecesaria, pues con o sin bloqueo Zuckerberg sigue siendo naturalmente el patrón de

fundo o el rey en su tierra). Todo esto hablaría, en definitiva, de un cuasi-psicópata, como

algunos usuarios suelen decir.

Para colmo, la historia que en unos días llegará a los cines no parece dejarlo en mejor pie

(si bien ya rondan por ahí teorías conspirativas sobre la coautoría del guión). Vaya uno a

saber si en realidad los hechos ocurrieron como muchos insisten en hacernos ver, pero

como el adagio reza, si el río suena es porque piedras trae.

Page 236: Bicentenario BZ CHW

Pág 236 de 254

Hacker pero no delincuente

Sea cual sea la verdad detrás de la historia de Facebook, lo cierto es que hoy Zuckerberg

es mundialmente conocido como el fundador y actual CEO de la compañía. Y desde esta

perspectiva, resulta interesante también analizar algo sobre el carácter su obra y, por qué

no, su carácter propio. Después de todo, difícilmente la biografía completa de un hombre

podría escribirse sólo sobre el relato de cuchillazos.

Aficionado al minimalismo y

declarado admirador de Google,

Mark Zuckerberg no tiene

reparos al caracterizarse a sí

mismo como hacker, siendo este

mismo rasgo la impronta que

quiso conferir a su red social.

Animado por este espíritu

rebelde, el propio Zuckerberg

afirmó en alguna ocasión que lo

que en realidad quiso hacer con

Facebook fue “construir una

cultura del hacker”,

reconociendo además que es parte fundamental de su personalidad el moverse rápido y

“romper cosas”, ya que en una descarnada competencia de talentos como la existente, es

sencillamente la compañía que cuenta con los mejores hackers la que finalmente obtiene

la victoria.

Su red social se funda sobre esa última premisa. Una vez más según palabras del propio

fundador, es parte integral de la cultura de Facebook el conceder espacios a un hacker

que podría ser tan bueno como 20 ingenieros, permitiéndosele trabajar rápidamente y

hacer cosas alocadas. Según él, la noción de hacking tiene que ver menos con el destruir e

irrumpir, que con el perder el miedo a romper cosas y hacerlas mejores.

Sin embargo, pareciera que a veces Zuckerberg también se toma aquello del “hacking” de

forma bastante literal, pues como decíamos anteriormente, se le ha acusado de haber

intervenido en 2004 las cuentas de varias personas, en el contexto de la historia previa

sobre ConnectU. Asimismo, en sus años mozos tampoco desperdició la oportunidad de

aprovechar los bugs de sistemas completos, llegando a dejar fuera de AOL Messenger a

Page 237: Bicentenario BZ CHW

Pág 237 de 254

unos cuantos compañeros, mientras otros perdían el tiempo irrumpiendo en

computadoras personales ajenas o buscando vulnerabilidades en algún software.

De todas formas, como corolario de su corta pero intensa trayectoria (y como buena

celebridad), al final el balance pareciera ser positivo. En este sentido, los rankings de

prestigiosos medios también aparentan ser lo suyo, pues Mark Zuckerberg tuvo el

privilegio de ostentar el primer lugar en la lista de Vanity Fair de “los 100 personajes más

influyentes en la era de la información” de 2010. Y todo por haber transformado al

pequeño “The Face Book” en lo que hoy conocemos.

La criatura

Los alcances de la empresa llevada adelante por Zuckerberg ya están a la vista de todos.

Para muchos el resultado más admirable seguramente sea la cantidad de millones de

dólares que –se estima– vale Facebook. Sin embargo, para varios otros –entre quienes me

incluyo– Facebook es más que la enorme pila de dólares que en pocos años hizo a uno de

sus creadores probablemente más rico que Steve Jobs. A Zuckerberg le va bien en cuanto

números, claro está, pero –de la misma manera en que Google podría darse el lujo de

perder o ganar poco con YouTube porque sus cartas son otras– sus mayores logros pasan

por una ganancia de poder y posicionamiento: la consolidación de, primero, una útil y

popular herramienta web, luego la instauración de una moda, verdadero fenómeno social

y hasta nuevos hábitos, y finalmente la consolidación de una gigantesca base de datos que

no tiene problema en perfilarse como un sólido candidato –compitiendo codo a codo con

otros monstruos del rubro– al honorífico título de “Gran Hermano”.

Facebook, a día de hoy, probablemente sea un poco de todo esto último. La evidencia

indica que la empresa crece a un ritmo imparable, habiendo necesitado mucho menos

tiempo para proyectar una tenebrosa sombra sobre Internet de lo que le ha tomado a

imperios como Google y, desde luego, a otros “más 1.0″ como Microsoft y Apple (sin

perjuicio de que haya que considerar también todos los riesgos y desventajas de competir

en este “mundo 2.0″). Sin embargo, es precisamente esta misma velocidad a a la que

traga uno de los factores determinantes del miedo que inspira esa criatura llamada

Facebook, sobre todo cuando nos desenvolvemos en un contexto histórico único, distinto

a cualquier cosa que haya ocurrido antes, en una sociedad de la información en donde

problemáticas como la privacidad pasan a ser el centro de la discusión hasta sociológica.

Page 238: Bicentenario BZ CHW

Pág 238 de 254

Probablemente se requiera de un artículo por sí solo para hablar del imperio que es hoy

Facebook, con todas las implicancias tanto negativas como positivas (si acaso existen) que

conlleva, más aún a propósito del eterno debate de la apertura de la información vs.

privacidad. Pero para alcanzar a mencionar algo sobre el tema, baste pensar en las

interesantes conclusiones que un investigador de Electrónica y Ciencias de la Computación

de Reino Unido expresaba hace algún tiempo, en el sentido de que mientras más se

difumina (o más bien se estira) la línea que divide lo público de lo privado, más difícil es

otorgar una protección jurídica eficiente a ese hoy casi inexistente derecho llamado

privacidad. Y es que, como el mismo investigador señalara, “a medida que se suben más

vidas privadas a la red, se están reduciendo las expectativas razonables”, bautizando el

fenómeno como “privacidad 2.0″ y del cual, qué duda cabe, Facebook es el precursor y

más emblemático baluarte, y Zuckerberg su padre.

Por último, si quieren que la cosa adquiera un cariz más tenebroso, casi distópico, para así

hacerse una idea de hasta dónde nos ha llevado lo que fuera concebido como una simple

e inocente red universitaria, baste pensar en la nueva función Places, la que convertirá el

hecho de que cualquier persona pueda etiquetarnos en fotografías comprometedoras sin

nuestro consentimiento en la última de las preocupaciones, pues Places permitirá que una

persona no sólo suba una fotografía de su amigo en un deplorable estado de ebriedad,

Page 239: Bicentenario BZ CHW

Pág 239 de 254

sino que además informe a todo el mundo, en tiempo real y a través de geolocalización,

que va caminando con él por algún barrio de dudosa reputación. Demás está decir que en

ambos casos es bien poco lo que el amigo podría hacer para no ver vulnerada su dignidad

y privacidad, salvo amenazar al simpático autor de la hazaña con una golpiza o, mejor aún,

subir fotografías de la misma índole.

Cuando la privacidad no existe… O eso nos quieren hacer creer

A propósito de privacidad en la red, la particular visión de Zuckerberg sobre el

controvertido tema no parece haber cambiado en los últimos años. Pero curiosamente sí

lo ha hecho la forma en que muchos usuarios alrededor del globo ven al actual CEO de

Facebook y el propio servicio.

A fines de 2008, cuando la cantidad de usuarios de Facebook apenas se empinaba hacia

los 125 millones, siendo aún un humilde directivo y no habiéndose hecho merecedor

todavía de tanta controversia y reconocimiento mediático, Zuckerberg declaraba:

No sentimos ninguna presión (…) Simplemente vamos a hacer lo mejor que podemos en

términos de ser usados por la mayor cantidad de personas en todo el mundo.

Frente a ese políticamente correcto discurso –que no es sino el mismo proferido hoy en

día–, no pocos usuarios pensaron que las intenciones de Mark eran tan loables como las

de su obra de caridad más cercana, que le faltaba bastante para llegar a pensar siquiera en

anteponer las ganancias e intereses comerciales ante el mejoramiento de su servicio, o

que quedaba un largo trecho por recorrer como para poder compararse con otros CEO’s

de la industria en un índice de maldad. La pregunta que cae de cajón es si hoy todos

pensarían lo mismo.

Más aún, respecto a lo abierto que Zuckerberg quiere que sea el mundo, ninguna duda

dejan las declaraciones emitidas a inicios de este año, en las que el CEO pretensiosamente

afirmó que la gente ya no quiere privacidad y que, por el contrario, se siente mucho más

confortable compartiendo información y siendo lo más abierta posible, todo lo cual se

transformó en una “norma social” que él fue capaz de prever.

Se trata de una visión sobre la que, por cierto, deberíamos sospechar si damos por

verídicos los registros de una conversación de mensajería instantánea que difundió el

previamente citado Business Insider. En los polémicos historiales, Mark Zuckerberg llama

“dumb fucks” a los estudiantes de Harvard y usuarios de Facebook que le habrían

confiado su información privada, cuando apenas tenía 19 años y se jactaba de disponer de

Page 240: Bicentenario BZ CHW

Pág 240 de 254

más de 4.000 mails, correos, direcciones y demás información privada, ofreciendo a su

interlocutor ayuda siempre que necesitara saber algo sobre cualquiera en Harvard.

Desde luego esta “particular” visión, que supondría que el hombre ha de despojarse de

algo tan propio de su naturaleza como lo es la privacidad –ese sagrado derecho a

mantener su vida en reserva y lejos del conocimiento de terceros–, ha cosechado una

horda de detractores a lo largo y ancho del mundo, tanto en la misma red como en la

sociedad civil y hasta en tribunales.

De cualquier manera, es evidente que Zuckerberg no puede hacer oídos sordos a las

exigencias de una comunidad que, le parezca paradójico a algunos o no, demandan mayor

privacidad en una red concebida precisamente como un espacio para ventilar su vida

privada.

Eso sí, no nos confundamos, señores. El que Facebook preste utilidad como una

plataforma para compartir con el resto de la comunidad fotos, vídeos, tiempo que podría

emplearse en tareas útiles y hasta pensamientos, no implica que sus usuarios deseen

mostrar tal información a cualquier persona, ni menos que aquella pueda ser

comercializada para efectos publicitarios. De esta forma, me parece que quienes ven un

oxímoron al incluirse los términos “Facebook” y “privacidad” en la misma frase están

siendo, cuanto menos, algo simplistas.

Decía antes que Zuckerberg, por muy obstinado y majadero en sus argumentos que

pudiera parecer, no puede negarse a lo que sus usuarios piden, aunque ello

probablemente tenga que ver más con el bienestar emocional y financiero de los

inversionistas de su empresa que con mantener alegres a sus usuarios y hacer un mundo

más abierto, interconectado y mejor, con conejitos saltando en la pradera y un arcoiris en

el horizonte. Sea cual sea la razón, el hecho es que muchas veces los usuarios pusieron el

grito en el cielo, los medios se hicieron eco de ello, y a Zuckerberg no le ha quedado más

remedio que revisar las polémicas políticas de seguridad y privacidad del sitio, llegando

incluso, en un par de ocasiones, a implementar nuevas configuraciones y no menos

discutidos reajustes.

Hace un par de meses la demanda por un mejoramiento en las configuraciones de

privacidad y seguridad alcanzó su clímax. Una buena parte de los usuarios veía el gran

meollo del asunto en lo torcido y complicado de dichos apartados, aunque a decir verdad

no pareciera que fuera el control de los usuarios sobre tales ajustes el problema de fondo.

De todas formas Zuckerberg se vio presionado a publicar una columna en el The

Washington Post refiriéndose al tema, reiterando algunos lugares comunes (como la

visión de la empresa y su deseo por hacer del mundo un mejor lugar, más abierto y

Page 241: Bicentenario BZ CHW

Pág 241 de 254

conectado), anunciando lo que en un pocos días se concretaría en una simplificación de

las configuraciones de privacidad y enfatizando algunos puntos claves de la política de su

red social, como que supuestamente no entregan información personal de los usuarios a

otras personas o servicios sin su consentimiento, ni la venden a avisadores. Pero estas

directrices se encuentran sujetas a interpretación, claro está, e investigaciones han

demostrado que si bien no se entrega “información personal” a los avisadores, éstos sí

obtienen, por ejemplo, los nombres, números de ID y –hasta antes de que se realizaran

estas modificaciones y Mark Zuckerberg se viera entre la espada y la pared– datos como

lugar de residencia u ocupación. Después de todo, que esté en las políticas de privacidad

no significa que se respete.

Si no les molesta seguir leyendo ejemplos de cómo la absurda obstinación de Zuckerberg

“le ha pasado la cuenta”, lean sobre las numerosas demandas que se han entablado en

contra de Facebook alrededor del mundo por problemas relacionados con el manejo de

información privada, como en Alemania y en Canadá (mientras que en la nación germana

una asociación de usuarios demandó por la utilización de información privada de terceros

–es decir gente que ni siquiera se había registrado en Facebook–, en el país del querido

Justin Bieber Facebook ha debido encarar una demanda por vulnerar sus propias políticas

de privacidad, comerciando con la información privada de sus usuarios).

500 millones de amigos no bastan

El carácter y las curiosas concepciones de Zuckerberg sobre lo humano y lo divino nos

sirven de introducción para el último punto, referido a las innovaciones que Mark

introdujo con Facebook Connect y demás características anunciadas durante la

conferencia f8 de este año.

A muchos les podrá parecer mórbido que una sola persona albergue en sus manos

innúmeros bits de valiosa información (no crean que sólo de mensajes como “fui al baño

hace 5 minutos” se alimenta este hombre), logrando que 500 millones de personas

ingresen a una misma red social –o simple sitio web–. ¿Y si Facebook ahora no fuera tan

sólo un sitio web? ¿Y si el servicio se propagara por toda la red?

Seguramente no serán pocos a quienes les parezca baladí la existencia del botoncito “me

gusta” en una tienda deportiva o un sitio de cine. Sin embargo, para muchos la sola

posibilidad de ingresar a otros sitios con las credenciales de Facebook ya es motivo de

desconfianza. Por supuesto que mucho más temor inspira el que toda Internet se plague

de botones sociales y se integren API’s del servicio social por doquier.

Page 242: Bicentenario BZ CHW

Pág 242 de 254

Zuckerberg señaló expresamente que quería hacer de Internet un lugar más social. Desde

mi enfoque personal, se trata en cambio de sólo un eufemismo que apenas con algo de

análisis podría traducirse en “queremos que para participar activamente de este

maravilloso universo llamado Internet debas utilizar nuestro servicio”. Una prueba que me

permite reafirmar el argumento son las propias declaraciones de Mark, quien alguna vez

señaló “350 millones [de usuarios] es bueno, pero cuando lo comparas con todos en el

mundo es sólo un comienzo”. Más literal y autoexplicativo imposible.

Sin embargo, para algunos la imparable ambición –sana o no– de Zuckerberg no se queda

en su red social ni en la Red, pues esta misma semana se ha hecho eco fuertemente en la

blogósfera el rumor de que Facebook se encontraría ad portas de lanzar su propio

teléfono, el cual, cómo no, operaría un sistema propio basado completamente en la red

social.

Si bien la propia compañía desmintió completamente los rumores, declarando a través de

un portavoz que lanzar un teléfono no se enmarca dentro de lo que “ellos hacen”, el

medio impulsor de la información reafirmó con fuerza que sus fuentes son confiables y

probablemente sólo se esté llevando a cabo una artimaña o bluff por parte de Mark

Zuckerberg y compañía. En este sentido, conviene recordar que tras lanzar Android,

Google también afirmó que era falso que estuvieran trabajando en su propio teléfono, y

ya ven en lo que terminaron.

Page 243: Bicentenario BZ CHW

Pág 243 de 254

Conclusión… Y lo que viene

En 1999 el docudrama Pirates of Silicon Valley retrataba –en las actuaciones de Noah

Wyyle y Anthony Hall– las historias detrás de quienes hubieran erigido los omnipotentes

imperios de Apple y Microsoft, respectivamente. Hoy, en vísperas del estreno de The

Social Network, no ha faltado quien haya realizado una comparación entre los perfiles de

Zuckerberg y Jobs y entre ambas películas, afirmado que la segunda es para nuestros días

lo que fuera Pirates of Silicon Valley para fines de la década de los ‘90. Y algo de parecido

debe haber entre los protagonistas también.

Asimismo, en algún artículo anterior mencioné que la mejor forma de reconocer un

evento o personaje que resulte particularmente relevante o interesante para una

comunidad, es observando si acaso ha inspirado alguna película; de suerte que el tema no

es poca cosa. Zuckerberg se ganó dicho honor y junto con ello una buena cantidad de

biografías no autorizadas (ya lo querrá cualquiera que tenga 26 años), además del

privilegio de aparecer hasta en Los Simpsons, South Park y en las noticias día por medio.

El anteriormente mencionado largometraje, a cargo del reconocido David Fincher –

director de Fight Club y The Curious Case of Benjamin Button–, se estrenará oficialmente

el 1 de octubre, y se sabe que esboza un retrato poco feliz de Zuckerberg, exponiéndolo

casi como un individuo de personalidad maniática que llegó a ser lo que actualmente es

motivado por fama, dinero y sexo, ratificando así la tesis del CEO-Rockstar.

Sea cierto o no lo que se muestre en cines en algunos días más, no hay que perder de vista

que la increíble base de 500 millones de usuarios (como referencia Google maneja 800

millones, y Zuckerberg apuesta a superarla) se ha formado en apenas un lustro, de

manera que con esta curva de crecimiento, y a menos que tenga lugar alguna metida de

pata irreversible y de proporciones inconmensurables, pronto nos veremos enfrentados a

un verdadero imperio de la nueva era en Internet, sea para bien o mal, y haya sido su

principal fundador un ángel o un… tipo malo.

En este contexto vale la pena –sin ánimo alguno de desacreditar la exitosa y admirable

carrera de quien inspira este artículo–, si no dudar sobre la utilidad del invento y de la

pertenencia al mismo, al menos meditar o reflexionar sobre lo que el solo formar parte de

esta gigantesca comunidad significa.

Al final, con esas masas de información fluyendo diariamente, y a la luz de las polémicas

que siguen surgiendo día tras día, buenas razones para desconfiar hay, aunque el CEO

fuera el mismísimo Jesús.

Page 244: Bicentenario BZ CHW

Pág 244 de 254

(200) La llegada de los tablets Por Juan Pablo Oyanedel

Sin duda el panorama de la computación actual ha cambiado. Y como artículo final de la

serie Bicentenario en CHW, más que hablar del pasado esta vez hablaremos del futuro, en

un año 2010 que hace coincidir la celebración que nos convoca junto con el aterrizaje

definitivo de un concepto que pese a no ser nuevo, al fin ha captado la atención de los

fabricantes en todo el mundo, quienes este año tomaron acuerdo para sentar las bases de

lo que será el modelo que de seguro nos acompañará por varios años más: los tablets.

Dibujo de 1968 del primer concepto de tablet, el Dynabook

¿Qué es un tablet?

Para quienes vienen recién despertando después de 20 años de preservación criónica, vale aclarar los aspectos que hoy en día definen lo que es una computadora como tableta.

Primero que todo, las diferencias obvias

con el PC de escritorio son el tamaño y la

forma: una sola pieza rectangular, delgada

y con tamaños que varían entre las diez y

Page 245: Bicentenario BZ CHW

Pág 245 de 254

cinco pulgadas, con una pantalla táctil en lugar de mouse y teclado, y la CPU junto con los

demás componentes electrónicos integrados dentro del mismo dispositivo, al igual que lo

hace un teléfono móvil o un notebook, logrando un solo aparato que cumple todas las

funciones esperadas en una computadora.

El desarrollo de los estándares que en el 2010 definen un tablet son el resultado de un

largo camino que revisaremos más adelante, así que ahora nos limitaremos a decir que

actualmente se espera a que se cumpla con lo siguiente:

• Procesador x86 para sistemas operativos propios de un PC de escritorio (Windows 7, Ubuntu), o bien una CPU ARM para sistemas operativos móviles (Android, iOS 4, webOS, QNX, etc)

• Pantalla táctil de entre 5 y 10 pulgadas aproximadamente, pues se prioriza la portabilidad del aparato.

• Larga autonomía energética a través de una batería integrada. • Hardware interno tal como el de una computadora: CPU, memoria RAM,

almacenamiento vía Flash NAND o SSD, chip para gráficos, etc. • Conectividad a Internet tanto por WiFi como por redes móviles celulares vía 3G. • En el caso de sistemas operativos móviles, acceso a una tienda de aplicaciones en

línea para conseguir software adicional al preinstalado. Si se trata de un tablet x86, la disponibilidad de programas es la misma que en los PCs tradicionales.

Page 246: Bicentenario BZ CHW

Pág 246 de 254

Una sola idea, dos caminos diferentes

Identificamos así dos grandes corrientes basándonos en la CPU que se decida utilizar: x86

o ARM.

La primera ofrece la ventaja de ser compatible con todo el software que popularmente se

ha usado durante los últimos 20 años en la computación tradicional, pues el soporte para

sistemas Windows o Linux es nativo al tratarse simplemente de una computadora normal,

pero miniaturizada y con pantalla táctil.

Por otro lado, al usar ARM se aprovechan las ventajas de una arquitectura que está

diseñada desde su base para lograr una mayor eficiencia energética y un buen

rendimiento, la cual se enfoca casi únicamente al sector de los dispositivos móviles, como

lo son los tablets.

Es precisamente este punto el que ha causado mayor controversia al momento de

ponerse de acuerdo para fijar lo que será un tablet: ¿Queremos un dispositivo móvil por

definición, o una computadora tradicional reducida en tamaño?

ARM y x86 ofrecen la diferenciación perfecta y necesaria para marcar esta disyuntiva, y si

bien aún no se logra un consenso total en la industria acerca de cuál es el formato más

conveniente a utilizar, sí se está apreciando una tendencia para asumir que un tablet es un

aparato móvil, por lo que la utilización de un chip basado en ARM y un sistema operativo

móvil como Android es la opción adecuada a seguir, en lugar de poner “un elefante a

dieta” y usar CPUs x86 con Windows encima; una plataforma que hasta el momento no es

del todo amigable para su uso con los dedos, en contraste con Android o iOS 4 que son

hechos desde su raíz para ser movidos en forma táctil.

Page 247: Bicentenario BZ CHW

Pág 247 de 254

De esta manera, vemos cómo un tablet no es más que la evolución necesaria para lo que

es llevar un computador al factor más pequeño posible sin comprometer espacio de

trabajo, continuando un camino que comenzó con los ordenadores utilizando salones

completos, para luego pasar a PCs de escritorio,notebooks, netbooks, smartbooks, y ahora

tablets.

Pero este paso en la transformación tiene un aspecto esencial y que lo diferencia de

cambios que hemos vivido anteriormente, puesto que por primera vez nos estamos

moviendo desde el uso del mouse y teclado físico a una interfaz controlada vía una

pantalla táctil a través de los dedos en forma directa, cambiando el paradigma presente

por casi cuarenta años.

Sin embargo, la idea de mover la computación a una forma táctil no es nueva, y muchos ya

habían pensado en cómo ejecutar este cambio durante décadas anteriores, la gran

mayoría sin éxito comercial.

Una breve historia de los tablets

Antes de hablar de tablets, en la antigüedad el tema de moda era la computación vía un

lápiz. Se querían combinar los libros con la tecnología, y en las primeras etapas de

desarrollo nació una obsesión por crear máquinas que pudieran interactuar con lápices

estilo stylus, con la facultad de reconocer el texto escrito manualmente y pasarlo a digital,

pues se pensaba que ésta era la forma para escapar del mouse y teclado.

Así, en 1957 Tom Dimond muestra el Styalator, un sistema de entrada que era una tableta

capaz de captar lo que se escribía en ella con un lápiz stylus, lo que servía para que un

software de reconocimiento pasara las letras manuales a ceros y unos en una

computadora a la que era conectado el periférico. Ocho años más tarde, durante 1965,

aparece el RAND Tablet, utilizando el mismo concepto del Styalator.

Page 248: Bicentenario BZ CHW

Pág 248 de 254

RAND Tablet

Pero más importante aún, en 1968 y bajo el alero del Xerox PARC, Alan Kay creó un

concepto llamado Dynabook, un tablet que jamás pudo ser construído debido a los

problemas técnicos en hardware que se presentaban para la época, puesto que éste era

muy delgado y sin duda demasiado futurista. El Dynabook estaba enfocado para su uso

educacional en niños, y esta pasión años más tarde llevaría a Alan Kay a involucrarse en el

proyecto One Laptop Per Child (OLPC).

Dynabook

Podría decirse que este concepto es el primero en acercarse a lo que hoy conocemos por

tablet, pues su creador describe lo que según él es:

Page 249: Bicentenario BZ CHW

Pág 249 de 254

Un panel que cubre toda la extensión de la superficie del aparato. Cualquier disposición

del teclado que uno desee puede ser mostrada en cualquier parte de la pantalla. Cuatro

sensores de deformación montados en las esquinas del panel registrarán la posición de

cualquier toque.

¿Suena familiar? Alan Kay lo pensó en extenso en su documento llamado “A Personal

Computer for Children of All Ages“, donde se detalla lo imaginado para un tablet allá por

1968 en el Xerox PARC.

Más tarde, un grupo de compañías bajo el nombre de Pencept se encargaría de

desarrollar aún más el concepto de computación vía lápiz stylus (o pencomputing) con el

PenPad, reemplazando definitivamente el teclado por el reconocimiento de escritura

manual.

PenPad 200

Pero sería la compañía GRiD Systems Corporation la primera en ofrecer una computadora

realmente portable durante el año 1989, con el llamado GRiDPad ofreciendo una pantalla

monocromática táctil que reconocía un lápiz stylus. El GRiDPad modelo 1910 incluía una

CPU NEC V20 corriendo a 8MHz, un disco duro interno de 20MB y un puerto PCMCIA v1.0.

Page 250: Bicentenario BZ CHW

Pág 250 de 254

GRiDPad

Así, otros intentos surgieron los años posteriores, utilizando diferentes sistemas

operativos como MS-DOS en 1989, PenPoint OS de GO Corporation que fue usado en

varios dispositivos de IBM a principios de los noventa, Pen Windows, que se trataba de

una serie de complementos para Windows 3.11 y Windows 95 que los ayudaban a

funcionar mejor en un dispositivo con entrada Stylus, y finalmente Windows XP Tablet PC

Edition.

ThinkPad 700T

Vale destacar lo que IBM mostró con el ThinkPad 700T, usando una pantalla de 10.1

pulgadas a dos colores, CPU Intel 386SX/20, y hasta módem incluído, bajo el alero del

sistema operativo PenPoint OS recién mencionado, que era la apuesta de GO Corporation

para manejar dispositivos capaces de reconocer escritura manual.

También hay que señalar al Apple MessagePad bajo Newton OS, una apuesta independiente de la compañía para lograr también computación basada en lápices stylus. Porque en 1986 el CEO de Apple John Sculley comenzó el desarrollo de este aparato, el que sirve como ejemplo perfecto para mostrar cómo evolucionó la industria a partir de su lanzamiento el año 1993.

Page 251: Bicentenario BZ CHW

Pág 251 de 254

Desde pencomputing a PDAs hasta tablets

Mucho hemos hablado del pencomputing, ¿pero qué tiene que ver esto con los tablets? Sigamos al Apple MessagePad (más conocido como Newton) para entender mejor.

Este dispositivo se enfocó en desarrollar el

software necesario para reconocer la

escritura, siendo pensado inicialmente en los

años 80 como un tablet hecho y derecho. Sin

embargo, con su lanzamiento en 1993 y

reflejando la tendencia que necesitaba en ese

entonces la industria, estos esfuerzos fueron

utilizados en un nuevo formato llamado

Personal Digital Assistant (PDA), el cual tenía

un tamaño más reducido que diez pulgadas.

El MessagePad entonces poseía una CPU ARM

610 RISC corriendo a 20MHz, 640kB de

memoria RAM y una pantalla en blanco y negro táctil para un stylus. Este formato luego

sería ampliamente adoptado por otros fabricantes, masificando por primera vez

la computación portátil en un formato cercano al de los tablets actuales, pues la idea era

tener un tamaño pequeño, con pantalla táctil y bajo un sistema operativo móvil desde su

nacimiento, como lo era Newton OS y PenPoint OS.

Así, durante esta década compañías como Palm y su modelo Pilot se encargaron de

masificar un concepto nacido bastante tiempo atrás, con Dell, Sony y otros siguiéndole los

pasos y haciendo evolucionar estos dispositivos con pantallas a color y mejores

prestaciones en hardware y software.

El cambio desde PDAs a tablets podría

definirse por convención en el 2001, con

Bill Gates hablando en el evento Comdex

de ese año y presentando diversos

prototipos de tablets de Compaq, Acer,

Fujitsu y Toshiba, usando el nuevo

Windows XP Tablet PC Edition en

reemplazo de Pen Windows. Allí, el

mandamás de Microsoft declaró que él ya

Page 252: Bicentenario BZ CHW

Pág 252 de 254

usaba un tablet como su computadora de uso diario, diciendo además una frase que ha

pasado a la historia:

(Un tablet) Es un PC que virtualmente no tiene límites – y de aquí a cinco años yo predigo

que va a ser la forma de PC más popular vendida en Estados Unidos.”

De sistemas operativos móviles a Windows y viceversa

Claramente la predicción no sucedió como Bill Gates decía, pero este evento el 2001 sirvió

para que el término “Tablet PC” se popularizara, sentando además las bases para lo que

sería la segunda corriente de tabletas: aquellas que usan un sistema operativo basado en

x86, escapándose al trabajo que se estaba haciendo previamente con Newton OS y

PenPoint OS, donde la idea era desarrollar software especializado para un aparato móvil,

que pasó de ser ideado desde un tablet hasta mutar a un PDA.

Siguiendo en el 2000, más aparatos nacieron usando x86, sentando las primeras bases

reales en la mente de las personas acerca de este nuevo formato de computación portátil.

Tablet Compaq

Pero el funcionamiento y experiencia de uso no lograron convencer a la gran mayoría de

las personas que veían frustrante usar un complejo sistema operativo de escritorio en un

pequeño tablet con menores prestaciones técnicas, lo que en definitiva desencantó al

público y no permitió que las ventas despegaran como se deseaba.

Page 253: Bicentenario BZ CHW

Pág 253 de 254

El concepto reposó por años, siempre con un deseo oculto en la industria por revivir este

formato de la manera correcta y llevarla al fin a manos de la mayor cantidad de personas

posibles, cambiando en definitiva el modo en que todos haríamos computación y

mezclando en una obra de arte final los esfuerzos que por décadas se habían estado

poniendo a prueba.

¿Qué nos quedó? Se rechazó el reconocimiento de escritura manual y el lápiz stylus, pero

se rescató la pantalla táctil, el formato de pequeño tamaño y el uso de sistemas

operativos móviles desde su creación.

Por otro lado, y como fue explicado anteriormente, la corriente iniciada por Bill Gates

sigue presente, con modelos x86 bajo Windows que apoyados en la factibilidad técnica de

llevar más memoria RAM y mejores procesadores a un tablet, buscan transportar la

experiencia completa desde el escritorio a los dedos.

El año 2010 y lo que viene

Apple iPad

Tomando todo esto, sería finalmente Apple quien daría el primer paso en el mercado

masivo presentando al iPad, que usa el SO móvil iOS 4 con una pantalla multitáctil en una

forma pequeña, delgada y liviana, basándose en el iPhone y encontrando allí la fórmula

necesaria para traer finalmente los tablets a todo el mundo, reemplazando de una vez por

todas al mouse y teclado físico.

Page 254: Bicentenario BZ CHW

Pág 254 de 254

Este impulso y éxito de ventas por parte de Apple haría que el resto de los fabricantes reconociera el formato de una vez por todas, mostrándose durante este año 2010 innumerables modelos utilizando software Android, como el Samsung Galaxy Tab. Y pese a que el mercado está recién naciendo, cada día vemos propuestas más interesantes todavía, siendo éste el caso del PlayBook de RIM usando un software llamado QNX, basado en Unix pero enfocado a la portabilidad.

RIM BlackBerry PlayBook

De la misma forma está renaciendo la idea de usar Windows, con el actual CEO de Microsoft adelantando que falta por ver modelos de diversas compañías grandes usando Windows 7 y con su mayor exponente en el aún no estrenado HP Slate, marcando así la línea entre ambos tipos de productos.

¿Cuál corriente triunfará? ¿O tendremos un ecosistema con ambas? Sólo el tiempo dirá,

pues nos encontramos en un momento donde este nuevo paradigma está recién

madurando en forma definitiva y queda por ver si los tablets terminan por conquistar al

público y reemplazar parcialmente a los notebooks y desktops para quienes lo necesiten.

Planteamos la situación entonces, a ver si en cien años más para el “tricentenario” leemos

este artículo nuevamente con la respuesta a esta interrogante: ¿Cambiaron los tablets la

forma de entender la computación entre la población?