BUSCAR       RIO NEGRO    WEB     
TITULOS SECCIONES SUPLEMENTOS OPINION CLASIFICADOS SERVICIOS NUESTRO DIARIO PRODUCTOS
  podio
RURAL
DEBATES
GUIA OCIO
eH! HOGAR
ESPECIALES ON LINE
ECONOMICO
CULTURAL
ENERGIA
 
Domingo 09 de Septiembre de 2007
 
 
 
>>Ediciones ANTERIORES
   
  CIENCIA Y TECNOLOGIA
  El microprocesador, la gran revolución del siglo XX
La creación del primer microprocesador, en 1971, abrió el camino para las
comunicaciones, la generalización de la informática y la explosión en la
industria del entretenimiento. Intel sólo pretendía dar más rapidez a una
calculadora, pero facilitó la eclosión de multinacionales como IBM y
Microsoft, que han modificado la actividad empresarial de las últimas décadas.
 
 

Click para ver más fotos

Corría 1971 cuando Intel creó el primer microprocesador. Era capaz de hacer unos 6.000 cálculos en un solo segundo. Quedaba despejado el camino hacia los ordenadores y la era de internet. Desde entonces todo el mundo se ha hecho familiar con el nombre de Silicon Valley y se han diseñado miles de modelos de ordenadores, cada cual más sofisticado. Intel factura hoy 35.000 millones de dólares (26.000 millones de euros) anuales en microprocesadores y demás artículos relacionados. Cada año invierte unos 6.000 millones en investigación y desarrollo y emplea a unas 100.000 personas. Y sigue sumando. Intel no se ha limitado a operar en la meca de la tecnología. En los años ochenta desembarcó en India y en China, integrando sus plantas en ambos países dentro de sus proyectos más importantes. Además, la compañía ha contratado a investigadores en países tan diversos como Filipinas, Irlanda o Rusia.
Intel había nacido en 1968, cuando los emprendedores Gordon Moore y Robert Noyce dejaron su trabajo en la empresa Fairchild Semiconductors y se unieron para crear una compañía a su medida. Comenzaron creando semiconductores y chips. Terminaron por establecer un postulado: la Ley de Moore.
El enunciado es sencillo: “El número de transistores de un circuito integrado por los mínimos componentes se duplica aproximadamente cada 24 meses”. Esto significa que cada dos años los creadores de circuitos son capaces de integrar más y más transistores, doblando su capacidad. De ahí la revolución en la tecnología en los años recientes, precios cada vez más bajos y ordenadores más rápidos y potentes. De hecho, en el último cuarto de siglo la capacidad de transistores en un microprocesador se ha incrementado más de 3.000 veces.
A la hora del bautizo, los fundadores pensaron en darle a su empresa un nombre compuesto, formado por sus dos apellidos: Moore Noyce. Sonaba gracioso, ya que pronunciadas en inglés estas dos palabras significan “más ruido” (“more noise”). Al final, por aquello de que las compañías deben tener una imagen seria, se inclinaron por unir las primeras letras de los nombres Integrated Electronics. Acababa de nacer Intel.
En los setenta nadie veía el verdadero potencial de la informática. El microprocesador 4004 nació para vivir en una calculadora. Y el nacimiento de la PC estaba aún relativamente lejos. Según comentaba recientemente el presidente de Intel, Emeritus Moore, “a mediados de los setenta alguien me vino con una idea de lo que básicamente sería la PC. La idea era que podíamos colocar un procesador 8080 con un teclado y una pantalla y venderlo en el mercado doméstico. Yo pregunté: ‘¿Para qué serviría?’ y la única respuesta fue que las amas de casa podrían llevar las cuentas desde ahí. Personalmente, no vi nada útil en esta idea, así que ni lo pensé dos veces”. Ni siquiera en Intel son profetas en su tierra. “Al rebajar el tamaño y el precio, Intel abrió el camino para llegar a los ordenadores tal y como los conocemos hoy”, asegura el historiador David K. Allison.
Pero con el tiempo llegó la primera PC, el primer ordenador personal. Y con el tiempo, el dominio de la empresa IBM en el mercado. Fue precisamente IBM el que elegiría a Intel para crear los microprocesadores de sus primeros modelos.
El 3 de noviembre de 1962, el diario “The New York Times” publicó por primera vez el término “computadora personal”, donde el padre del primer ordenador de uso comercial, John Mauchly, decía que no había “razón alguna para pensar que la niña o niño medio no puede ser el dueño de una computadora personal”.
Todo un visionario. Mauchly murió en 1980. Pero hubiera visto su sueño confirmado al apreciar a los menores (y no tan menores) jugando horas y horas con sus consolas de videojuegos.
Con el microprocesador de Intel todo se hizo más sencillo: los cálculos aritméticos y lógicos se agilizaron. Las funciones de control ya no ocupaban decenas y decenas de circuitos sino uno solo, de silicona y relativamente fácil de fabricar.
“Nuestros investigadores han logrado unos hitos clave y maravillosos con los avances en el rendimiento informático en paralelo y con múltiples núcleos”, afirma Justin Rattner, investigador y director de tecnología en Intel. “Estos avances indican un camino en el futuro cercano – añade– para redefinir lo que todos esperamos de nuestros ordenadores y de internet tanto en nuestros hogares como en las oficinas”.
Los historiadores de la informática llevan décadas debatiendo cuál fue el primer ordenador personal. Hay quien dice que fue el Altair 8800, puesto en venta en diciembre de 1974 por la compañía MITS de Nuevo México.
Este ordenador llevaba un microprocesador Intel 8080, no tenía teclado y costaba entre 400 y 500 dólares. Dos desconocidos estudiantes de Harvard –Bill Gates y Paul Allen– leyeron sobre este nuevo producto, se hicieron con un modelo y diseñaron una versión del lenguaje de programación Basic para el Altair. Los dos se mudaron a Nuevo México y crearon una nueva compañía: Micro-Soft.
Allá por 1978, Intel vendió el 8088 a IBM para que lo instalara dentro de sus recién creados ordenadores personales, de un tamaño minúsculo comparados con sus antecesores. La revista “Fortune” no lo pensó dos veces, intuyó el filón y nombró a Intel “un triunfo de los negocios en los años setenta”.
Los años pasaron, la técnica se perfeccionó y, en seis años, Intel llegó a vender 15 millones de procesadores para otros tantos millones de ordenadores a lo largo y ancho del mundo. Más adelante llegarían el color, la capacidad de operar varios programas a la vez y la velocidad de vértigo.
Al final de los ochenta, Intel permitió “el hecho de tener un ordenador con pantalla a color por vez primera y hacer edición en el escritorio a una velocidad importante”, cuenta David K. Allison, historiador de tecnologías en el Museo Nacional de Historia Americana.
1993 fue un año con algunas fotos para la historia. Checoslovaquia se dividió, Bill Clinton se mudó a la Casa Blanca y Yaser Arafat e Isaac Rabin se dieron la mano en una imagen histórica en Washington. También fue un año revolucionario para Intel, que creó el microprocesador Pentium. Es curioso que en ese mismo año IBM anunciara pérdidas por casi 5.000 millones de dólares, las más abultadas que jamás había experimentado una compañía americana hasta la fecha. Aun así, con el Pentium los ordenadores se adaptaron a la realidad: veloces como la vida misma, con sonidos naturalistas e imágenes que nada tenían que envidiar a las fotografías.
El primer Pentium, de 32 bits, contenía 3,3 millones de transistores, el triple que su antecesor, el modelo 80486. De la fotografía el Pentium permitió el paso al video; de éste, a la videoconferencia y de ahí, a las comunicaciones en tiempo real, la realidad virtual y el universo multimedia. Intel fue mejorando sus Pentium hasta que el modelo número 4 se vendió como el máximo de la perfección. “Si la velocidad de los coches hubiera aumentado igual en el mismo tiempo, ahora podríamos conducir desde San Francisco a Nueva York (4.125 kilómetros) en unos 13 segundos”, anunció la compañía entonces.
La siguiente gran revolución llegó en mayo de 1997, cuando Intel presentó el procesador Pentium II, con siete millones y medio de transistores y que abrió el camino hacia sistemas operativos más complejos y programas de navegación en internet con aplicaciones en tres dimensiones. El Pentium II permitió la entrada en el mercado de las PC de reproductores de DVD y gráficos de alta calidad.
Cuando parecía que todo estaba en calma, llegó Apple. La compañía de Steve Jobs había usado los procesadores de IBM, llamados PowerPC, desde 1994. Al final, hasta los Mac cayeron rendidos ante Intel. Los nuevos modelos de la compañía californiana, como el MacBook, en venta desde el 2006, están construidos sobre un microprocesador Intel Core. A estas alturas todos los Macs que se ponen en venta han migrado ya a Intel, generando todo un filón de negocio.
Pero no hay gran empresa sin un gran rival. Sucede desde siempre: Microsoft contra Apple, Coca-Cola contra Pepsi, Nintendo contra Sega. En el caso de Intel es AMD (ver recuadro).
La de Intel es la historia de toda una revolución que está lejos de acabar. Según el historiador David K. Allison, “el futuro puede pasar por acabar con los discos duros e integrar la memoria de los ordenadores en tarjetas flas, que almacenan memoria permanentemente aunque se desconecte la corriente. Hasta ahora este tipo de memoria se usa en móviles, PDA o cámaras de fotos. Según este experto, el nuevo gran paso que la informática tiene que dar es construir los ordenadores personales con ellas.

El gran rival y el espía argentino

La Némesis de Intel es AMD. En este momento ambas se encuentran sumidas en una cruenta guerra de precios. Intel va ganando debido a su alianza con Apple (ver nota central). Mientras la obsesión de Intel fue siempre crear microprocesadores más y más rápidos, AMD ha prestado atención a reducir el consumo de energía y a mejorar la función de los nuevos modelos.
AMD le enseñó a Intel que no todo está en la rapidez y la compañía demostró haber aprendido la lección cuando comercializó el Core 2 Duo: contiene dos procesadores y su funcionalidad ha sido todo un éxito. “Desde el procesador Pentium, en el sector no ha ocurrido un cambio tan significativo en el corazón del ordenador. El procesador Core 2 Duo es toda una maravilla en ahorro de energía, cuenta con 291 millones de transistores y consume un 40% menos de energía, a la vez que ofrece el rendimiento necesario para las aplicaciones actuales y las del futuro”, dijo en el 2006 Paul Otellini, presidente y consejero delegado de Intel.
AMD marcó el camino y se ha revelado en los últimos años como un rival creíble, con un 20% de la cuota de mercado, frente al 80% de Intel. Incluso la marca de ordenadores Dell se ha pasado a AMD.
En 1995 la mítica rivalidad entre AMD e Intel saltó a las primeras páginas de los diarios con un verdadero caso de espionaje industrial. La policía detuvo a Guillermo Gaede, un argentino de 43 años que trabajó tanto para AMD como para Intel y que en 1993 intentó vender dos diseños de Intel (el preciado Pentium y el i486) a AMD. En ese momento, AMD reaccionó como un competidor honrado. Al recibir unas fotos y una oferta de venta enviadas por Gaede, llamó a Intel y le avisó de la filtración. El argentino pasó 33 meses en la cárcel. (EPI)

   
YOLANDA MONGE
El País Internacional
   
 
 
 
Diario Río Negro.
Provincias de Río Negro y Neuquén, Patagonia, Argentina. Es una publicación de Editorial Rio Negro SA.
Todos los derechos reservados Copyright 2006