BUSCAR       RIO NEGRO    WEB     
TITULOS SECCIONES SUPLEMENTOS OPINION CLASIFICADOS SERVICIOS NUESTRO DIARIO PRODUCTOS
  podio
RURAL
DEBATES
GUIA OCIO
eH! HOGAR
ESPECIALES ON LINE
ECONOMICO
CULTURAL
ENERGIA
 
Domingo 13 de Mayo de 2007
 
 
 
>>Ediciones ANTERIORES
   
  TENDENCIAS
  El futuro de la internet: ¿hay que barajar y dar de nuevo?
Muchos expertos aseguran que “es un milagro” que la red usada por millones en el mundo siga en pie. Fue diseñada sobre la idea de equipos fijos y con fines académicos, no comerciales. Pero una reforma radical costaría fortunas. Por ahora, parches.
 
 

Click para ver más fotos

Aunque la internet ha tardado casi cuatro décadas en llegar a su estado actual, algunos investigadores universitarios, con el auspicio del gobierno federal, quieren reestructurar todo y comenzar de nuevo.
La idea parecería inconcebible, incluso absurda, pero muchos creen que una estrategia de “borrón y cuenta nueva’’ representa la única manera de atender verdaderamente los desafíos de seguridad, portabilidad y otros temas que han surgido desde que Leonard Kleinrock, un profesor de la UCLA, ayudó a supervisar el primer intercambio de texto significativo entre dos computadoras, el 2 de septiembre de 1969.
La internet “funciona muy bien en muchas situaciones, pero fue diseñada con premisas completamente distintas’’, dijo Dipankar Raychandhuri, profesor de la Universidad de Rutgers, quien supervisa los proyectos de reestructuración. “Es una suerte de milagro que esto siga funcionando bien hoy’’.
 Ahora que la internet no está limitada ya por la lentitud en las conexiones o en los procesadores de las computadoras, ni por los altos costos del almacenamiento de datos, los investigadores consideran que ha llegado el momento de replantear la arquitectura subyacente de la red, un paso que implicaría la necesidad de reemplazar el equipo existente y de reprogramar el software para encaminar mejor el tráfico del futuro sobre los canales disponibles.
Incluso Vinton Cerf, uno de los padres fundadores de la internet que ayudó en el desarrollo de las técnicas para las claves de comunicaciones, dijo que la iniciativa de reforma es “saludable en general’’ porque la tecnología actual “no satisface todas las necesidades’’.
Pero para cualquier reconstrucción, uno de los desafíos consistirá en alcanzar el equilibrio entre los intereses de varios grupos. La primera vez, los investigadores pudieron trabajar en paz dentro de sus laboratorios.
Esta vez, la industria tiene una influencia más importante y las autoridades quieren que sean tomadas en cuenta sus necesidades de intervención de las comunicaciones. No hay evidencias de que esos grupos estén actuando ya, pero una vez que cualquier investigación parezca promisoria “numerosas personas querrán participar en el diseño’’, dijo Jonathan Zittrain, profesor de Derecho afiliado a las universidades de Oxford y Harvard.
La Fundación Nacional de Ciencias (NSF) quiere construir una red experimental de investigación conocida como Ambiente Global para Innovaciones en Red (GENI, por sus siglas en inglés) y está financiando varios proyectos en las universidades y en otras instituciones mediante el proyecto de Diseño de la Red Futura de Internet (FIND). Las universidades de Rutgers, Stanford, Princeton, Carnegie Mellon y el Instituto Tecnológico de Massachusetts figuran entre las instituciones que han emprendido proyectos individuales.
Las dependencias gubernamentales, incluido el Departamento de la Defensa, han explorado también el concepto. La Unión Europea ha apoyado investigaciones de iniciativas semejantes, mediante un programa conocido como Investigación y Experimentación de la Internet Futura (FIRE). Funcionarios e investigadores se reunieron el mes pasado en Zurich para discutir sus primeros hallazgos y metas. Una nueva red funcionaría paralela a la internet actual y la reemplazaría a la postre, o quizás algunos aspectos de la investigación se aplicarían a una reestructuración de la arquitectura existente.
Estas propuestas están todavía en sus etapas tempranas y no darían frutos hasta dentro de unos 10 o 15 años, en caso de que el Congreso aprobara la financiación.
Guru Parulkar, quien asumirá la dirección general de la iniciativa de Stanford, tras encabezar los programas de la NSF, estimó que tan sólo la propuesta GENI costará 350 millones de dólares, mientras que el gasto del gobierno, la universidad y la industria en proyectos individuales ascendería en conjunto a 300 millones de dólares. Hasta ahora, el gasto ha sido de unas decenas de millones de dólares.
El reemplazo de todos los programas y computadoras para implementar la nueva red podría agregar miles de millones de dólares al costo. Los defensores del “borrón y cuenta nueva’’ dicen que el mundo más cómodo de los investigadores en las décadas de 1970 y 1980 no necesariamente se ajusta a las realidades y necesidades de la internet comercial.
“La red es ahora una herramienta crítica para demasiadas personas, mientras que en sus primeros días era sólo algo experimental’’, dijo Zittrain. Los primeros arquitectos de la internet construyeron el sistema sobre el principio de la confianza.

CORREO BASURA Y PIRATAS

La mayoría de los investigadores no se conocía entre sí, de modo que se mantuvo apertura y flexibilidad al compartir la red, características que fueron cruciales para su crecimiento rápido. Pero los remitentes de una oleada de correo indeseable y los piratas informáticos llegaron a medida que la red se expandía y pudieron actuar libremente porque la red no tiene mecanismos integrados para saber con certeza quién envió qué.
Los diseñadores de la red supusieron también que las computadoras estarían en lugares fijos y siempre conectadas. Ello no ocurre ya, con la proliferación de las computadoras portátiles y de bolsillo y los teléfonos celulares provistos cada vez de más funciones.
Todos esos sistemas van de un punto a otro de conexión inalámbrica y pueden perder la señal en ciertos lugares. Los ingenieros aplicaron mejoras a la seguridad y realizaron cambios para permitir la portabilidad de la internet, pero los investigadores señalan que todo ello agrega complejidades, afecta el desempeño y, en el caso de la seguridad, se limita a hacer reparaciones, en un riesgoso juego del “gato y el ratón’’.
Las reparaciones provisionales para los dispositivos celulares “pueden funcionar bien si una pequeña fracción del tráfico es de ese tipo, pero pueden saturar los procesadores de las computadoras y crear fallas de seguridad cuando un 90% o más del tráfico es móvil”, dijo Nick McKeown, codirector del programa de Stanford.
La internet seguirá enfrentando retos, mientras las aplicaciones requieran de transmisiones garantizadas y no de una estrategia que da sólo su “mejor esfuerzo’’ y que funciona mejor para el correo electrónico y otras tareas menos dependientes del factor del tiempo.
Hay que pensar en un médico que utilizará las teleconferencias para practicar una cirugía remota o en un consumidor de un servicio de telefonía mediante la internet que necesita hacer una llamada de emergencia. En esos casos, el retraso más pequeño en el envío de los datos puede ser fatal. En vez de crear paliativos para cada problema, los investigadores de esta nueva propuesta quieren rediseñar el sistema para albergar fácilmente cualquier tecnología futura, dice Larry Peterson, presidente del Consejo de Ciencias Informáticas en Princeton y jefe del grupo de planificación de GENI.
Incluso si los diseñadores originales hubieran sido más visionarios, no habrían podido incorporar estas funciones desde el comienzo.
Las computadoras eran mucho más lentas entonces como para realizar los cálculos necesarios para, por ejemplo, autentificar la identidad de un usuario. Kleinrock, el pionero de la internet en UCLA, cuestionó la necesidad de hacer una transición, pero agregó que estas iniciativas resultan útiles para el avance tecnológico. “Algo llamado GENI seguramente no se convertirá en la internet, pero algunas partes de esto podrían integrarse a la red mientras progresa’’, vislumbró.

 

 Más informes en la internet:
- Stanford: http://cleanslate.stanford.edu
- Carnegie Mellon: http://100x100network.org
- Rutgers: http://orbit-lab.org
- NSF GENI: http://geni.net

Los principales retos para la red

 El gobierno y varios investigadores universitarios han explorado formas de rediseñar la internet desde cero. A continuación, algunos de los retos con los que se encontraron los investigadores:

• La seguridad
- El desafío: la internet fue concebida como un medio abierto y flexible y se consideraba que todos los usuarios eran de fiar. Así, sus protocolos no fueron diseñados para verificar la identidad de los usuarios ni autentificar sus datos, lo que ha permitido que los grupos que envían cantidades masivas de correo indeseable y los piratas informáticos se oculten al adjuntar direcciones falsas de remitentes en paquetes de datos.
- La reparación actual: las aplicaciones de internet, como los sistemas de protección de la red (firewalls) y los filtros de correo no solicitado intentan enfrentar las amenazas de seguridad. Pero dado que esas técnicas no penetran a una profundidad suficiente en la red, los datos perniciosos siguen llegando para saturar los sistemas y eludir la tecnología de seguridad.
- La solución propuesta: la red debe ser rediseñada para que sospeche de todos los usuarios y datos desde el comienzo. Los datos no pasarán a menos que sean autentificados. Las computadoras más rápidas que existen ahora podrían manejar el procesamiento adicional necesario dentro de la red.

• TECNOLOGIAS INALAMBRICAS
- El desafío: antes las computadoras permanecían en un solo sitio, de modo que las direcciones numéricas de internet eran asignadas a los dispositivos con base en su ubicación. En la actualidad, las computadoras portátiles están en tránsito constante.
- La reparación actual: una computadora portátil cambia su dirección y se reconecta a medida que se desplaza entre un punto de acceso inalámbrico y otro, lo que interrumpe el suministro de datos. Otra solución temporal consiste en que todo el tráfico de información se dirija de vuelta al primer punto de acceso, mientras la computadora se mueve a una segunda o tercera ubicación. Sin embargo, pueden ocurrir retrasos.
- La solución propuesta: el sistema de direcciones debe reestructurarse para que las direcciones se basen más en el dispositivo y menos en la ubicación. De esta forma, una computadora portátil conservaría su dirección mientras se mueve por varios puntos de acceso inalámbrico.

• UBICUIDAD
- El desafío: la internet fue diseñada cuando había relativamente pocas computadoras conectadas a ésta. La proliferación de las computadoras personales y de los dispositivos móviles evidenciaron las limitaciones del sistema inicial de direcciones. Habrá incluso más demanda de direcciones a medida que los sistemas de aire acondicionado y numerosos aparatos electrodomésticos incorporen capacidades de internet. Además, se prevé la instalación de innumerables sensores para medir desde la temperatura hasta la disponibilidad de espacio en un estacionamiento.
- La reparación actual: los ingenieros ampliaron el universo de direcciones con un sistema llamado IPv6, pero casi una década después de que se completó el trabajo para implementarlo, la gran mayoría de los programas y computadoras emplea aún la tecnología IPv4, más vieja y saturada. Incluso si más tecnologías emigran a IPv6, el procesamiento de las direcciones para todos los sensores representará todo un reto.
- La solución propuesta: los investigadores preguntan si realmente todos los dispositivos necesitan direcciones. Quizás los sensores en una vivienda podrían comunicarse con otros en cierto lugar y enviar los datos más importantes con un dispositivo que sí posea una dirección. Así, los “routers’’, considerados los policías del tránsito en la internet, no tendrían que seguirle el rastro a cada sensor, lo que mejoraría la eficiencia. (AP)

 

   
ANICK JESDANUN
 AP
   
 
 
 
Diario Río Negro.
Provincias de Río Negro y Neuquén, Patagonia, Argentina. Es una publicación de Editorial Rio Negro SA.
Todos los derechos reservados Copyright 2006