Internet.

Internet es una red de redes a escala mundial de millones de computadoras interconectadas con el conjunto de protocolos TCP/IP. También se usa este nombre como sustantivo común y por tanto en minúsculas para designar a cualquier red de redes que use las mismas tecnologías que Internet, independientemente de su extensión o de que sea pública o privada.

Al contrario de lo que se piensa comúnmente, Internet no es sinónimo de World Wide Web. Ésta es parte de aquella, siendo la World Wide Web uno de los muchos servicios ofertados en la red Internet. La Web es un sistema de información mucho más reciente (1995) que emplea la red Internet como medio de transmisión.

Algunos de los servicios disponibles en Internet aparte de la Web son el acceso remoto a otras máquinas (SSH y telnet), transferencia de archivos (FTP), correo electrónico (SMTP), boletines electrónicos (news o grupos de noticias), conversaciones en línea (IRC y chats), mensajería instantánea (MSN Messenger, ICQ, YIM, AOL, Jabber), etcétera.

Historia de Internet.

A finales de 1972 se realizó la primera demostración pública de ARPANET, una nueva red de comunicaciones financiada por la DARPA que funcionaba de forma distribuida sobre la red telefónica conmutada. El éxito de esta nueva arquitectura sirvió para que, en 1973, la DARPA iniciara un programa de investigación sobre posibles técnicas para interconectar redes (orientadas al tráfico de paquetes) de distintas clases. Para este fin, desarrollaron nuevos protocolos de comunicaciones que permitiesen este intercambio de información de forma "transparente" para los ordenadores conectados. De la filosofía del proyecto surgió el nombre de "Internet", que se aplicó al sistema de redes interconectadas mediante los protocolos TCP e IP.

El 1 de enero de 1983 ARPANET cambió el protocolo NCP por TCP/IP. Ese mismo año, se creó el IAB con el fin de estandarizar el protocolo TCP/IP y de proporcionar recursos de investigación a Internet. Por otra parte, se centró la función de asignación de identificadores en la IANA que, más tarde, delegó parte de sus funciones en el IR que, a su vez, proporciona servicios a los DNS.

En 1986 la NSF comenzó el desarrollo de NSFNET que se convirtió en la principal red troncal de Internet, complementada después con las redes NSINET y ESNET, todas ellas en EE.UU. Paralelamente, otras redes troncales en Europa, tanto públicas como comerciales, junto con las americanas formaban el esqueleto básico ("backbone") de Internet.

A partir de 1989, con la integración de los protocolos OSI en la arquitectura de Internet, se inició la tendencia actual de permitir no sólo la interconexión de redes de estructuras dispares, sino también la de facilitar el uso de distintos protocolos de comunicaciones.

El protocolo de transferencia de archivos (FTP o File Transfer Protocol) es el protocolo estándar en la red para efectuar transferencias de archivos de un servidor a un ordenador o entre ordenadores.

En 1989 también, en el CERN de Ginebra, un grupo de Físicos encabezado por Tim Berners-Lee, crearon el lenguaje HTML, basado en el SGML. En 1990 el mismo equipo construyó el primer cliente Web, llamado WorldWideWeb (WWW), y el primer servidor web.

Actualmente Internet incluye aproximadamente 5000 redes en todo el mundo y más de 100 protocolos distintos basados en TCP/IP, que se configura como el protocolo de la red. Los servicios disponibles en la red mundial de PC, han avanzado mucho gracias a las nuevas tecnologías de transmisión de alta velocidad, como DSL y Wireless, se ha logrado unir a las personas con videoconferencia, ver imágenes por satélite (ver tu casa desde el cielo), observar el mundo por webcams, hacer llamadas telefónicas gratuitas, o disfrutar de un juego multijugador en 3D, un buen libro PDF, o albums y películas para descargar.

El 3 de enero de 2006 Internet alcanzó los mil millones de usuarios. Se prevé que en diez años, la cantidad de navegantes de la Red aumentará a 2.000 millones.

En algunos países el acceso a Internet está restringido únicamente a entidades gubernamentales y empresas extranjeras o fuertemente controlado por el estado.

Internet2.

Es un consorcio de universidades estadounidenses y empresas tecnológicas con el objetivo de crear nuevos protocolos y aplicaciones que mejoren el rendimiento y la calidad que se consigue en la actual Internet. Los miembros de Internet2 han creado la Red Abilene con estas tecnologías. Esta red a menudo se denomina de manera informal, Internet 2.

Internet y sociedad.

Hoy en día, Internet ha llegado a gran parte de los hogares y de las empresas de los países ricos, en este aspecto se ha abierto una brecha digital con los países pobres, en los cuales la penetración de Internet y las nuevas tecnologías es muy limitada para las personas.

Es muy común en países ricos y en vías de desarrollo el acceso a Internet en establecimientos especializados llamados cibercafé.

Género de la palabra Internet.

El género de la palabra Internet es ambiguo según el Diccionario de la Real Academia Española. Es común escuchar hablar de "el Internet" o "la Internet". Algunas personas abogan por "la Internet", pues Internet es una red y el género de la palabra es femenino. El artículo se utiliza como calco del inglés, the Internet, sin embargo, tampoco es necesario en castellano. A pesar de que normalmente se repita mucho lo de la gran red, la red de redes, Internet no es una red, sino un conjunto de ellas -un conjunto enorme, por cierto- pertenecientes a muchos ámbitos: universidades, empresas, gobiernos, centros de investigación, etc.

Internet engloba múltiples servicios, que si bien hace años estaban muy desperdigados y para poder hacer uso de ellos debían utilizarse muchos programas distintos, hoy día la web los ha ido acaparando poco a poco.

Una de sus mayores ventajas -para unos- o inconvenientes -para otros- es que nadie la controla, ni puede controlarla de forma global.

Para algunos autores, Internet es un acrónimo de INTERconected NETworks (Redes interconectadas).

Internet utiliza el protocolo (aunque mejor habría que decir conjunto de protocolos) TCP/IP.

Nuevos usos de internet.

En este nuevo siglo aparecieron formas nuevas de utilizar Internet como los juegos en línea, el chat, los servicios de mensajería instantánea, las redes virtuales privadas (VPN), la transmisión de imágenes a través de tecnología celular o el vídeo y audio en vivo (stream).

Extranet.

Una extranet (extended intranet) es una red privada virtual resultante de la interconexión de dos o más intranets que utiliza Internet como medio de transporte de la información entre sus nodos.

Durante los años 1999-2001 hubo una creciente demanda por el desarrollo de extranets sin contar con los requerimientos necesarios para este fin. hallo ich heiße extranet!!

Una extranet es una red privada que utiliza tecnología de internet y el sistema público de telecomunicaciones para compartir con seguridad la parte de la información o de las operaciones de un negocio con los suministradores, vendedores, socios, clientes u otros negocios. Una extranet se puede ver como parte de la Intranet de una compañía que se extiende a los usuarios fuera de la compañía normalmente sobre Internet. También se ha descrito pues como un "estado de la mente" en el cuál se percibe Internet como una manera de hacer negocio con otras compañías para vender productos a los clientes. Una extranet requiere seguridad y aislamiento. Éstos pueden incluir la administración del servidor y de los cortafuegos, la emisión y el uso de certificados digitales o los medios similares de autentificación del usuario, cifrado de mensajes, y el uso de las redes privadas virtuales (VPNs) a través de la red pública. Una extranet se podía describir como dos o más intranets con conectividad de red. Generalmente, y como con los intranets, un extranet estará basado en protocolos del Internet. La tecnología de red subyacente realmente no importa, por ejemplo puede ser que las organizaciones utilicen Internet para los datos que llevan pero restringe el acceso a los recursos del público en general vía cortafuegos. Una red privada virtual se podría instalar sobre Internet para alcanzar el mismo resultado. Una forma de verlo podría ser que "Extranet" es justo un nombre para describir lo que han estado haciendo las instituciones publicas y privadas durante décadas, es decir, interconectandose las unas a las otras para crear redes privadas para compartir la información. Durante las decadas de los 90's y los primeros 2000's, varias industrias comenzaron a utilizar el término "extranet" para describir los depósitos centrales de los datos compartidos hechos accesibles vía red solamente a los miembros autorizados de los grupos de trabajo particulares. Por ejemplo, en la industria de construcción, los equipos de proyecto podrían conectarse y tener acceso a una “extranet del proyecto” para compartir dibujos y documentos, hacer comentarios, peticiones de edición de la información, etc. Las extranets especialmente seguras se utilizan para proporcionar servicios de room virtuales de los datos a las compañías en un número de sectores. Hay una variedad de usos comerciales de Extranet. Algunos de las cuales están para la gerencia de archivos pura, otros incluyen herramientas más amplias de colaboración y las herramientas de gerencia de proyecto. Algunos ejemplos del producto de Extranet son: Proyecto Ace: Creación de software Proyecto Hot: Creative Manager

Internet2.

Internet2 o UCAID (University Corporation for Advanced Internet Development) es un consorcio sin ánimo de lucro que desarrolla aplicaciones y tecnologías de redes avanzadas, la mayoría para transferir información a alta velocidad. Internet 2 es una red telemática desarrollada principalmente por las universidades americanas, está construida en fibra óptica y permitirá altas velocidades y una gran fiabilidad. Es llevado por 270 universidades de Estados Unidos y otras compañías tecnológicas como Comcast, Intel, Sun Microsystems y Cisco Systems. Algunas de las tecnologías que han desarrollado han sido IPv6, IP multicast y calidad del servicio (QoS). Las velocidades mínimas esperadas son: - 622 Mbps para un miembro de I2 (universidades y socios). - 50 Mbps para un usuario particular.

La enseñanza, el aprendizaje y la investigación en colaboración pueden requerir interconexión y altas conexiones de banda ancha en tiempo real. La infraestructura de Internet2 soporta esas aplicaciones, conocidas como Learning–ware. Tambien han desarrollado otras aplicaciones para entornos de alta velocidad como los laboratorios virtuales (LAV), la telemedicina y la teleinmersión.

Para conectarse a internet 2 necesitas que tu red de alta velocidad esté conectada a un GigaPop de Internet 2; también puedes conectarte a través de Internet usando un backbone. Aunque existen muchas similitudes con Internet, la nueva red no pretende sustituir a la antigua, al menos a corto plazo.

Intranet.

Una intranet es una red de Área Local (LAN) privada empresarial o educativa que proporciona herramientas vía Internet las cuales tienen como función principal proveer lógica de negocios para aplicaciones de captura, reportes, consultas, etc. con el fin de auxiliar la producción de dichos grupos de trabajo; es también un importante medio de difusión de información interna a nivel de grupo de trabajo. No necesariamente proporciona Internet hacia la organización; normalmente, tiene como base el protocolo TCP/IP de Internet y por ser privada puede emplear mecanismos de restricción de acceso a nivel de programación como lo son usuarios y contraseñas de acceso o incluso a nivel de hardware como un sistema firewall (cortafuegos) que puede restringir el acceso a la red organizacional.

Privacidad en Internet.

Internet: Nadie la posee ni la controla.

Un aspecto importante de Internet, es que nadie puede poseerla ni es posible controlarla, factor que influye mucho en el grado de apertura y valor de Internet pero también deja muchos puntos a juicio del propio usuario, tanto por los emisores como para los receptores de información. La privacidad en Internet dependerá del tipo de actividad que se realice. Las actividades que se pueden suponer privadas en realidad no lo son, ya que no existe ninguna actividad en línea que garantice la absoluta privacidad. Como ejemplo, encontramos los foros, donde cualquier persona puede capturar, copiar y almacenar todo lo que se escriba; su nombre, correo electrónico e incluso información sobre su proveedor de Internet figuran en el mensaje mismo, o las listas de distribución, donde existen algunas funciones que permiten que los mensajes sean distribuidos a múltiples usuarios. Además, la cuenta con un proveedor de Internet es privada, la mayoría de estos proveedores dan a conocer públicamente información sobre sus usuarios. Otros ejemplos serian los registros de un sitio, ya que muchas personas obtienen su propio sitio en Internet, y estos registros son información pública.

Navegar por internet no es una actividad anónima.

La mayor parte de la gente cree que navegar por Internet es una actividad anónima, y en realidad no lo es. Prácticamente todo lo que se transmite por Internet puede archivarse, incluso los mensajes en foros o los archivos que consulta y las páginas que se visitan, mediante dispositivos como cookies, "bichos cibernéticos", los usos de la mercadotecnia y el spam y los navegadores. Los proveedores de Internet y los operadores de sitios tienen la capacidad de recopilar dicha información. Y los piratas o hackers pueden obtener acceso a su computadora, ya que un gran número de usuarios está conectado a Internet por medio de módems de cable y conexiones DSL a base de una línea telefónica. La vulnerabilidad a los ataques de hackers, se agudiza cuando los usuarios utilizan el servicio de broadband, es decir que están "siempre conectados".

Aspectos a tener en cuenta cuando se emite información en Internet.

Cuando los usuarios emiten información en Internet tiene los mismos derechos y obligaciones que otros autores con los derechos de copyright y sus posibles infracciones, difamaciones, etc. Si los usuarios emiten información a través de Internet deberán tener en cuenta que no se puede revisar, editar, censurar o tomar responsabilidades por cualquier tipo de información que se pueda crear, y por lo tanto la única solución es tomar pequeñas medidas de seguridad, en una gran red donde la información corre a gran velocidad y puede alcanzar a un gran número de personas.

Idiomas en Internet.

Las cifras dadas en la tabla a continuación fueron tomadas de Global Reach ([1]). Muestran un estimativo de septiembre del 2004 del número de usuarios que se conectan a Internet por idiomas. Como puede observarse, el hispanohablante es el tercer mayor grupo lingüístico de usuarios en Internet, después del inglés y del chino.

Uno de los hechos a resaltar de esta lista es la ausencia en Internet de uno de los idiomas más hablados del mundo como es el hindi, la lengua nacional de la India, el segundo país más poblado del mundo después de la China.

Población de Internet por Idiomas

Idioma

Usuarios de Internet (M)

% usuarios

Población Total(M)

PIB ($Millardos)

% de Economía Mundial

PIB per capita (K)

Inglés

295.4

35.20%

508

 

 

 

Chino

110.0

13.70%

874

$6,328

13.00%

$7.20

Español

72.0

9.00%

350

$2,500

8.90%

$7.10

Japonés

67.1

8.40%

125

$3,400

8.00%

$27.20

Alemán

55.3

6.90%

100

$2,679

5.80%

$26.80

Francés

33.9

4.20%

77

$1,517

4.20%

$19.70

Coreano

31.3

3.90%

78

$887

2.0

$11.40

Italiano

30.4

3.30%

62

$1,251

3.60%

$20.10

Portugués

24.4

3.10%

176

$1,487

3.60%

$8.40

Malayo

14.2

1.80%

229

$258

2.00%

 

Holandés

14.0

1.70%

20

$575

 

$28.50

Arabe

13.5

1.70%

300

$678

1.60%

$4.20

Polaco

9.6

1.20%

44

$359

 

$8.10

Sueco

7.7

 

9

$237

 

$26.30

Tailandés

7.1

 

46

$406

 

$8.80

Turco

6.8

 

67.4

$431

 

$6.40

Ruso

6.5

0.80%

167

$822

1.80%

$4.90

Vietnamita

5.8

 

68

 

 

 

Farsi

4.6

 

64

$84

 

 

Rumano

4.4

 

26

$108

 

$4.20

Checo

3.8

 

12

$121

 

$10.00

Hebreo

3.8

 

5.2

$132

 

$21.00

Danés

2.9

 

5.4

$171

 

$31.70

Finlandés

2.8

 

6

$142

 

$23.60

Húngaro

2.5

 

10

$96

 

$9.60

Griego

2.4

 

12

$189

 

$15.80

Catalán

2.4

 

6.6

 

 

 

Noruego

2.1

 

5

$136

 

$27.20

Eslovaco

1.8

 

5.6

$47

 

$8.70

Serbo-croata

1.0

 

20

 

 

 

Ucraniano

0.9

 

47

$115

 

$2.30

Panyabí

0.8

 

38

 

 

 

Esloveno

0.8

 

2

$22.90

 

$10.90

Islandés

0.2

 

0.3

$6

 

$23.50

TOTAL MUNDIAL

801.4

 

6460

$41400

 

 

 

Protocolo de red.

Se le llama protocolo de red o protocolo de comunicación al conjunto de reglas que controlan la secuencia de mensajes que ocurren durante una comunicación entre entidades que forman una red. En este contexto, las entidades de las cuales se habla son programas de computadora o automatismos de otro tipo, tales y como dispositivos electrónicos capaces de interactuar en una red.

Los protocolos de red establecen aspectos tales como:

·      Las secuencias posibles de mensajes que pueden arribar durante el proceso de la comunicación.

·      La sintaxis de los mensajes intercambiados.

·      Estrategias para corregir los casos de error.

·      Estrategias para asegurar la seguridad (autenticación, encriptación).

Estandarización.

Los protocolos que son implementados en sistemas de comunicación que tienen un amplio impacto, suelen convertirse en estándares, debido a que la comunicación e intercambio de información (datos) es un factor fundamental en numerosos sistemas, y para asegurar tal comunicación se vuelve necesario copiar el diseño y funcionamiento a partir del ejemplo pre-existente. Esto ocurre tanto de manera informal como deliberada.

Existen consorcios empresariales, que tienen como propósito precisamente el de proponer recomendaciones de estándares que se deben respetar para asegurar la interoperabilidad de los productos.

Ejemplos de lo anterior son la IEEE que propone varios estándares para redes físicas, y la W3C (World Wide Web Consortium) que gestiona la definición aceptada sobre HTTP.

Niveles de abstracción.

En el campo de las redes informáticas, los protocolos se pueden dividir en varias categorías, una de las clasificaciones más estudiadas es la OSI.


Según la clasificación OSI, la comunicación de varios dispositivos ETD se puede estudiar dividiéndola en 7 niveles, que son expuestos desde su nivel más alto hasta el más bajo:

 

Nivel

Nombre

Categoría

Capa 7

Nivel de aplicación

Aplicación

Capa 6

Nivel de presentación

Capa 5

Nivel de sesión

Capa 4

Nivel de transporte

Capa 3

Nivel de red

Transporte
de datos

Capa 2

Nivel de enlace de datos

Capa 1

Nivel físico

A su vez, esos 7 niveles se pueden subdividir en dos categorías, las capas superiores y las capas inferiores. Las 4 capas superiores trabajan con problemas particulares a las aplicaciones, y las 3 capas inferiores se encargan de los problemas pertinentes al transporte de los datos.


Otra clasificación, más práctica y la apropiada para TCP IP, podría ser esta:

Nivel

Capa de Aplicación

Capa de Transporte

Capa de Red

Capa de Enlace de Datos

Capa Física

Los protocolos de cada capa tienen una interfaz bien definida. Una capa generalmente se comunica con la capa inmediata inferior, la inmediata superior, y la capa del mismo nivel en otros computadores de la red. Esta división de los protocolos ofrece abstracción en la comunicación.

Una aplicación (capa nivel 7) por ejemplo, solo necesita conocer como comunicarse con la capa 6 que le sigue, y con otra aplicación en otro computador (capa 7). No necesita conocer nada entre las capas de la 1 y la 5. Así, un navegador web (HTTP, capa 7) puede utilizar una conexión Ethernet o PPP (capa 2) para acceder a la Internet, sin que sea necesario cualquier tratamiento para los protocolos de este nivel más bajo. De la misma forma, un router sólo necesita de las informaciones del nivel de red para enrutar paquetes, sin que importe si los datos en tránsito pertenecen a una imagen para un navegador web, un archivo transferido vía FTP o un mensaje de correo electrónico.

Ejemplos de Protocolos.

·      Capa 1: Nivel físico.

o  Cable coaxial, Cable de fibra óptica, Cable de par trenzado, Microondas, Radio, Palomas, RS-232.

·      Capa 2: Nivel de enlace de datos.

o  Ethernet, Fast Ethernet, Gigabit Ethernet, Token Ring, FDDI, ATM, HDLC.

·      Capa 3: Nivel de red.

o  ARP, RARP, IP (IPv4, IPv6), X.25, ICMP, IGMP, NetBEUI, IPX, Appletalk.

·      Capa 4: Nivel de transporte.

o  TCP, UDP, SPX.

·      Capa 5: Nivel de sesión.

o  NetBIOS, RPC, SSL.

·      Capa 6: Nivel de presentación.

o  ASN.1.

·      Capa 7: Nivel de aplicación.

o  SNMP, SMTP, NNTP, FTP, SSH, HTTP, SMB/CIFS, NFS, Telnet, IRC, ICQ, POP3, IMAP.

Red de computadoras.

Una red de computadoras (también llamada red de ordenadores, red informática o red a secas) es un conjunto de dos o más computadores o dispositivos conectados entre sí y que comparten información (archivos), recursos (CD-ROM, impresoras, etc.) y servicios (e-mail, chat, juegos), etc.

Redes según la direccionalidad de los datos.

·      simplex unidireccionales, un ETD transmite y otro recibe.

·      half-duplex bidireccionales, pero sólo uno transmite por vez.

·      full-duplex ambos pueden transmitir y recibir a la vez.

Protocolos de redes.

Artículo principal: Protocolo de red.

Tecnologías de redes.

·      PPP.

 

Red Token Ring.

·      HDLC.

·      Ethernet.

·      Token Ring.

·      FidoNet.

Estándares de redes.

·      IEEE 802.3 estándar para Ethernet.

·      IEEE 802.5, estándar para Token Ring.

·      IEEE 802.11, estándar para Wi-Fi.

·      IEEE 802.15, estándar para Bluetooth.

W. W. W.

La World Wide Web (del inglés, Telaraña Mundial), la Web o WWW, es un sistema de hipertexto que funciona sobre Internet. Para ver la información se utiliza una aplicación llamada navegador web para extraer elementos de información (llamados "documentos" o "páginas web") de los servidores web (o "sitios") y mostrarlos en la pantalla del usuario. El usuario puede entonces seguir hiperenlaces que hay en la página a otros documentos o incluso enviar información al servidor para interactuar con él. A la acción de seguir hiperenlaces se le suele llamar "navegar" por la Web. No se debe confundir la Web con Internet, que es la red física mundial sobre la que circula la información.

Del mismo modo que se puede distinguir entre "una intranet" (una inter-red) y "la Internet", uno puede referirse a "una web" como un conjunto de sitios que proveen información por los medios descritos, y "la Web", que es la enorme e interconectada web disponible prácticamente en todos los sitios de Internet.

Evolución.

La Web nació alrededor de 1989 a partir de un proyecto del CERN, en el que Tim Berners-Lee construyó el prototipo que dio lugar al núcleo de lo que hoy es la World Wide Web. La intención original era hacer más fácil el compartir textos de investigación entre científicos y permitir al lector revisar las referencias de un artículo mientras lo fuera leyendo. Un sistema de hipertexto enlazaría todos los documentos entre sí para que el lector pudiera revisar las referencias de un artículo mientras lo fuera leyendo. El nombre original del prototipo era "Enquire Within Upon Everything".

La funcionalidad elemental de la Web se basa en tres estándares: El Localizador Uniforme de Recursos (URL), que especifica cómo a cada página de información se asocia una "dirección" única en donde encontrarla; el Protocolo de Transferencia de Hipertexto (HTTP), que especifica cómo el navegador y el servidor intercambian información en forma de peticiones y respuestas, y el Lenguaje de Marcación de Hipertexto (HTML), un método para codificar la información de los documentos y sus enlaces. Berners-Lee dirige en la actualidad el World Wide Web Consortium, que desarrolla y mantiene estos y otros estándares que permiten a los ordenadores de la Web almacenar y comunicar todo tipo de información.

El programa inicial del CERN, "www", sólo presentaba texto, pero navegadores web posteriores, como Viola de Pei Wei (1992) añadieron la capacidad de presentar también gráficos. Marc Andreesen de NCSA presentó un navegador web llamado "Mosaic para X" en 1993 que disparó la popularidad de la Web entre principiantes. Andreesen fundó Mosaic Communications Corporation (hoy Netscape Communications), añadiendo características adicionales como contenido dinámico, música y animación que están incluidas en los modernos navegadores. A menudo la capacidad de los navegadores y servidores avanza mucho más rápido que los estándares, con lo cual es habitual que las características más nuevas no funcionen en todas las máquinas, impidiendo la accesibilidad universal.

El imparable avance técnico de la W.W.W. permite hoy incluso servicios en tiempo real como webcasts, radio web y webcams en directo.

Una de las tecnologías en constante evolución en el mundo de la W.W.W. es Flash, un formato registrado por la compañía Macromedia que aportan un gran dinamismo a las webs. El lenguaje de scripting que usan, Actionscript, goza de un gran potencial que abarca desde la aplicación visual hasta la interactividad con el servidor. Actionscript, ya en su versión 2.0, va abriéndose paso entre los grandes lenguajes de la programación web del lado del cliente.

Otro avance importante fue la plataforma Java, de Sun Microsystems, que permitió a las páginas web incluir pequeños programas (llamados applets) que se ejecutan en la máquina del cliente y mejoran la presentación y la interactividad.

La web ha crecido hasta arrinconar otras formas de comunicación anteriores, como los tableros electrónicos (BBS), los servicios de noticias (News), el Gopher, los buscadores de documento (Archie) y ha mantenido cierta convivencia con el protocolo de transferencias de ficheros (FTP) y los protocolos de correo electrónico: SMTP, POP3 e IMAP, etc

La W3C es el organismo que regula los estandares web, necesario para asegurar así el acceso universal a la información. Aun así, hay quien ignora estos estándares dando lugar a páginas web que solo se ven bien con uno o unos pocos navegadores concretos.

Tecnologías Web.

Navegadores.

·      Amaya.

·      Internet Explorer.

·      Konqueror.

·      Mozilla.

·      Mozilla Firefox.

·      Netscape Navigator.

·      Opera.

·      Safari.

Plataformas de publicación web.

·      Weblogic.

·      WebSphere.

·      Zope.

Servidores Web.

·      CERN httpd.

·      Servidor HTTP Apache (Libre, servidor más usado del mundo).

·      IIS.

·      Resin.

·      Tomcat (Libre, del proyecto Jakarta de Apache).

·      Geronimo (Libre, orientado a J2EE, del proyecto Jakarta de Apache, actualmente se encuentra en desarrollo).

·      JBoss.

·      JOnAS.

Otras tecnologías.

·      OAI-PMH.

·      CFM Coldfusion.

·      DHTML.

·      PHP.

·      ASP.

·      CGI.

·      JSP (Tecnología Java ).

·      .NET.

Tipología web.

·      Buscador Internet.

·      Software social.

·      Páginas personales.

·      Portal web o CMS.

·      Bitácora o Weblog/Blog.

·      Wiki.

Web semántica.

La web semántica tiene como objetivo crear un medio universal para el intercambio de información basado en representaciones del significado de los recursos de la Web, de una manera inteligible para las máquinas. Con ello se pretende ampliar la interoperabilidad entre los sistemas informáticos y reducir la mediación de operadores humanos en los procesos inteligentes de flujo de información. El precursor de la idea, Tim Berners-Lee miembro fundador del W3C, se esfuerza en que su propuesta de la Web semántica sirva para ampliar la capacidad de la World Wide Web mediante estándares, lenguajes de marcado y otras herramientas aplicables a su tratamiento.

Relación con la World Wide Web.

En la actualidad, la World Wide Web está basada principalmente en documentos escritos en HTML, un lenguaje de marcas que sirve para crear hipertexto en Internet. HTML es válido para adecuar el aspecto visual del documento e incluir objetos multimedia en el texto (imágenes, esquemas de diálogo, etc.). Pero da pocas posibilidades para categorizar los elementos que configuran el texto más allá de las típicas funciones estructurales, como sucede con otros lenguajes de maquetación (tipo LaTeX).

HTML permite mediante una herramienta de visualización (como un navegador o un agente de usuario) mostrar por ejemplo un catálogo de objetos en venta. El código HTML de este catálogo puede explicitar aspectos como "el título del documento" es Ferretería Acme; pero no hay forma de precisar dentro del código HTML si el producto M270660 es una "batería Acme", con un "precio de venta al público" de 200 ¤, o si es otro tipo de producto de consumo (es decir, es una batería eléctrica y no un instrumento musical, o un puchero). Lo único que HTML permite es alinear el precio en la misma fila que el nombre del producto. No hay forma de indicar "esto es un catálogo", "batería Acme" es una batería eléctrica, o "200 ¤" es el precio. Tampoco hay forma de relacionar ambos datos para describir un elemento específico en oposición a otros similares en el mismo catálogo.

La Web Semántica se ocupará de resolver estas deficiencias. Para ello dispone de tecnologías de descripción de los contenidos, como RDF y OWL, además de XML, el lenguaje de marcas diseñado para describir los datos. Estas tecnologías se combinan para aportar descripciones explícitas de los recursos de la Web (ya sean estos catálogos, formularios, mapas u otro tipo de objeto documental). De esta forma el contenido queda desvelado, como los datos de una base de datos accesibles por Web, o las etiquetas inmersas en el documento (normalmente en XHTML, o directamente en XML, y las instrucciones de visualización definidas en una hoja de estilos aparte). Estas etiquetas hacen posible a los gestores de contenidos interpretar los documentos y realizar procesos inteligentes de captura y tratamiento de información.

Componentes de la Web Semántica.

Los principales componentes de la Web Semántica son los metalenguajes y estándares de representación XML, XML Schema, RDF, RDF Schema y OWL. La OWL Web Ontology Language Overview describe la función y relación de cada uno de estos componentes de la Web Semántica:

·      XML aporta la sintaxis superficial para los documentos estructurados, pero sin dotarles de ninguna restricción sobre el significado.

·      XML Schema es un lenguaje para definir la estructura de los documentos XML.

·      RDF es un modelo de datos para los recursos y las relaciones que se puedan establecer entre ellos. Aporta una semántica básica para este modelo de datos que puede representarse mediante XML.

·      RDF Schema es un vocabulario para describir las propiedades y las clases de los recursos RDF, con una semántica para establecer jerarquías de generalización entre dichas propiedades y clases.

·      OWL añade más vocabulario para describir propiedades y clases: tales como relaciones entre clases (p.ej. disjunción), cardinalidad (por ejemplo "únicamente uno"), igualdad, tipologías de propiedades más complejas, caracterización de propiedades (por ejemplo simetría) o clases enumeradas.

La usabilidad y aprovechamiento de la Web y sus recursos interconectados aumentará gracias a:

·      Los documentos etiquetados con información semántica (compárese esta con la etiqueta <meta> de HTML, usada para facilitar el trabajo de los robots). Se pretende que esta información sea interpretada por el ordenador con una capacidad comparable a la del lector humano. El etiquetado puede incluir metadatos descriptivos de otros aspectos documentales o protocolarios.

·      Vocabularios comunes de metadatos (ontologias) y mapas entre vocabularios que permitan a quienes elaboran los documentos disponer de nociones claras de cómo deben etiquetarlos para que los agentes automáticos puedan usar la información contenida en los metadatos (p.ej. el metadato author tenga el significado de "autor de la página" y no el del "autor del objeto descrito en la página").

·      Agentes automáticos que realicen tareas para los usuarios de estos metadatos de la Web Semántica.

·      Servicios Web (a menudo con agentes propios) que provean de información a los agentes (por ejemplo un servicio de garantías a quien un agente pudiera consultar sobre si un comercio electrónico tiene un historial de mal servicio o de generar correo basura).

Los proveedores primarios de esta tecnología son las URIs que identifican los recursos junto con XML y los namespaces. Si a esto se añade un poco de lógica, mediante una RDF, u otras tecnologías como los mapas temáticos y algo de razonamiento basado en técnicas de inteligencia artificial, la Web estará lista para alcanzar las aspiraciones de su inventor Tim Berners-Lee.

Historia de Internet 1.

La primera descripción documentada acerca de las interacciones sociales que podrían ser propiciadas a través del networking (trabajo en red) está contenida en una serie de memorándums escritos por J.C.R. Licklider, del Massachusetts Institute of Technology, en Agosto de 1962, en los cuales Licklider discute sobre su concepto de Galactic Network (Red Galáctica). El concibió una red interconectada globalmente a través de la que cada uno pudiera acceder desde cualquier lugar a datos y programas. En esencia, el concepto era muy parecido a la Internet actual. Licklider fue el principal responsable del programa de investigación en ordenadores de la DARPA (4) desde Octubre de 1962. Mientras trabajó en DARPA convenció a sus sucesores Ivan Sutherland, Bob Taylor, y el investigador del MIT Lawrence G. Roberts de la importancia del concepto de trabajo en red. En Julio de 1961 Leonard Kleinrock publicó desde el MIT el primer documento sobre la teoría de conputación de paquetes.

Kleinrock convenció a Roberts de la factibilidad teórica de las comunicaciones vía paquetes en lugar de circuitos, lo cual resultó ser un gran avance en el camino hacia el trabajo informático en red. El otro paso fundamental fue hacer dialogar a los ordenadores entre sí. Para explorar este terreno, en 1965, Roberts conectó un ordenador TX2 en Massachusetts con un Q-32 en California a través de una línea telefónica conmutada de baja velocidad, creando así la primera (aunque reducida) red de ordenadores de área amplia jamás construida. El resultado del experimento fue la constatación de que los ordenadores de tiempo compartido podían trabajar juntos correctamente, ejecutando programas y recuperando datos a discreción en la máquina remota, pero que el sistema telefónico de conmutación de circuitos era totalmente inadecuado para esta labor.

La convicción de Kleinrock acerca de la necesidad de la conmutación de paquetes quedó pues confirmada. A finales de 1966 Roberts se trasladó a la DARPA a desarrollar el concepto de red de ordenadores y rápidamente confeccionó su plan para ARPANET, publicándolo en 1967. En la conferencia en la que presentó el documento se exponía también un trabajo sobre el concepto de red de paquetes a cargo de Donald Davies y Roger Scantlebury del NPL. Scantlebury le habló a Roberts sobre su trabajo en el NPL así como sobre el de Paul Baran y otros en RAND. El grupo RAND había escrito un documento sobre redes de conmutación de paquetes para comunicación vocal segura en el ámbito militar, en 1964. Ocurrió que los trabajos del MIT (1961-67), RAND (1962-65) y NPL (1964-67) habían discurrido en paralelo sin que los investigadores hubieran conocido el trabajo de los demás. La palabra packet (paquete) fue adoptada a partir del trabajo del NPL y la velocidad de la línea propuesta para ser usada en el diseño de ARPANET fue aumentada desde 2,4 Kbps hasta 50 Kbps (5).

En Agosto de 1968, después de que Roberts y la comunidad de la DARPA hubieran refinado la estructura global y las especificaciones de ARPANET, DARPA lanzó un RFQ para el desarrollo de uno de sus componentes clave: los conmutadores de paquetes llamados interface message processors (IMPs, procesadores de mensajes de interfaz). El RFQ fue ganado en Diciembre de 1968 por un grupo encabezado por Frank Heart, de Bolt Beranek y Newman (BBN). Así como el equipo de BBN trabajó en IMPs con Bob Kahn tomando un papel principal en el diseño de la arquitectura de la ARPANET global, la topología de red y el aspecto económico fueron diseñados y optimizados por Roberts trabajando con Howard Frank y su equipo en la Network Analysis Corporation, y el sistema de medida de la red fue preparado por el equipo de Kleinrock de la Universidad de California, en Los Angeles (6). A causa del temprano desarrollo de la teoría de conmutación de paquetes de Kleinrock y su énfasis en el análisis, diseño y medición, su Network Measurement Center (Centro de Medidas de Red) en la UCLA fue seleccionado para ser el primer nodo de ARPANET. Todo ello ocurrió en Septiembre de 1969, cuando BBN instaló el primer IMP en la UCLA y quedó conectado el primer ordenador host.

El proyecto de Doug Engelbart denominado Augmentation of Human Intelect (Aumento del Intelecto Humano) que incluía NLS, un primitivo sistema hipertexto en el Instituto de Investigación de Standford (SRI) proporcionó un segundo nodo. El SRI patrocinó el Network Information Center, liderado por Elizabeth (Jake) Feinler, que desarrolló funciones tales como mantener tablas de nombres de host para la traducción de direcciones así como un directorio de RFCs (Request For Comments). Un mes más tarde, cuando el SRI fue conectado a ARPANET, el primer mensaje de host a host fue enviado desde el laboratorio de Leinrock al SRI. Se añadieron dos nodos en la Universidad de California, Santa Bárbara, y en la Universidad de Utah. Estos dos últimos nodos incorporaron proyectos de visualización de aplicaciones, con Glen Culler y Burton Fried en la UCSB investigando métodos para mostrar funciones matemáticas mediante el uso de ""storage displays"" (N. del T.: mecanismos que incorporan buffers de monitorización distribuidos en red para facilitar el refresco de la visualización) para tratar con el problema de refrescar sobre la red, y Robert Taylor y Ivan Sutherland en Utah investigando métodos de representación en 3-D a través de la red. Así, a finales de 1969, cuatro ordenadores host fueron conectados cojuntamente a la ARPANET inicial y se hizo realidad una embrionaria Internet.

Incluso en esta primitiva etapa, hay que reseñar que la investigación incorporó tanto el trabajo mediante la red ya existente como la mejora de la utilización de dicha red. Esta tradición continúa hasta el día de hoy. Se siguieron conectando ordenadores rápidamente a la ARPANET durante los años siguientes y el trabajo continuó para completar un protocolo host a host funcionalmente completo, así como software adicional de red. En Diciembre de 1970, el Network Working Group (NWG) liderado por S.Crocker acabó el protocolo host a host inicial para ARPANET, llamado Network Control Protocol (NCP, protocolo de control de red). Cuando en los nodos de ARPANET se completó la implementación del NCP durante el periodo 1971-72, los usuarios de la red pudieron finalmente comenzar a desarrollar aplicaciones. En Octubre de 1972, Kahn organizó una gran y muy exitosa demostración de ARPANET en la International Computer Communication Conference.

Esta fue la primera demostración pública de la nueva tecnología de red. Fue también en 1972 cuando se introdujo la primera aplicación ""estrella"": el correo electrónico. En Marzo, Ray Tomlinson, de BBN, escribió el software básico de envío-recepción de mensajes de correo electrónico, impulsado por la necesidad que tenían los desarrolladores de ARPANET de un mecanismo sencillo de coordinación. En Julio, Roberts expandió su valor añadido escribiendo el primer programa de utilidad de correo electrónico para relacionar, leer selectivamente, almacenar, reenviar y responder a mensajes. Desde entonces, la aplicación de correo electrónico se convirtió en la mayor de la red durante más de una década. Fue precursora del tipo de actividad que observamos hoy día en la World Wide Web, es decir, del enorme crecimiento de todas las formas de tráfico persona a persona.

Historia de Internet 2.

Introducción.

Internet ha supuesto una revolución sin precedentes en el mundo de la informática y las comunicaciones. los inventos deltelégrafofonoradio ordenador sentaron bases para esta integració capacidades nunca antes vivida. internet es a vez oportunidad difusió mundial un mecanismo propagació informació medio colaboració e interacció entre individuos sus ordenadores independientemente su localizació geográfica. Internet representa uno de los ejemplos más exitosos de los beneficios de la inversión

Sostenida y del compromiso de investigación y desarrollo en infraestructuras informáticas. A raíz de la primitiva investigación en conmutación de paquetes, el gobierno, la industria y el mundo académico han sido copartícipes de la evolución y desarrollo de esta nueva y excitante tecnología. Hoy en día, términos como [email protected] y http://www.acm.org fluyen fácilmente en el lenguaje común de las personas.

Esta pretende ser una historia breve y, necesariamente, superficial e incompleta, de Internet. Existe actualmente una gran cantidad de material sobre la historia, tecnología y uso de Internet. Un paseo por casi cualquier librería nos descubrirá un montón de estanterías con material escrito sobre Internet.

 

Esta historia gira en torno a cuatro aspectos distintos. Existe una evolución tecnológica que comienza con la primitiva investigación en conmutación de paquetes, ARPANET y tecnologías relacionadas en virtud de la cual la investigación actual continúa tratando de expandir los horizontes de la infraestructura en dimensiones tales como escala, rendimiento y funcionalidades de alto nivel. Hay aspectos de operación y gestión de una infraestructura operacional global y compleja. Existen aspectos sociales, que tuvieron como consecuencia el nacimiento de una amplia comunidad de internautas trabajando juntos para crear y hacer evolucionar la tecnología. Y finalmente, el aspecto de comercia-lización que desemboca en una transición enormemente efectiva desde los resultados de la investigación hacia una infraestructura informática ampliamente desarrollada y disponible.

 

Internet hoy en día es una infraestructura informática ampliamente extendida. Su primer prototipo es a menudo denominado National Global or Galactic Information Infrastructure (Infraestructura de Información Nacional Global o Galáctica). Su historia es compleja y comprende muchos aspectos: tecnológico, organizacional y comunitario. Y su influencia alcanza no solamente al campo técnico de las comunicaciones computacionales sino también a toda la sociedad en la medida en que nos movemos hacia el incremento del uso de las herramientas online para llevar a cabo el comercio electrónico, la adquisición de información y la acción en comunidad.

 

Orígenes de Internet.

 

La primera descripción documentada acerca de las interacciones sociales que podrían ser propiciadas a través del networking (trabajo en red) está contenida en una serie de memo-rándums escritos por J.C.R. Licklider, del Massachusetts Institute of Technology, en Agosto de 1962, en los cuales Licklider discute sobre su concepto de Galactic Network (Red Galáctica). El concibió una red interconectada globalmente a través de la que cada uno pudiera acceder desde cualquier lugar a datos y programas. En esencia, el concepto era muy parecido a la Internet actual. Licklider fue el principal responsable del programa de investigación en ordenadores de la DARPA desde Octubre de 1962. Mientras trabajó en DARPA convenció a sus sucesores Ivan Sutherland, Bob Taylor, y el investigador del MIT Lawrence G. Roberts de la importancia del concepto de trabajo en red.

En Julio de 1961 Leonard Kleinrock publicó desde el MIT el primer documento sobre la teoría de conmutación de paquetes. Kleinrock convenció a Roberts de la factibilidad teórica de las comunicaciones vía paquetes en lugar de circuitos, lo cual resultó ser un gran avance en el camino hacia el trabajo informático en red. El otro paso fundamental fue hacer dialogar a los ordenadores entre sí. Para explorar este terreno, en 1965, Roberts conectó un ordenador TX2 en Massachusetts con un Q-32 en California a través de una línea telefónica conmutada de baja velocidad, creando así la primera (aunque reducida) red de ordenadores de área amplia jamás construida. El resultado del experimento fue la constatación de que los ordenadores de tiempo compartido podían trabajar juntos correctamente, ejecutando programas y recuperando datos a discreción en la máquina remota, pero que el sistema telefónico de conmutación de circuitos era totalmente inadecuado para esta labor. La convicción de Kleinrock acerca de la necesidad de la conmutación de paquetes quedó pues confirmada.

A finales de 1966 Roberts se trasladó a la DARPA a desarrollar el concepto de red de ordenadores y rápidamente confeccionó su plan para ARPANET, publicándolo en 1967. En la conferencia en la que presentó el documento se exponía también un trabajo sobre el concepto de red de paquetes a cargo de Donald Davies y Roger Scantlebury del NPL. Scantlebury le habló a Roberts sobre su trabajo en el NPL así como sobre el de Paul Baran y otros en RAND. El grupo RAND había escrito un documento sobre redes de conmutación de paquetes para comunicación vocal segura en el ámbito militar, en 1964. Ocurrió que los trabajos del MIT (1961-67), RAND (1962-65) y NPL (1964-67) habían discurrido en paralelo sin que los investigadores hubieran conocido el trabajo de los demás. La palabra packet (paquete) fue adoptada a partir del trabajo del NPL y la velocidad de la línea propuesta para ser usada en el diseño de ARPANET fue aumentada desde 2,4 Kbps hasta 50 Kbps.

En Agosto de 1968, después de que Roberts y la comunidad de la DARPA hubieran refinado la estructura global y las especificaciones de ARPANET, DARPA lanzó un RFQ para el desarrollo de uno de sus componentes clave: los conmutadores de paquetes llamados interface message processors (IMPs, procesadores de mensajes de interfaz). El RFQ fue ganado en Diciembre de 1968 por un grupo encabezado por Frank Heart, de Bolt Beranek y Newman (BBN). Así como el equipo de BBN trabajó en IMPs con Bob Kahn tomando un papel principal en el diseño de la arquitectura de la ARPANET global, la topología de red y el aspecto económico fueron diseñados y optimizados por Roberts trabajando con Howard Frank y su equipo en la Network Analysis Corporation, y el sistema de medida de la red fue preparado por el equipo de Kleinrock de la Universidad de California, en Los Angeles.

A causa del temprano desarrollo de la teoría de conmutación de paquetes de Kleinrock y su énfasis en el análisis, diseño y medición, su Network Measurement Center (Centro de Medidas de Red) en la UCLA fue seleccionado para ser el primer nodo de ARPANET. Todo ello ocurrió en Septiembre de 1969, cuando BBN instaló el primer IMP en la UCLA y quedó conectado el primer ordenador host. El proyecto de Doug Engelbart denominado Augmentation of Human Intelect (Aumento del Intelecto Humano) que incluía NLS, un primitivo sistema hipertexto en el Instituto de Investigación de Standford (SRI) proporcionó un segundo nodo. El SRI patrocinó el Network Information Center, liderado por Elizabeth (Jake) Feinler, que desarrolló funciones tales como mantener tablas de nombres de host para la traducción de direcciones así como un directorio de RFCs (Request For Comments). Un mes más tarde, cuando el SRI fue conectado a ARPANET, el primer mensaje de host a host fue enviado desde el laboratorio de Leinrock al SRI. Se añadieron dos nodos en la Universidad de California, Santa Bárbara, y en la Universidad de Utah. Estos dos últimos nodos incorporaron proyectos de visualización de aplicaciones, con Glen Culler y Burton Fried en la UCSB investigando métodos para mostrar funciones matemáticas mediante el uso de "storage displays" (N. del T.: mecanismos que incorporan buffers de monitorización distribuidos en red para facilitar el refresco de la visualización) para tratar con el problema de refrescar sobre la red, y Robert Taylor y Ivan Sutherland en Utah investigando métodos de representación en 3-D a través de la red. Así, a finales de 1969, cuatro ordenadores host fueron conectados cojuntamente a la ARPANET inicial y se hizo realidad una embrionaria Internet. Incluso en esta primitiva etapa, hay que reseñar que la investigación incorporó tanto el trabajo mediante la red ya existente como la mejora de la utilización de dicha red. Esta tradición continúa hasta el día de hoy.

Se siguieron conectando ordenadores rápidamente a la ARPANET durante los años siguientes y el trabajo continuó para completar un protocolo host a host funcionalmente completo, así como software adicional de red. En Diciembre de 1970, el Network Working Group (NWG) liderado por S.Crocker acabó el protocolo host a host inicial para ARPANET, llamado Network Control Protocol (NCP, protocolo de control de red). Cuando en los nodos de ARPANET se completó la implementación del NCP durante el periodo 1971-72, los usuarios de la red pudieron finalmente comenzar a desarrollar aplicaciones.

En Octubre de 1972, Kahn organizó una gran y muy exitosa demostración de ARPANET en la International Computer Communication Conference. Esta fue la primera demostración pública de la nueva tecnología de red. Fue también en 1972 cuando se introdujo la primera aplicación "estrella": el correo electrónico.

En Marzo, Ray Tomlinson, de BBN, escribió el software básico de envío-recepción de mensajes de correo electrónico, impulsado por la necesidad que tenían los desarrolladores de ARPANET de un mecanismo sencillo de coordinación. En Julio, Roberts expandió su valor añadido escribiendo el primer programa de utilidad de correo electrónico para relacionar, leer selectivamente, almacenar, reenviar y responder a mensajes. Desde entonces, la aplicación de correo electrónico se convirtió en la mayor de la red durante más de una década. Fue precursora del tipo de actividad que observamos hoy día en la World Wide Web, es decir, del enorme crecimiento de todas las formas de tráfico persona a persona.

 

Conceptos iniciales sobre Internetting.

La ARPANET original evolucionó hacia Internet. Internet se basó en la idea de que habría múltiples redes independientes, de diseño casi arbitrario, empezando por ARPANET como la red pionera de conmutación de paquetes, pero que pronto incluiría redes de paquetes por satélite, redes de paquetes por radio y otros tipos de red. Internet como ahora la conocemos encierra una idea técnica clave, la de arquitectura abierta de trabajo en red. Bajo este enfoque, la elección de cualquier tecnología de red individual no respondería a una arquitectura específica de red sino que podría ser seleccionada libremente por un proveedor e interactuar con las otras redes a través del metanivel de la arquitectura de Internetworking (trabajo entre redes). Hasta ese momento, había un sólo método para "federar" redes. Era el tradicional método de conmutación de circuitos, por el cual las redes se interconectaban a nivel de circuito pasándose bits individuales síncro-namente a lo largo de una porción de circuito que unía un par de sedes finales. Cabe recordar que Kleinrock había mostrado en 1961 que la conmutación de paquetes era el método de conmutación más eficiente. Juntamente con la conmutación de paquetes, las interconexiones de propósito especial entre redes constituían otra posibilidad. Y aunque había otros métodos limitados de interconexión de redes distintas, éstos requerían que una de ellas fuera usada como componente de la otra en lugar de actuar simplemente como un extremo de la comunicación para ofrecer servicio end-to-end (extremo a extremo).

En una red de arquitectura abierta, las redes individuales pueden ser diseñadas y desarrolladas separadamente y cada una puede tener su propia y única interfaz, que puede ofrecer a los usuarios y/u otros proveedores, incluyendo otros proveedores de Internet. Cada red puede ser diseñada de acuerdo con su entorno específico y los requerimientos de los usuarios de aquella red. No existen generalmente restricciones en los tipos de red que pueden ser incorporadas ni tampoco en su ámbito geográfico, aunque ciertas consideraciones pragmáticas determinan qué posibilidades tienen sentido. La idea de arquitectura de red abierta fue introducida primeramente por Kahn un poco antes de su llegada a la DARPA en 1972. Este trabajo fue originalmente parte de su programa de paquetería por radio, pero más tarde se convirtió por derecho propio en un programa separado. Entonces, el programa fue llamado Internetting. La clave para realizar el trabajo del sistema de paquetería por radio fue un protocolo extremo a extremo seguro que pudiera mantener la comunicación efectiva frente a los cortes e interferencias de radio y que pudiera manejar las pérdidas intermitentes como las causadas por el paso a través de un túnel o el bloqueo a nivel local. Kahn pensó primero en desarrollar un protocolo local sólo para la red de paquetería por radio porque ello le hubiera evitado tratar con la multitud de sistemas operativos distintos y continuar usando NCP.

Sin embargo, NCP no tenía capacidad para direccionar redes y máquinas más allá de un destino IMP en ARPANET y de esta manera se requerían ciertos cambios en el NCP. La premisa era que ARPANET no podía ser cambiado en este aspecto. El NCP se basaba en ARPANET para proporcionar seguridad extremo a extremo. Si alguno de los paquetes se perdía, el protocolo y presumiblemente cualquier aplicación soportada sufriría una grave interrupción. En este modelo, el NCP no tenía control de errores en el host porque ARPANET había de ser la única red existente y era tan fiable que no requería ningún control de errores en la parte de los hosts.

Así, Kahn decidió desarrollar una nueva versión del protocolo que pudiera satisfacer las necesidades de un entorno de red de arquitectura abierta. El protocolo podría eventualmente ser denominado "transmision-control protocol/Internet protocol" (TCP/IP, protocolo de control de transmisión /protocolo de Internet). Así como el NCP tendía a actuar como un driver (manejador) de dispositivo, el nuevo protocolo sería más bien un protocolo de comunicaciones.

 

Reglas clave.

 

Cuatro fueron las reglas fundamentales en las primeras ideas de Kahn:

·      Cada red distinta debería mantenerse por sí misma y no deberían requerirse cambios internos a ninguna de ellas para conectarse a Internet.

·      Las comunicaciones deberían ser establecidas en base a la filosofía del "best-effort" (lo mejor posible). Si un paquete no llegara a su destino debería ser en breve retransmitido desde el emisor.

Para interconectar redes se usarían cajas negras, las cuales más tarde serían denominadas gateways (pasarelas) y routers (enrutadores).

·      Los gateways no deberían almacenar información alguna sobre los flujos individuales de paquetes que circulasen a través de ellos, manteniendo de esta manera su simplicidad y evitando la complicada adaptación y recuperación a partir de las diversas modalidades de fallo.

·      No habría ningún control global a nivel de operaciones.

Otras cuestiones clave que debían ser resueltas eran:

·      Algoritmos para evitar la pérdida de paquetes en base a la invalidación de las comunicaciones y la reiniciación de las mismas para la retransmisión exitosa desde el emisor.

·      Provisión de pipelining ("tuberías") host a host de tal forma que se pudieran enrutar múltiples paquetes desde el origen al destino a discreción de los hosts participantes, siempre que las redes intermedias lo permitieran.

·      Funciones de pasarela para permitir redirigir los paquetes adecuadamente. Esto incluía la interpretación de las cabeceras IP para enrutado, manejo de interfaces y división de paquetes en trozos más pequeños si fuera necesario.

·      La necesidad de controles (checksums) extremo a extremo, reensamblaje de paquetes a partir de fragmentos, y detección de duplicados si los hubiere.

·      Necesidad de direccionamiento global.

·      Técnicas para el control del flujo host a host.

·      Interacción con varios sistemas operativos.

·      Implementación eficiente y rendimiento de la red, aunque en principio éstas eran consideraciones secundarias.

Kahn empezó a trabajar en un conjunto de principios para sistemas opera-tivos orientados a comunicaciones mientras se encontraba en BBN y escribió algunas de sus primeras ideas en un memorándum interno de BBN titulado "Communications Principles for Operating Systems". En ese momento, se dió cuenta de que le sería necesario aprender los detalles de imple-mentación de cada sistema operativo para tener la posibilidad de incluir nuevos protocolos de manera eficiente. Así, en la primavera de 1973, después de haber empezado el trabajo de "Internetting", le pidió a Vinton Cerf (entonces en la Universidad de Stanford) que trabajara con él en el diseño detallado del protocolo. Cerf había estado íntimamente implicado en el diseño y desarrollo original del NCP y ya tenía conocimientos sobre la construcción de interfaces con los sistemas operativos existentes. De esta forma, valiéndose del enfoque arqui-tectural de Kahn en cuanto a comunicaciones y de la experiencia en NCP de Cerf, se asociaron para abordar los detalles de lo que acabaría siendo TCP/IP.

El trabajo en común fue altamente productivo y la primera versión escrita (7) bajo este enfoque fue distribuida en una sesión especial del INWG (International Network Working Group, Grupo de trabajo sobre redes internacionales) que había sido convocada con motivo de una conferencia de la Universidad de Sussex en Septiembre de 1973. Cerf había sido invitado a presidir el grupo y aprovechó la ocasión para celebrar una reunión de los miembros del INWG, ampliamente representados en esta conferencia de Sussex.

Estas son las directrices básicas que surgieron de la colaboración entre Kahn y Cerf:

Las comunicaciones entre dos procesos consistirían lógicamente en una larga corriente de bytes; ellos los llamaban "octetos". La posición de un octeto dentro de esta corriente de datos sería usada para identificarlo. El control del flujo se realizaría usando ventanas deslizantes y acks (N. del T.: abreviatura de acknowled-gment, acuse de recibo). El destinatario podría decidir cuando enviar acuse de recibo y cada ack devuelto correspondería a todos los paquetes recibidos hasta el momento.
Se dejó abierto el modo exacto en que emisor y destinatario acordarían los parámetros sobre los tamaños de las ventanas a usar. Se usaron inicialmente valores por defecto.
Aunque en aquellos momentos Ethernet estaba en desarrollo en el PARC de Xerox, la proliferación de LANs no había sido prevista entonces y mucho menos la de PCs y estaciones de trabajo. El modelo original fue concebido como un conjunto, que se esperaba reducido, de redes de ámbito nacional tipo ARPANET. De este modo, se usó una dirección IP de 32 bits, de la cual los primeros 8 identificaban la red y los restantes 24 designaban el host dentro de dicha red. La decisión de que 256 redes serían suficiente para el futuro previsible debió empezar a reconsiderarse en cuanto las LANs empezaron a aparecer a finales de los setenta.

El documento original de Cerf y Kahn sobre Internet describía un protocolo, llamado TCP, que se encargaba de proveer todos los servicios de transporte y reenvío en Internet. Kahn pretendía que TCP diera soporte a un amplio rango de servicios de transporte, desde el envío secuencial de datos, totalmente fiable (modelo de circuito virtual) hasta un servicio de datagramas en el que la aplicación hiciera un uso directo del servicio de red subyacente, lo que podría implicar pérdida ocasional, corrupción o reordenación de paquetes.

Sin embargo, el esfuerzo inicial de implementación de TCP dio lugar a una versión que sólo permitía circuitos virtuales. Este modelo funcionaba perfectamente en la transferencia de ficheros y en las aplicaciones de login remoto, pero algunos de los primeros trabajos sobre aplicaciones avanzadas de redes (en particular el empa-quetamiento de voz en los años 70) dejó bien claro que, en ciertos casos, el TCP no debía encargarse de corregir las pérdidas de paquetes y que había que dejar a la aplicación que se ocupara de ello. Esto llevó a la reorganización del TCP original en dos protocolos: uno sencillo, IP, que se encargara tan sólo de dar una dirección a los paquetes y de reenviarlos; y un TCP que se dedicara a una serie de funcionalidades como el control del flujo y la recuperación de los paquetes perdidos. Para aquellas aplicaciones que no precisan los servicios de TCP, se añadió un protocolo alternativo llamado UDP (User Datagram Protocol, protocolo de datagramas de usuario) dedicado a dar un acceso directo a los servicios básicos del IP.

Una de las motivaciones iniciales de ARPANET e Internet fue compartir recursos, por ejemplo, permitiendo que usuarios de redes de paquetes sobre radio pudieran acceder a sistemas de tiempo compartido conectados a ARPANET. Conectar las dos redes era mucho más económico que duplicar estos carísimos ordenadores. Sin embargo, mientras la transferencia de ficheros y el login remoto (Telnet) eran aplicaciones muy importantes, de todas las de esta época probablemente sea el correo electrónico la que haya tenido un impacto más significativo. El correo electrónico dio lugar a un nuevo modelo de comunicación entre las personas y cambió la naturaleza de la colaboración. Su influencia se manifestó en primer lugar en la construcción de la propia Internet (como veremos más adelante), y posteriormente, en buena parte de la sociedad.

Se propusieron otras aplicaciones en los primeros tiempos de Internet, desde la comunicación vocal basada en paquetes (precursora de la telefonía sobre Internet) o varios modelos para compartir ficheros y discos, hasta los primeros "programas-gusano" que mostraban el concepto de agente (y, por supuesto, de virus). Un concepto clave en Internet es que no fue diseñada para una única aplicación sino como una infraestructura general dentro de la que podrían concebirse nuevos servicios, como con posterioridad demostró la aparición de la World Wide Web. Este fue posible solamente debido a la orientación de propósito general que tenía el servicio implementado mediante TCP e IP.

 

Ideas a prueba.

 

DARPA formalizó tres contratos con Stanford (Cerf), BBN (Ray Tomlinson) y UCLA (Peter Kirstein) para imple-mentar TCP/IP (en el documento original de Cerf y Kahn se llamaba simplemente TCP pero contenía ambos componentes). El equipo de Stanford, dirigido por Cerf, produjo las especificaciones detalladas y al cabo de un año hubo tres implementaciones independientes de TCP que podían interoperar.

Este fue el principio de un largo periodo de experimentación y desarrollo para evolucionar y madurar el concepto y tecnología de Internet. Partiendo de las tres primeras redes ARPANET, radio y satélite y de sus comunidades de investigación iniciales, el entorno experimental creció hasta incorporar esencialmente cualquier forma de red y una amplia comunidad de investigación y desarrollo [REK78]. Cada expansión afrontó nuevos desafíos.

Las primeras implementaciones de TCP se hicieron para grandes sistemas en tiempo compartido como Tenex y TOPS 20. Cuando aparecieron los ordenadores de sobremesa (desktop), TCP era demasiado grande y complejo como para funcionar en ordenadores personales. David Clark y su equipo de investigación del MIT empezaron a buscar la implementación de TCP más sencilla y compacta posible. La desarrollaron, primero para el Alto de Xerox (la primera estación de trabajo personal desarrollada en el PARC de Xerox), y luego para el PC de IBM. Esta implementación operaba con otras de TCP, pero estaba adaptada al conjunto de aplicaciones y a las prestaciones de un ordenador personal, y demostraba que las estaciones de trabajo, al igual que los grandes sistemas, podían ser parte de Internet.

En los años 80, el desarrollo de LAN, PC y estaciones de trabajo permitió que la naciente Internet floreciera. La tecnología Ethernet, desarrollada por Bob Metcalfe en el PARC de Xerox en 1973, es la dominante en Internet, y los PCs y las estaciones de trabajo los modelos de ordenador dominantes. El cambio que supone pasar de unas pocas redes con un modesto número de hosts (el modelo original de ARPANET) a tener muchas redes dio lugar a nuevos conceptos y a cambios en la tecnología. En primer lugar, hubo que definir tres clases de redes (A, B y C) para acomodar todas las existentes. La clase A representa a las redes grandes, a escala nacional (pocas redes con muchos ordenadores); la clase B representa redes regionales; por último, la clase C representa redes de área local (muchas redes con relativamente pocos ordenadores).

Como resultado del crecimiento de Internet, se produjo un cambio de gran importancia para la red y su gestión. Para facilitar el uso de Internet por sus usuarios se asignaron nombres a los hosts de forma que resultara innecesario recordar sus direcciones numéricas. Originalmente había un número muy limitado de máquinas, por lo que bastaba con una simple tabla con todos los ordenadores y sus direcciones asociadas.

El cambio hacia un gran número de redes gestionadas independientemente (por ejemplo, las LAN) significó que no resultara ya fiable tener una pequeña tabla con todos los hosts. Esto llevó a la invención del DNS (Domain Name System, sistema de nombres de dominio) por Paul Mockapetris de USC/ISI. El DNS permitía un mecanismo escalable y distribuido para resolver jerárquicamente los nombres de los hosts (por ejemplo, www.acm.org o www.ati.es) en direcciones de Internet.

El incremento del tamaño de Internet resultó también un desafío para los routers. Originalmente había un sencillo algoritmo de enrutamiento que estaba implementado uniformemente en todos los routers de Internet. A medida que el número de redes en Internet se multiplicaba, el diseño inicial no era ya capaz de expandirse, por lo que fue sustituido por un modelo jerárquico de enrutamiento con un protocolo IGP (Interior Gateway Protocol, protocolo interno de pasarela) usado dentro de cada región de Internet y un protocolo EGP (Exterior Gateway Protocol, protocolo externo de pasarela) usado para mantener unidas las regiones. El diseño permitía que distintas regiones utilizaran IGP distintos, por lo que los requisitos de coste, velocidad de configuración, robustez y escalabilidad, podían ajustarse a cada situación. Los algoritmos de enrutamiento no eran los únicos en poner en dificultades la capacidad de los routers, también lo hacía el tamaño de la tablas de direccionamiento. Se presentaron nuevas aproximaciones a la agregación de direcciones (en particular CIDR, Classless Interdomain Routing, enrutamiento entre dominios sin clase) para controlar el tamaño de las tablas de enrutamiento.

A medida que evolucionaba Internet, la propagación de los cambios en el software, especialmente el de los hosts, se fue convirtiendo en uno de sus mayores desafíos. DARPA financió a la Universidad de California en Berkeley en una investigación sobre modificaciones en el sistema operativo Unix, incorporando el TCP/IP desarrollado en BBN. Aunque posteriormente Berkeley modificó esta implementación del BBN para que operara de forma más eficiente con el sistema y el kernel de Unix, la incorporación de TCP/IP en el sistema Unix BSD demostró ser un elemento crítico en la difusión de los protocolos entre la comunidad investigadora. BSD empezó a ser utilizado en sus operaciones diarias por buena parte de la comunidad investigadora en temas relacionados con informática. Visto en perspectiva, la estrategia de incorporar los protocolos de Internet en un sistema operativo utilizado por la comunidad investigadora fue uno de los elementos clave en la exitosa y amplia aceptación de Internet.

Uno de los desafíos más interesantes fue la transición del protocolo para hosts de ARPANET desde NCP a TCP/IP el 1 de enero de 1983. Se trataba de una ocasión muy importante que exigía que todos los hosts se convirtieran simultáneamente o que permanecieran comunicados mediante mecanismos desarrollados para la ocasión. La transición fue cuidadosamente planificada dentro de la comunidad con varios años de antelación a la fecha, pero fue sorprendentemente sobre ruedas (a pesar de dar la lugar a la distribución de insignias con la inscripción "Yo sobreviví a la transición a TCP/IP").

TCP/IP había sido adoptado como un estándar por el ejército norteamericano tres años antes, en 1980. Esto permitió al ejército empezar a compartir la tecnología DARPA basada en Internet y llevó a la separación final entre las comunidades militares y no militares. En 1983 ARPANET estaba siendo usada por un número significativo de organizaciones operativas y de investigación y desarrollo en el área de la defensa. La transición desde NCP a TCP/IP en ARPANET permitió la división en una MILNET para dar soporte a requisitos operativos y una ARPANET para las necesidades de investigación.

 

Así, en 1985, Internet estaba firmemente establecida como una tecnología que ayudaba a una amplia comunidad de investigadores y desarrol-ladores, y empezaba a ser empleada por otros grupos en sus comunicaciones diarias entre ordenadores. El correo electrónico se empleaba ampliamente entre varias comunidades, a menudo entre distintos sistemas. La interconexión entre los diversos sistemas de correo demostraba la utilidad de las comunicaciones electrónicas entre personas.

 

La transición hacia una infraestructura global.

 

Al mismo tiempo que la tecnología Internet estaba siendo validada experimentalmente y usada ampliamente entre un grupo de investigadores de informática se estaban desarrollando otras redes y tecnologías. La utilidad de las redes de ordenadores (especialmente el correo electrónico utilizado por los contratistas de DARPA y el De-partamento de Defensa en ARPANET) siguió siendo evidente para otras comunidades y disciplinas de forma que a mediados de los años 70 las redes de ordenadores comenzaron a difundirse allá donde se podía encontrar financiación para las mismas.

El Departamento norteamericano de Energía (DoE, Deparment of Energy) estableció MFENet para sus investigadores que trabajaban sobre energía de fusión, mientras que los físicos de altas energías fueron los encargados de construir HEPNet. Los físicos de la NASA continuaron con SPAN y Rick Adrion, David Farber y Larry Landweber fundaron CSNET para la comunidad informática académica y de la industria con la financiación inicial de la NFS (National Science Foundation, Fundación Nacional de la Ciencia) de Estados Unidos. La libre diseminación del sistema operativo Unix de ATT dio lugar a USENET, basada en los protocolos de comunicación UUCP de Unix, y en 1981 Greydon Freeman e Ira Fuchs diseñaron BITNET, que unía los ordenadores centrales del mundo académico siguiendo el paradigma de correo electrónico como "postales". Con la excepción de BITNET y USENET, todas las primeras redes (como ARPANET) se construyeron para un propósito determinado. Es decir, estaban dedicadas (y restringidas) a comunidades cerradas de estudiosos; de ahí las escasas presiones por hacer estas redes compatibles y, en consecuencia, el hecho de que durante mucho tiempo no lo fueran. Además, estaban empezando a proponerse tecnologías alternativas en el sector comercial, como XNS de Xerox, DECNet, y la SNA de IBM (8). Sólo restaba que los programas ingleses JANET (1984) y norteamericano NSFNET (1985) anunciaran explícitamente que su propósito era servir a toda la comunidad de la enseñanza superior sin importar su disciplina. De hecho, una de las condiciones para que una universidad norteamericana recibiera financiación de la NSF para conectarse a Internet era que "la conexión estuviera disponible para todos los usuarios cualificados del campus".

En 1985 Dennins Jenning acudió desde Irlanda para pasar un año en NFS dirigiendo el programa NSFNET. Trabajó con el resto de la comunidad para ayudar a la NSF a tomar una decisión crítica: si TCP/IP debería ser obligatorio en el programa NSFNET. Cuando Steve Wolff llegó al programa NFSNET en 1986 reconoció la necesidad de una infraestructura de red amplia que pudiera ser de ayuda a la comunidad investigadora y a la académica en ge-neral, junto a la necesidad de desarrollar una estrategia para establecer esta infraestructura sobre bases independientes de la financiación pública directa. Se adoptaron varias políticas y estrategias para alcanzar estos fines.

La NSF optó también por mantener la infraestructura organizativa de Internet existente (DARPA) dispuesta jerárqui-camente bajo el IAB (Internet Activities Board, Comité de Actividades de Internet). La declaración pública de esta decisión firmada por todos sus autores (por los grupos de Arquitectura e Ingeniería de la IAB, y por el NTAG de la NSF) apareció como la RFC 985 ("Requisitos para pasarelas de Internet") que formalmente aseguraba la interoperatividad entre las partes de Internet dependientes de DARPA y de NSF.

Junto a la selección de TCP/IP para el programa NSFNET, las agencias federales norteamericanas idearon y pusieron en práctica otras decisiones que llevaron a la Internet de hoy:

Las agencias federales compartían el coste de la infraestructura común, como los circuitos trans-oceánicos. También mantenían la gestión de puntos de interconexión para el tráfico entre agencias: los "Federal Internet Exchanges" (FIX-E y FIX-W) que se desarrollaron con este propósito sirvieron de modelo para los puntos de acceso a red y los sistemas *IX que son unas de las funcionalidades más destacadas de la arquitectura de la Internet actual.

Para coordinar estas actividades se formó el FNC (Federal Networking Council, Consejo Federal de Redes) (9). El FNC cooperaba también con otras organizaciones internacionales, como RARE en Europa, a través del CCIRN (Coordinating Committee on Intercontinental Research Networking, Comité de Coordinación Intercontinental de Investigación sobre Redes) para coordinar el apoyo a Internet de la comunidad investigadora mundial.

Esta cooperación entre agencias en temas relacionados con Internet tiene una larga historia. En 1981, un acuerdo sin precedentes entre Farber, actuando en nombre de CSNET y NSF, y Kahn por DARPA, permitió que el tráfico de CSNET compartiera la infraestructura de ARPANET de acuerdo según parámetros estadísticos. En consecuencia, y de forma simi-lar, la NFS promocionó sus redes regionales de NSFNET, inicialmente académicas, para buscar clientes comerciales, expandiendo sus servicios y explotando las economías de escala resultantes para reducir los costes de suscripción para todos.

En el backbone NFSNET (el segmento que cruza los EE.UU.) NSF estableció una política aceptable de uso (AUP, Acceptable-Use Policy) que prohibía el uso del backbone para fines "que no fueran de apoyo a la Investigación y la Educación". El predecible e intencionado resultado de promocionar el tráfico comercial en la red a niveles locales y regionales era estimular la aparición y/o crecimiento de grandes redes privadas y competitivas como PSI, UUNET, ANS CO+RE, y, posteriormente, otras. Este proceso de aumento de la financiación privada para el uso comercial se resolvió tras largas discusiones que empezaron en 1988 con una serie de conferencias patrocinadas por NSF en la Kennedy School of Government de la Universidad de Harvard, bajo el lema "La comercialización y privatización de Internet", complementadas por la lista "com-priv" de la propia red.

En 1988 un comité del National Research Council (Consejo Nacional de Investigación), presidido por Kleinrock y entre cuyos miembros estaban Clark y Kahn, elaboró un informe dirigido a la NSF y titulado "Towards a National Research Network". El informe llamó la atención del entonces senador Al Gore (N. del T.: Vicepresidente de los EE.UU. desde 1992) le introdujo en las redes de alta velocidad que pusieron los cimientos de la futura «Autopista de la Información».

La política de privatización de la NSF culminó en Abril de 1995 con la eliminación de la financiación del backbone NSFNET. Los fondos así recuperados fueron redis-tribuidos competitivamente entre redes regionales para comprar conectividad de ámbito nacional a Internet a las ahora numerosas redes privadas de larga distancia.

El backbone había hecho la transición desde una red construida con routers de la comunidad investigadora (los routers Fuzzball de David Mills) a equipos comerciales. En su vida de ocho años y medio, el backbone había crecido desde seis nodos con enlaces de 56Kb a 21 nodos con enlaces múltiples de 45Mb.Había visto crecer Internet hasta alcanzar más de 50.000 redes en los cinco continentes y en el espacio exterior, con aproximadamente 29.000 redes en los Estados Unidos.

El efecto del ecumenismo del programa NSFNET y su financiación (200 millones de dólares entre 1986 y 1995)y de la calidad de los protocolos fue tal que en 1990, cuando la propia ARPANET se disolvió, TCP/IP había sustituido o marginado a la mayor parte de los restantes protocolos de grandes redes de ordenadores e IP estaba en camino de convertirse en el servicio portador de la llamada Infraestructura Global de Información.

 

El papel de la documentación.

Un aspecto clave del rápido crecimiento de Internet ha sido el acceso libre y abierto a los documentos básicos, especialmente a las especificaciones de los protocolos.

Los comienzos de Arpanet y de Internet en la comunidad de investigación universitaria estimularon la tradición académica de la publicación abierta de ideas y resultados. Sin embargo, el ciclo normal de la publicación académica tradicional era demasiado formal y lento para el intercambio dinámico de ideas, esencial para crear redes.

En 1969 S.Crocker, entonces en UCLA, dio un paso clave al establecer la serie de notas RFC (Request For Comments, petición de comentarios). Estos memorándums pretendieron ser una vía informal y de distribución rápida para compartir ideas con otros investigadores en redes. Al principio, las RFC fueron impresas en papel y distribuidas vía correo "lento". Pero cuando el FTP (File Transfer Protocol, protocolo de transferencia de ficheros) empezó a usarse, las RFC se convirtieron en ficheros difundidos online a los que se accedía vía FTP. Hoy en día, desde luego, están disponibles en el World Wide Web en decenas de emplazamientos en todo el mundo. SRI, en su papel como Centro de Información en la Red, mantenía los directorios online. Jon Postel actuaba como editor de RFC y como gestor de la administración centralizada de la asignación de los números de protocolo requeridos, tareas en las que continúa hoy en día.

El efecto de las RFC era crear un bucle positivo de realimentación, con ideas o propuestas presentadas a base de que una RFC impulsara otra RFC con ideas adicionales y así sucesivamente. Una vez se hubiera obtenido un consenso se prepararía un documento de especificación. Tal especificación seria entonces usada como la base para las implementaciones por parte de los equipos de investigación.

Con el paso del tiempo, las RFC se han enfocado a estándares de protocolo -las especificaciones oficiales- aunque hay todavía RFC informativas que describen enfoques alternativos o proporcionan información de soporte en temas de protocolos e ingeniería. Las RFC son vistas ahora como los documentos de registro dentro de la comunidad de estándares y de ingeniería en Internet.

El acceso abierto a las RFC -libre si se dispone de cualquier clase de conexión a Internet- promueve el crecimiento de Internet porque permite que las especificaciones sean usadas a modo de ejemplo en las aulas universitarias o por emprendedores al desarrollar nuevos sistemas.

El e-mail o correo electrónico ha supuesto un factor determinante en todas las áreas de Internet, lo que es particularmente cierto en el desarrollo de las especificaciones de protocolos, están-dares técnicos e ingeniería en Internet. Las primitivas RFC a menudo presentaban al resto de la comunidad un conjunto de ideas desarrolladas por investigadores de un solo lugar. Después de empezar a usarse el correo electrónico, el modelo de autoría cambió: las RFC pasaron a ser presentadas por coautores con visiones en común, independientemente de su localización.

Las listas de correo especializadas ha sido usadas ampliamente en el desarrollo de la especificación de protocolos, y continúan siendo una herramienta importante. El IETF tiene ahora más de 75 grupos de trabajo, cada uno dedicado a un aspecto distinto de la ingeniería en Internet. Cada uno de estos grupos de trabajo dispone de una lista de correo para discutir uno o más borradores bajo desarrollo. Cuando se alcanza el consenso en el documento, éste puede ser distribuido como una RFC.

Debido a que la rápida expansión actual de Internet se alimenta por el aprovechamiento de su capacidad de promover la compartición de información, deberíamos entender que el primer papel en esta tarea consistió en compartir la información acerca de su propio diseño y operación a través de los documentos RFC. Este método único de producir nuevas capacidades en la red continuará siendo crítico para la futura evolución de Internet.

 

Formación de la Comunidad Amplia.

Internet es tanto un conjunto de comunidades como un conjunto de tecnologías y su éxito se puede atribuir tanto a la satisfacción de las necesidades básicas de la comunidad como a la utilización de esta comunidad de un modo efectivo para impulsar la infraestructura. El espíritu comunitario tiene una larga historia, empezando por la temprana ARPANET. Los investigadores de ésta red trabajaban como una comunidad cerrada para llevar a cabo las demostraciones iniciales de la tecnología de conmutación de paquetes descrita en la primera parte de este artículo.

Del mismo modo, la Paquetería por Satélite, la Paquetería por Radio y varios otros programas de investigación informática de la DARPA fueron actividades cooperativas y de contrato múltiple que, aún con dificultades, usaban cualquiera de los mecanismos disponibles para coordinar sus esfuerzos, empezando por el correo electrónico y siguiendo por la com-partición de ficheros, acceso remoto y finalmente las prestaciones de la World Wide Web.

Cada uno de estos programas formaban un grupo de trabajo, empezando por el ARPANET Network Working Group (Grupo de Trabajo de la Red ARPANET). Dado que el único papel que ARPANET representaba era actuar como soporte de la infraestructura de los diversos programas de investigación, cuando Internet empezó a evolucionar, el Grupo de Trabajo de la Red se transformó en Grupo de Trabajo de Internet.

A finales de los 70, como reconocimiento de que el crecimiento de Internet estaba siendo acompañado por un incremento en el tamaño de la comunidad investigadora interesada y, por tanto, generando una necesidad creciente de mecanismos de coordinación, Vinton Cerf, por entonces director del programa de Internet en DARPA, formó varios grupos de coordinación: el ICB (International Cooperation Board, Consejo de Cooperación Internacional) presidido por Peter Kirstein, para coordinar las actividades con los países cooperantes europeos y dedicado a la investigación en Paquetería por Satélite; el Internet Research Group (Grupo de Investigación en Internet), que fue un grupo inclusivo para proporcionar un entorno para el intercambio general de información; y el ICCB (Internet Configura-tion Control Board , Consejo de Control de la Configuración de Internet), presidido por Clark. El ICCB fue un grupo al que se pertenecía por invitación para asistir a Cerf en la dirección de la actividad incipiente de Internet.

En 1983, cuando Barry Leiner asumió la dirección del programa de investigación en DARPA, él y Clark observaron que el continuo crecimiento de la comunidad de Internet demandaba la reestructuración de los mecanismos de coordinación. El ICCB fue disuelto y sustituido por una estructura de equipos de trabajo, cada uno de ellos enfocado a un área específica de la tecnología, tal como los routers (encamina-dores) o los protocolos extremo a extremo. Se creó el IAB (Internet Architec-ture Board, Consejo de la Arquitectura de Internet) incluyendo a los presidentes de los equipos de trabajo. Era, des-de luego, solamente una coincidencia que los presidentes de los equipos de trabajo fueran las mismas personas que constituían el antiguo ICCB, y Clark continuó actuando como presidente.

Después de algunos cambios en la composición del IAB, Phill Gross fue nombrado presidente del revitalizado IETF (Internet Engineering Task Force, Equipo de Trabajo de Ingeniería de Internet), que en aquel momento era meramente un equipo de trabajo del IAB. Como mencionamos con anterioridad, en 1985 se produjo un tremendo crecimiento en el aspecto más práctico de la ingeniería de Internet. Tal crecimiento desembocó en una explosión en la asistencia a las reuniones del IETF y Gross se vio obligado a crear una subestructura en el IETF en forma de grupos de trabajo.

El crecimiento de Internet fue complementado por una gran expansión de la comunidad de usuarios. DARPA dejó de ser el único protagonista en la financiación de Internet. Además de NSFNET y de varias actividades financiadas por los gobiernos de Estados Unidos y otros países, el interés de parte del mundo empresarial había empezado a crecer. También en 1985, Kahn y Leiner abandonaron DARPA, y ello supuso un descenso significativo de la actividad de Internet allí. Como consecuencia, el IAB perdió a su principal espónsor y poco a poco fue asumiendo el liderazgo.

El crecimiento continuó y desembocó en una subestructura adicional tanto en el IAB como en el IETF. El IETF integró grupos de trabajo en áreas y designó directores de área. El IESG (Internet Engineering Steering Group, Grupo de Dirección de Ingeniería de Internet) se formó con estos directores de área. El IAB reconoció la importancia creciente del IETF y reestructuró el proceso de estándares para reconocer explícitamente al IESG como la principal entidad de revisión de estándares. El IAB también se reestructuró de manera que el resto de equipos de trabajo (aparte del IETF) se agruparon en el IRTF (Internet Research Task Force, Equipo de Trabajo de Investigación en Internet), presidido por Postel, mientras que los antiguos equipos de trabajo pasaron a llamarse "grupos de investigación".

El crecimiento en el mundo empresarial trajo como consecuencia un incremento de la preocupación por el propio proceso de estándares. Desde primeros de los años 80 hasta hoy, Internet creció y está creciendo más allá de sus raíces originales de investigación para incluir a una amplia comunidad de usuarios y una actividad comercial creciente. Se puso un mayor énfasis en hacer el proceso abierto y justo. Esto, junto a una necesidad reconocida de dar soporte a la comunidad de Internet, condujo a la formación de la Internet Society en 1991, bajo los auspicios de la CNRI (Corporation for National Research Initiatives, Corporación para las Iniciativas de Investigación Nacionales) de Kahn y el liderazgo de Cerf, junto al de la CNRI.

En 1992 todavía se realizó otra reorganización: El Internet Activities Board (Consejo de Actividades de Internet) fue reorganizado y sustituyó al Consejo de la Arquitectura de Internet, operando bajo los auspicios de la Internet Society. Se definió una relación más estrecha entre el nuevo IAB y el IESG, tomando el IETF y el propio IESG una responsabilidad mayor en la aprobación de estándares. Por último, se estableció una relación cooperativa y de soporte mutuo entre el IAB, el IETF y la Internet Society, tomando esta última como objetivo la provisión de servicio y otras medidas que facilitarían el trabajo del IETF.

El reciente desarrollo y amplia difusión del World Wide Web ha formado una nueva comunidad, pues muchos de los que trabajan en la WWW no se consideran a sí mismos como investigadores y desarrolladores primarios de la red. Se constituyó un nuevo organismo de coordinación, el W3C (World Wide Web Consortium). Liderado inicialmente desde el Laboratory for Computer Science del MIT por Tim Berners-Lee -el inventor del WWW- y Al Vezza, el W3C ha tomado bajo su responsabilidad la evolución de varios protocolos y estándares asociados con el web.

Así pues, a través de más de dos décadas de actividad en Internet, hemos asistido a la continua evolución de las estructuras organizativas designadas para dar soporte y facilitar a una comunidad en crecimiento el trabajo colaborativo en temas de Internet.

 

Comercialización de la tecnología.

 

La comercialización de Internet llevaba acarreada no sólo el desarrollo de servicios de red privados y competitivos sino también el de productos comerciales que implementen la tecnología Internet. A principios de los años 80 docenas de fabricantes incorporaron TCP/IP a sus productos debido a la aproximación de sus clientes a esta tecnología de redes. Desafortunadamente, carecían de información fiable sobre cómo funcionaba esta tecnología y cómo pensaban utilizarla sus clientes. Muchos lo enfocaron como la incorporación de funcionalidades que se añadían a sus propios sistemas de red: SNA, DECNet, Netware, NetBios. El Departamento de Defensa norteamericano hizo obligatorio el uso de TCP/IP en buena parte de sus adquisiciones de software pero dio pocas indicaciones a los suministradores sobre cómo desarrollar productos TCP/IP realmente útiles.

En 1985, reconociendo la falta de información y formación adecuadas, Dan Lynch, en cooperación con el IAB, organizó una reunión de tres días para todos los fabricantes que quisieran saber cómo trabajaba TCP/IP y qué es lo que aún no era capaz de hacer. Los ponentes pertenecían fundamentalmente a la comunidad investigadora de DARPA que había desarrollado los protocolos y los utilizaba en su trabajo diario. Alrededor de 250 fabricantes acudieron a escuchar a unos 50 inventores y experimentadores. Los resultados fueron una sorpresa para ambas partes: los fabricantes descubrieron con asombro que los inventores estaban abiertos a sugerencias sobre cómo funcionaban los sistemas (y sobre qué era lo que aún no eran capaces de hacer) y los inventores recibieron con agrado información sobre nuevos problemas que no conocían pero que habían encontrado los fabricantes en el desarrollo y operación de nuevos productos. Así, quedó establecido un diálogo que ha durado más de una década.

Después de dos años de conferencias, cursos, reuniones de diseño y congresos, se organizó un acontecimiento especial para que los fabricantes cuyos productos funcionaran correctamente bajo TCP/IP pudieran mostrarlos conjuntamente durante tres días y demostraran lo bien que podían trabajar y correr en Internet. El primer "Interop trade show" nació en Septiembre de 1988. Cincuenta compañías presentaron sus productos y unos 5.000 ingenieros de organizaciones potencialmente compradoras acudieron a ver si todo funcionaba como se prometía. Y lo hizo. ¿Por qué? Porque los fabricantes habían trabajado intensamente para asegurar que sus productos intero-peraban correctamente entre sí -incluso con los de sus competidores. El Interop ha crecido enormemente desde entonces y hoy en día se realiza cada año en siete lugares del mundo con una audiencia de 250.000 personas que acuden para comprobar qué productos interoperan correctamente con los demás, conocer cuáles son los últimos y para hablar sobre la tecnología más reciente.

En paralelo con los esfuerzos de comercialización amparados por las actividades del Interop, los fabricantes comenzaron a acudir a las reuniones de la IETF que se convocaban tres o cuatro veces al año para discutir nuevas ideas para extender el conjunto de protocolos relacionados con TCP/IP. Comenzaron con unos cientos de asistentes procedentes en su mayor parte del mundo académico y financiados por el sector público; actualmente estas reuniones atraen a varios miles de participantes, en su mayor parte del sector privado y financiados por éste. Los miembros de este grupo han hecho evolucionar el TCP/IP cooperando entre sí. La razón de que estas reuniones sean tan útiles es que acuden a ellas todas las partes implicadas: investigadores, usuarios finales y fabricantes.

La gestión de redes nos da un ejemplo de la beneficiosa relación entre la comunidad investigadora y los fabricantes. En los comienzos de Internet, se hacía hincapié en la definición e implementación de protocolos que alcanzaran la interoperación. A medida que crecía la red aparecieron situaciones en las que procedimientos desarrollados "ad hoc" para gestionar la red no eran capaces de crecer con ella. La configuración manual de tablas fue sustituida por algoritmos distribuidos automatizados y aparecieron nuevas herramientas para resolver problemas puntuales. En 1987 quedó claro que era necesario un protocolo que permitiera que se pudieran gestionar remota y uniformemente los elementos de una red, como los routers. Se propusieron varios protocolos con este propósito, entre ellos el SNMP (Single Network Management Protocol, protocolo simple de gestión de red) diseñado, como su propio nombre indica, buscando la simplicidad; HEMS, un diseño más complejo de la comunidad investigadora; y CMIP, desarrollado por la comunidad OSI. Una serie de reuniones llevaron a tomar la decisión de desestimar HEMS como candidato para la estandarización, dejando que tanto SNMP como CMIP siguieran adelante con la idea que el primero fuera una solución inmediata mientras que CMIP pasara a ser una aproximación a largo plazo: el mercado podría elegir el que resultara más apropiado. Hoy SNMP se usa casi universalmente para la gestión de red.

En los últimos años hemos vivido una nueva fase en la comercialización. Originalmente, los esfuerzos invertidos en esta tarea consistían fundamentalmente en fabricantes que ofrecían productos básicos para trabajar en la red y proveedores de servicio que ofrecían conectividad y servicios básicos. Internet se ha acabado convirtiendo en una "commodity", un servicio de disponibilidad generalizada para usuarios finales, y buena parte de la atención se ha centrado en el uso de la GII (Global Information Infraestructure) para el soporte de servicios comerciales. Este hecho se ha acelerado tremen-damente por la rápida y amplia adopción de visualizadores y de la tecnología del World Wide Web, permitiendo a los usuarios acceder fácilmente a información distribuida a través del mundo. Están disponibles productos que facilitan el acceso a esta información y buena parte de los últimos desarrollos tecnológicos están dirigidos a obtener servicios de información cada vez más sofisticados sobre comunicaciones de datos básicas de Internet.

 

Historia del futuro.

 

El 24 de Octubre de 1995, el FNC (Federal Networking Council, Consejo Federal de la Red) aceptó unánimemente una resolución definiendo el término Internet. La definición se elaboró de acuerdo con personas de las áreas de Internet y los derechos de propiedad intelectual. La resolución: "el FNC acuerda que lo siguiente refleja nuestra definición del término Internet.

Internet hace referencia a un sistema global de información que (1) está relacionado lógicamente por un único espacio de direcciones global basado en el protocolo de Internet (IP) o en sus extensiones, (2) es capaz de soportar comunicaciones usando el conjunto de protocolos TCP/IP o sus extensiones u otros protocolos compatibles con IP, y (3) emplea, provee, o hace accesible, privada o públicamente, servicios de alto nivel en capas de comunicaciones y otras infraes-tructuras relacionadas aquí descritas".

Internet ha cambiado en sus dos décadas de existencia. Fue concebida en la era del tiempo compartido y ha sobrevivido en la era de los ordenadores personales, cliente-servidor, y los network-computer. Se ideó antes de que existieran las LAN, pero ha acomodado tanto a esa tecnología como a ATM y la conmutación de tramas. Ha dado soporte a un buen número de funciones desde compartir ficheros, y el acceso remoto, hasta compartir recursos y colaboración, pasando por el correo electrónico y, recientemente, el World Wide Web. Pero, lo que es más importante, comenzó como una creación de un pequeño grupo de investigadores y ha crecido hasta convertirse en un éxito comercial con miles de millones de dólares anuales en inversiones.

No se puede concluir diciendo que Internet ha acabado su proceso de cambio. Aunque es una red por su propia denominación y por su dispersión geográfica, su origen está en los ordenadores, no en la industria de la telefonía o la televisión. Puede -o mejor, debe- continuar cambiando y evolucionando a la velocidad de la industria del ordenador si quiere mantenerse como un elemento relevante. Ahora está cambiando para proveer nuevos servicios como el transporte en tiempo real con vistas a soportar, por ejemplo, audio y vídeo. La disponibilidad de redes penetrantes y omnipresentes, como Internet, junto con la disponibilidad de potencia de cálculo y comunicaciones asequibles en máquinas como los ordenadores portátiles, los PDA y los teléfonos celulares, está posibilitando un nuevo paradigma de informática y comunicaciones "nómadas".

Esta evolución nos traerá una nueva aplicación: telefonía Internet y, puede que poco después, televisión por Internet. Está permitiendo formas más sofisticadas de valoración y recuperación de costes, un requisito fundamental en la aplicación comercial. Está cambiando para acomodar una nueva generación de tecnologías de red con distintas características y requisitos: desde ancho de banda doméstico a satélites. Y nuevos modos de acceso y nuevas formas de servicio que darán lugar a nuevas aplicaciones, que, a su vez, harán evolucionar a la propia red.

La cuestión más importante sobre el futuro de Internet no es cómo cambiará la tecnología, sino cómo se gestionará esa evolución. En este capítulo se ha contado cómo un grupo de diseñadores dirigió la arquitectura de Internet y cómo la naturaleza de ese grupo varió a medida que creció el número de partes interesadas. Con el éxito de Internet ha llegado una proliferación de inversores que tienen intereses tanto económicos como intelectuales en la red. Se puede ver en los debates sobre el control del espacio de nombres y en la nueva generación de direcciones IP una pugna por encontrar la nueva estructura social que guiará a Internet en el futuro. Será difícil encontrar la forma de esta estructura dado el gran número de intereses que concurren en la red. Al mismo tiempo, la industria busca la forma de movilizar y aplicar las enormes inversiones necesarias para el crecimiento futuro, por ejemplo para mejorar el acceso del sector residencial. Si Internet sufre un traspiés no será debido a la falta de tecnología, visión o motivación. Será debido a que no podemos hallar la dirección justa por la que marchar unidos hacia el futuro.

El verdadero origen de Internet.

Este artículo fue publicado originalmente el 1 de diciembre de 1996 en el periódico El Ideal Gallego dentro de una serie de artículos que me valdría ser finalista de la primera edición de los premios de la AUI en la modalidad "Periodista que, durante 1996 más haya aportado más a la difusión sobre Internet y/o Infovía en prensa diaria".

Más tarde se publicó como especial en la web de iWorld, la revista de Internet e IDG -donde ya no está disponible- y ligeramente retocado en el libro Ciencia y Tecnología en Iberoamérica editado por la OEI; también aparece en unos cuantos lugares a lo largo y ancho de Internet.

En cualquier caso, como durante los años transcurridos desde su publicación original he seguido oyendo y leyendo una y otra vez como se afirma de forma errónea que Internet nació como un proyecto militar estadounidense, hecho que a sus creadores les gustaría ver aclarado, me parece adecuado volver a publicarlo aquí de nuevo.

La idea de Taylor.

Aunque se ha repetido hasta la saciedad que Internet tiene su origen en un proyecto militar estadounidense para crear una red de ordenadores que uniera los centros de investigación dedicados a labores de defensa en la década de los 60 en los Estados Unidos y que pudiera seguir funcionando a pesar de que alguno de sus nodos fuera destruido por un hipotético ataque nuclear, los creadores de ARPANET, la red precursora de Internet, no tenían nada parecido en mente y llevan años intentando terminar con esta percepción.

Internet surgió en realidad de la necesidad cada vez más acuciante de poner a disposición de los contratistas de la Oficina para las Tecnologías de Procesado de la Información (IPTO) más y más recursos informáticos. El objetivo de la IPTO era buscar mejores maneras de usar los ordenadores, yendo más allá de su uso inicial como grandes máquinas calculadoras, pero se enfrentaba al serio problema de que cada uno de los principales investigadores y laboratorios que trabajaban para ella parecían querer tener su propio ordenador, lo que no sólo provocaba una duplicación de esfuerzos dentro de la comunidad de investigadores, sino que además era muy caro; los ordenadores en aquella época eran cualquier cosa menos pequeños y baratos.

Robert Taylor, nombrado director de la IPTO en 1966, tuvo una brillante idea basada en las ideas propuestas por J. C. R. Licklider en un artículo llamado Man-Computer Symbiosis (aquí está en formato PDF junto con otro artículo de Licklider llamado The Computer as a Communication Device): ¿Por qué no conectar todos esos ordenadores entre si? Al construir una serie de enlaces electrónicos entre diferentes máquinas, los investigadores que estuvieran haciendo un trabajo similar en diferentes lugares del país podrían compartir recursos y resultados más facilmente y en lugar de gastar el dinero en media docena de caros ordenadores distribuidos por todo el país, la ARPA (Agencia para Proyectos de Investigación Avanzados, agencia de la que dependía la IPTO de Roberts; hoy en día se llama DARPA) podría concentrar sus recursos en un par de lugares instalando allí ordenadores muy potentes a los que todo el mundo tendría acceso mediante estos enlaces.

Con esta idea en mente Taylor se fue a ver a su jefe, Charles Herzfeld, el director de la ARPA, y tras exponer sus ideas le dijo que podrían montar una pequeña red experimental con cuatro nodos al principio y aumentarla hasta aproximadamente una docena para comprobar que la idea podía llevarse a la práctica.

El problema terminal.

El Departamento de Defensa, del que a su vez depende la ARPA, era en aquel entonces el más grande comprador de ordenadores del mundo, pero dado que existían muy pocas posibilidades, tanto por las leyes existentes como por las necesidades técnicas a la hora de hacer la compra, de que todos los ordenadores se compraran al mismo fabricante, y dado que los ordenadores de cada fabricante funcionaban de forma distinta a las de los demás, una de las prioridades de este Departamento era la de encontrar una manera de estandarizar la forma de trabajar con todos estos ordenadores para optimizar su uso.

Si la red funciona, le dijo Taylor a Herzfeld, sería posible interconectar ordenadores de diferentes fabricantes, y el problema de escoger un fabricante u otro se vería disminuido, eliminando el problema terminal, que era como Taylor llamaba al tener que usar una terminal y procedimientos diferentes para acceder a cada tipo de ordenador; de hecho, una de las cosas que más frustrante le resultaba a Taylor, porque le parecía extremadamente ineficaz, era tener que tener tres terminales diferentes instalados en su despacho para acceder a otros tantos ordenadores, y que conectarse a cada uno requiriese un procedimiento distinto.

En sólo 20 minutos.

A Herzfeld le encantó esa posibilidad, y probablemente esos argumentos hubieran bastado para convencerle, pero es que además otra de las ideas de Taylor era que la red podía ser resistente a fallos, de tal modo que si un ordenador de la red fallaba, los demás podrían seguir trabajando, lo que redundaría en una mayor disponibilidad de los limitados recursos disponibles.

Le preguntó a Taylor si sería difícil de hacer, a lo que éste contestó que no, que en realidad ya sabían como hacerlo. "Estupenda idea" dijo Herzfeld, y asígnó un millón de dólares al proyecto.

Se cuenta que Taylor debió batir un record de velocidad a la hora de conseguir dinero para su proyecto, pues aunque en aquel entonces se decía que por lo general sólo se necesitaba media hora para aconseguir financiación de la ARPA si se tenía una buena idea, él la consiguió en sólo veinte minutos, todo un récord por su parte y, sin duda, una de las inversiones más acertadas y rentables por parte de la ARPA en toda su historia.

El probable origen de la confusión.

La idea de que ARPANET surgió como un proyecto militar para proteger la seguridad nacional frente a un ataque nuclear parece tener su origen en dos hechos muy concretos cuya importancia se ha ido exagerando con el tiempo y que han eclipsado las intenciones reales de sus creadores.

El primero de ellos es que ARPANET fue creada y puesta en marcha por una agencia del Departamento de Defensa de los Estados Unidos, aunque en aquella época la ARPA, fiel todavía al concepto original que llevó al presidente Eisenhower a su creación, se dedicaba a financiar investigaciones académicas de cualquier tipo con el objetivo de asegurarse de que los Estados Unidos no se quedaran atrás en el desarrollo tecnológico, independientemente de la posible aplicación militar de lo que se investigaba.

El otro factor que contribuyó a la creación de esta leyenda acerca del origen de ARPANET fue que sus creadores incorporaron en el diseño, con el objeto de hacerlo más resistente a posibles fallos de los ordenadores o de las líneas de comunicación que lo integraban, las ideas de Leonard Kleinrock acerca de conmutación de paquetes publicadas en su libro de 1964 titulado Communication Nets.

En esta área también trabajaban Paul Baran y Donald Davies, quienes llegaron independientemente a conclusiones similares a las de Kleinrock, lo que sirvió para confirmar lo acertado de la decisión del equipo de ARPANET de utilizar las ideas de Kleinrock cuando en 1968 se reunieron para comparar los resultados de las tres líneas de investigación.

El problema está en que Baran, un ingeniero eléctrico que trabajaba para la RAND Corporation, había estudiado estos temas motivado en efecto en gran medida por la gran tensión existente entre los Estados Unidos y la Unión Soviética en los años 60 y al temor que ésta conllevaba de que un ataque nuclear pudiera destruir las estructuras de comando y control del ejército, mientras que Davies, un científico británico que trabajaba en el National Physical Laboratory, había llegado a sus conclusiones en busca de una red de comunicaciones pública más rápida y flexible que las existentes, aspecto que interesaba bastante más a los creadores de ARPANET que la posibilidad de la red de sobrevivir a una guerra nuclear.

De hecho, en la entrada correspondiente al mes de marzo de 1964 de la cronología de Internet que mantiene Larry Roberts se puede leer:

Desafortunadamente, la idea de la destrucción nuclear vende más, y es la que se sigue perpetuado a pesar de todos los esfuerzos de Taylor, Kleinrock y compañía.

Ellos crearon Internet.

En 1994, para conmemorar los 25 años transcurridos desde la creación de ARPANET la empresa Bolt Beranek and Newman, a la que la ARPA contrató para poner en marcha esta red, reunió en su sede de Boston a la mayoría de los que formaron parte del grupo que puso todo en marcha.



Foto © Clark Quinn, Boston, Massachusetts
Estos son: De izquierda a derecha, primera fila: Bob Taylor (1), Vint Cerf (2), Frank Heart (3); segunda fila: Larry Roberts (4), Len Kleinrock (5), Bob Kahn (6); tercera fila: Wes Clark (7), Doug Engelbart (8), Barry Wessler (9); cuarta fila: Dave Walden (10), Severo Ornstein (11), Truett Thach (12), Roger Scantlebury (13), Charlie Herzfeld (14); quinta fila: Ben Barker (15), Jon Postel (16), Steve Crocker (17); última fila: Bill Naylor (18), Roland Bryan (19); en esta página hay una breve reseña biográfica de cada uno de ellos.

 

Si te interesa saber más acerca del verdadero origen de Internet y del grupo de ingenieros e investigadores que la crearon, y el inglés no es problema, seguro que Where Wizards Stay Up Late: The Origins of the Internet, de Katie Hafner y Matthew Lyon, no te decepciona.

El mercado online del mercado hispano.

 

 

El Mercado online de habla hispana está en continuo crecimiento. Organizaciones como Nielsen Net Ratings y Nua Internet Surveys calculan que la población de hispanohablantes hoy es de aproximadamente 50 millones de personas —lo que representa cerca de 20% del total.


Amplíe su mercado a millones de visitantes de todo el planeta publicando su sitio Web en español o creando páginas Web bilingües. Nos especializamos en contenidos que incluyen términos altamente técnicos en áreas como ingeniería, tecnología informática, Internet, hardware, electrónica, física, mecánica, electricidad, producción industrial, automatización y muchas otras.

 
Trusted Translations puede traducir al español desde una única página Web (es decir, su página personal) hasta todo su sitio Web completo, sin perder ninguna funcionalidad, dado que manejamos scripts HTML, ASP, JavaScript, y CGI.


La población online de hispanohablante crecerá a una tasa anual de dos dígitos durante los próximos cinco años. Estudios recientes señalan que los sitios en español ricos en contenido constituyen un área con enorme potencial de crecimiento. Durante la próxima década, creemos que el crecimiento de Internet en América latina transformará la economía cibernética entre los pueblos hispanohablantes de todo el mundo, y el mercado hispano en los Estados Unidos.

El usuario hispano de Internet promedio es un hombre de 32 años que posee un ingreso anual de $ 51.600. Cerca de la mitad de los usuarios hispanoamericanos que usan Internet en sus hogares habla el español como primer idioma. Aproximadamente 74% se conecta a Internet todos los días y el 78% tiene acceso a la Web desde su casa. Alrededor de una tercera parte hace compras online. Según una encuesta llevada a cabo en 2001, las personas consultadas en promedio habían efectuado seis compras online en el término del año, y habían gastado un total de $ 547; mientras que 62% de ellos había realizado al menos una compra a través de la Web. (Fuentes: Terra Lycos, 2001; Research and Research Inc., Pew Internet & American Life).


Según la Oficina de Censos de Estados Unidos, el uso de Internet entre los 35 millones de hispanoamericanos, que representan 13% de la población estadounidense, creció de 38% en 1999 a 55% en 2001. (El uso entre todos los grupos étnicos estadounidenses creció abruptamente debido a la caída de los precios de las computadoras y a que se necesitan menores conocimientos para utilizarlas.) Los hispanos actualmente dedican 55% de su tiempo a conectarse a la Web en español —el mismo tiempo que tradicionalmente destinaron a escuchar radio y mirar televisión en español. Tal como ocurre con otros medios de comunicación, ellos por Internet buscan preferentemente información relacionada con los Estados Unidos, en vez de inclinarse por contenido proveniente de sus países de origen.

Alrededor de 60% de los latinoamericanos tiene menos de 30 años, lo cual significa “que se adaptan rápidamente a las tecnologías nuevas” (e-World Research). Las ventas online de compañías a consumidores finales en América latina llegará a 8.300 millones de dólares en 2005, de los cuales $4.200 millones provendrán de Brasil y $1.500 millones, de México. (International Data Corporation, Octubre de 2000).


En América latina, el uso de Internet creció más de 325% desde 1997. (IDC Latin America's "Internet and Ecommerce Strategies").


Mercado online de habla hispana en América latina.


La base de usuarios de Internet latinoamericanos tiene la tasa de crecimiento más alta del mundo; se amplió 67% solamente en 2001. El mayor incremento se produjo a nivel residencial, donde las viviendas conectadas a la red aumentaron de 4,8 a 7,7 millones debido a la caída de las tarifas telefónicas y al mayor acceso a la banda ancha. (Fuente: International Data Corporation).


Se estima que los usuarios de Internet en América latina llegarán a ser 162 millones en 2005. Brasil, donde se habla en idioma portugués, es el segundo país con mayor número de usuarios, que pasará de 7,8 millones a 55,9 millones en 2005. México se ubica en segundo lugar, con un incremento de 6,7 millones a 31,97 millones. Argentina y Chile se ubican en tercero y cuarto lugar. (Economist Intelligence Unit, 2001). La población de México está estimada en cerca de 100 millones, y los últimos cálculos indican que 6,7 millones de personas se conectan a la Web. (Fuente: Nielsen Net Ratings, abril de 2001). Según una encuesta elaborada por la Asociación Mexicana de la Industria Publicitaria y Comercial en Internet, de los 2.183 mexicanos consultados, 6% había comprado algo por Internet en los últimos 90 días, y 55% de ellos señalaron que probablemente lo vuelvan a hacer en los próximos 12 meses.


Los usuarios comerciales de la Web tienen tres veces más probabilidades de comprar cuando se los aborda en su idioma nativo. (HispanAmerica Response Marketing) Trusted Translations tiene la experiencia necesaria para ayudar a su compañía en la localización de su sitio Web para dirigirlo a cualquier mercado específico de habla hispana o a todos los mercados de habla hispana con un único sitio Web escrito en un español neutro.



Global Internet Statistics
(by Language)

Here are the latest estimated figures of the number of people online in each language zone (native speakers). We classify by languages instead of by countries, since people speaking the same language form their own online community no matter what country they happen to live in. (Projected E-commerce figures by country).

 

Internet access (M)

 

2004 (est. in M)

Total pop. (M)

GDP ($B)

%'age of world economy

GDP per capita (K)

Net Hosts
(2003)

English

287.5

35.8%

280

508

 

 

 

 

Non-English

516.7

64.2%

680

5822

 

 

 

 

European Languages
(non-English)

276

37.9%

328

1,218

$12,968

31.3%

 

 

Catalan

2.9 2

 

2.9

6.6

 

 

 

 

Czech

4.2 3

 

4.4

12

$121

 

$10.0

316

Dutch

13.54

1.9%

14.5

20

$575

 

$28.5

4510

Finnish

2.8 5

 

3

6

$142

 

$23.6

1224

French

28.0 6

3.8%

41

77

$1517

4.2%

$19.7

3739

German

52.97

7.3%

62

100

$2679

5.8%

$26.8

5136

Greek

2.7 8

 

3

12

$189

 

$15.8

246

Hungarian

1.7 9

 

3

10

$96

 

$9.6

314

Italian

24.3 10

3.3%

30

62

$1251

3.6%

$20.1

5521

Polish

9.5 11

1.3%

9

44

$359

 

$8.1

1297

Portuguese

25.712

3.5%

32

176

$1487

3.6%

$8.4

3463

Romanian

2.4 13

 

3

26

$108

 

$4.2

141

Russian

18.5 14

2.5%

23

167

$822

1.8%

$4.9

617

     Danish

3.5 15

 

 

5.4

$171

 

$31.7

1467

     Icelandic

0.2 15

 

 

.3

$6

 

$23.5

106

     Norwegian

2.9 15

 

 

5

$136

 

$27.2

1013

     Swedish

7.9 15

 

 

9

$237

 

$26.3

1540

Scandinavian languages (total)

14.6 15

2.0%

16

19.7

$550

1.3%

$27.9

4126

Serbo-Croatian

1.0 16

 

 

20

 

 

 

54

Slovak

1.2 17

 

1.5

5.6

$47

 

$8.7

99

Slovenian

0.8 18

 

1

2

$22.9

 

$10.9

35

Spanish

65.6 19

9.0%

70

350

$2500

8.9%

$7.1

3631

Turkish

5.8 20

 

7

67.4

$431

 

$6.4

345

Ukranian

0.9

 

2

47

$115

 

$2.3

96

TOTAL EUROPEAN LANGUAGES (excl. English)

276.0

37.9%

328

1,218

$12,968

31.3%

 

 

ASIAN LANGUAGES

 

 

 

 

 

 

 

 

Arabic

10.5 21

1.4%

12

300

$678

1.6%

$4.2

145

Chinese

102.6 22

14.1%

170

874

$6328

13.0%

$7.2

4014

Farsi

3.4

 

 

64

$84

 

 

500

Hebrew

3.8 23

 

2.8

5.2

$132

 

$21.0

634

Japanese

69.7 23

9.6%

88

125

$3,400

8.0%

$27.2

12,962

Korean

29.924

4.1%

43

78

$887

2.0

$11.4

253

Malay

13.6 25

1.9%

12

229

$258

2.0%

 

95

Thai

4.9 26

 

3.5

46

$406

 

$8.8

104

Vietnamese

2.2 27

 

3.5

68

 

 

 

529

TOTAL ASIAN LANGUAGES

240.6

33.0%

263

 

 

 

 

 

 

 

 

 

 

 

 

 

 

TOTAL WORLD

729.2

 

940

6,330

$41,400

 

 

 

Source: Global Reach (global-reach.biz/globstats)