La Historia de Internet es
compleja, pero vamos a intentar simplificarla con algunos de los
acontecimientos más importantes a partir de los artículos escritos por María Jesús Lamarca Lapuente, quien realizó
una Tesis Doctoral en la Universidad Complutense de Madrid sobre el Hipertexto y por Carlos Martínez Ramo de la Facultad de Medicina de la Universidad Complutense de Madrid, los cuales nos hablan del origen y la evolución de Internet:
Nikola Tesla |
Nikola
Tesla (1856-1943), un ingeniero, poeta e inventor yugoslavo ya predijo la
existencia de un sistema energético de distribución mundial que permitiría
conectar todas las estaciones telefónicas del mundo, la difusión mundial de
información y noticias, correo y otros escritos, la reproducción y envío de
fotografías e imágenes, la implantación de un sistema de difusión musical, la impresión
a distancia y la implantación de un registro horario universal.
El lanzamiento por parte de los
soviéticos del satélite Sputnik originó una crisis en la confianza americana y
el gobierno de los Estados Unidos formó en 1957 la agencia ARPA “Advanced
Research Projects Agency”, un segmento del Departamento de Defensa encargado de
asegurar el liderazgo de los Estados Unidos en la ciencia y la tecnología con
aplicaciones militares.
En 1972, la agencia cambiará su
denominación por Darpa (Defense Advanced Research Projects Agency”. Fue
creada para asegurarse de que América no volviera a ser cogida con la guardia
baja en el terreno tecnológico.
Además de esta agencia, por esa
misma época se creó también la Fundación Nacional de la Ciencia (N.S.F)
que tenía como finalidad institucionalizar las relaciones entre el Gobierno
Federal de los Estados Unidos, la comunidad científica americana y los
empresarios. Relaciones que habían sido promovidas años antes, durante la II
Guerra Mundial, por un científico Vannevar Bush:
Vannevar Bush |
Vannevar Bush escribió un artículo titulado “As we may think” (Cómo
podemos pensar) en el que describió un dispositivo teórico de almacenamiento y
extracción de información que llamó “Memex” que utilizaría un sistema
notablemente similar al que ahora se emplea en Internet y que llamamos
“Hipertexto”.
Theodor Holn Nelson |
Si Vannevar Bush está considerado el padre del hipertexto, Theodor
Holn Nelson fue quien lo bautizó. En 1965,
Nelson acuñó el concepto de hipertexto (hypertext) definiéndolo
como:
"un cuerpo de material
escrito o pictórico interconectado en una forma compleja que no puede ser
representado en forma conveniente haciendo uso del papel". En su
artículo "A File Structure for the Complex, the Changing, and the
Indeterminate", que leyó durante la vigésima conferencia anual
de la Association of Computer Machinery (ACM), definió el término
hipertexto de la siguiente manera:
"Por hipertexto
entiendo escritura no secuencial. La escritura tradicional es secuencial por dos razones. Primero, se
deriva del discurso hablado, que es secuencial,
y segundo, porque los libros están escritos para leerse de forma secuencial... sin embargo, las
estructuras de las ideas no son secuenciales. Están
interrelacionadas en múltiples direcciones. Y cuando escribimos siempre tratamos de relacionar cosas de forma no
secuencial".
Y en su
obra ya clásica, “Literary
Machines”, donde demuestra una clarividencia extraordinaria al
trascender su época y considerar a los ordenadores como máquinas
literarias y no simples artefactos que trataban con números mediante la
introducción de datos en tarjetas perforadas, definió el término hipertexto con
más precisión:
"Con hipertexto, me refiero a una escritura
no secuencial, a un texto que bifurca,
que permite que el lector elija y que se lea mejor en una pantalla interactiva. De acuerdo con la noción
popular, se trata de una serie de bloques de
texto conectados entre sí por nexos, que forman diferentes itinerarios para el usuario".
Creador de sistemas hipertextuales, Nelson ideó
un modelo para la interconexión de documentos electrónicos y presentó el
proyectoXanadú
En referencia al mítico lugar que Samuel Taylor
Coleridge inmortalizó en su poema "Kubla Khan" y que era símbolo
de la creatividad y de la inspiración romántica. Dicho proyecto tenía como
objetivo principal la construcción de un servidor de hipertexto que permitiera
almacenar y enlazar toda la literatura mundial, y que fuera accesible desde cualquier
terminal de ordenador. La idea era reunir toda la producción escrita
existente y conectar unos textos con otros, estando esos documentos
almacenados en ordenadores particulares pero disponibles para el resto de
los usuarios por medio de una dirección única para cada uno de ellos.
Un personaje fundamental en la gestación de Internet fue el científico J.C.R. Licklider,
J.C.R. Licklider |
La primera descripción documentada existente acerca de las
ventajas que reportaría la posibilidad del “trabajo en red” de los científicos,
está contenida en una serie de memorándums escritos en agosto de 1962 por
J.C.R. Licklider, en donde discutía el concepto pionero de “Red Galáctica” y en
los cuales formuló por primera vez la idea de “una red global de computadoras”
En esencia, el concepto era muy parecido a la Internet que hoy
conocemos. En ese mismo año de 1962, Licklider se incorporó a trabajar en la agencia
ARPA. Licklider creía que los ordenadores se podrían utilizar para aumentar el
pensamiento humano y sugirió, estando ya trabajando en la agencia ARPA, que
fuera establecida una red de ordenadores para permitir a los investigadores de
ARPA poder comunicarse y transferirse información entre ellos, de modo
eficiente. Es decir elaboró el concepto del TRABAJO EN RED.
Licklider no logró construir la red que
propuso, pero su idea siguió viva cuando dejó ARPA en 1964, y convenció de la importancia del concepto de trabajo en reda sus
sucesores Ivan Sutherland y Bob Taylor,
así como al investigador del Instituto Tecnológico de Massachussets (Massachusetts Institute of Technology, MIT) Lawrence G. Roberts.
Este concepto del TRABAJO EN RED fue una de las primeras situaciones que se dieron para que se produjera el nacimiento de Internet. Otro paso fundamental para el nacimiento de Internet se produjo en Julio de 1961 cuando otros investigadores de prestigiosas instituciones, como el “Instituto Tecnológico de Massachusetts”, o la compañía “Rand Corporation”,
Sentaron las bases tecnológicas que facilitaron en años posteriores la creación de Internet. Esta tecnología consistía en transmitir la información dividida en “paquetes” (tecnología que permitía fragmentar los datos o la información y que recorrieran rutas diferentes).
Ivan Sutherland |
Bob Taylor |
así como al investigador del Instituto Tecnológico de Massachussets (Massachusetts Institute of Technology, MIT) Lawrence G. Roberts.
Lawrence G. Roberts |
Este concepto del TRABAJO EN RED fue una de las primeras situaciones que se dieron para que se produjera el nacimiento de Internet. Otro paso fundamental para el nacimiento de Internet se produjo en Julio de 1961 cuando otros investigadores de prestigiosas instituciones, como el “Instituto Tecnológico de Massachusetts”, o la compañía “Rand Corporation”,
Sentaron las bases tecnológicas que facilitaron en años posteriores la creación de Internet. Esta tecnología consistía en transmitir la información dividida en “paquetes” (tecnología que permitía fragmentar los datos o la información y que recorrieran rutas diferentes).
Es la llamada “Teoría de la Conmutación
por Paquetes”.
Entre estos investigadores hay que destacar, por un lado, a Leonard Kleinrock,
Leonard Kleinrock publicó el primer documento sobre la teoría de conmutación por paquetes en las comunicaciones, en su artículo "Flujo de Información en Redes Amplias de Comunicación”. Y por otro, a Paul Baran,
que publicó "Redes de Comunicación Distribuida”, en el que hablaba de “redes conmutadas por paquetes, sin punto único de interrupción”. En las redes basadas en la conmutación por paquetes, el conjunto de la “información” a enviar se dividía en “paquetes” y cada paquete contenía la dirección de origen, la de destino, el número de secuencia y una parte de la información que transportan. Los paquetes al llegar al destino se ordenaban según el número de secuencia y se juntaban y volvían a ensamblarse para dar lugar de nuevo al conjunto de la “información”. Al viajar por la red la “información” en forma de “paquetes”, era más difícil perder datos ya que, si un “paquete” concreto no llegaba al destino o llegaba defectuoso, el ordenador que debía recibir la “información” sólo tenía que solicitar al ordenador emisor el “paquete” que le faltaba..
L. Kleinrock convenció a Lawrence G. Roberts, que dirigía un proyecto para encontrar una “manera eficiente que permitiera compartir recursos informáticos a diferentes trabajadores” de la Oficina de Técnicas de Proceso de Información (“Information Processing Techniques Office”, IPTO), sobre la factibilidad teórica de las “comunicaciones vía paquetes” en lugar de “vía circuitos”.
Entre estos investigadores hay que destacar, por un lado, a Leonard Kleinrock,
Leonard Kleinrock |
Leonard Kleinrock publicó el primer documento sobre la teoría de conmutación por paquetes en las comunicaciones, en su artículo "Flujo de Información en Redes Amplias de Comunicación”. Y por otro, a Paul Baran,
Paul Baran |
que publicó "Redes de Comunicación Distribuida”, en el que hablaba de “redes conmutadas por paquetes, sin punto único de interrupción”. En las redes basadas en la conmutación por paquetes, el conjunto de la “información” a enviar se dividía en “paquetes” y cada paquete contenía la dirección de origen, la de destino, el número de secuencia y una parte de la información que transportan. Los paquetes al llegar al destino se ordenaban según el número de secuencia y se juntaban y volvían a ensamblarse para dar lugar de nuevo al conjunto de la “información”. Al viajar por la red la “información” en forma de “paquetes”, era más difícil perder datos ya que, si un “paquete” concreto no llegaba al destino o llegaba defectuoso, el ordenador que debía recibir la “información” sólo tenía que solicitar al ordenador emisor el “paquete” que le faltaba..
L. Kleinrock convenció a Lawrence G. Roberts, que dirigía un proyecto para encontrar una “manera eficiente que permitiera compartir recursos informáticos a diferentes trabajadores” de la Oficina de Técnicas de Proceso de Información (“Information Processing Techniques Office”, IPTO), sobre la factibilidad teórica de las “comunicaciones vía paquetes” en lugar de “vía circuitos”.
Todo lo cual resultó ser un gran avance en el camino hacia
el trabajo informático en red y, por tanto, hacia Internet.
Lawrence G. Roberts se incorporó como investigador a ARPA en 1966, para dirigir
un proyecto de consecuencias impredecibles, con un presupuesto de un millón de
dólares: sería el arquitecto principal de una nueva red de ordenadores
similar a la imaginada por J.C.R. Licklider, que se llamaría “ARPANET”,
y que sería el embrión de la futura Internet.
Roberts confeccionó su plan para “ARPANET” publicándolo en 1967. Posteriormente presentó el documento en una conferencia en donde se exponía también un trabajo sobre el concepto de red de paquetes, descubriendo que científicos de otras instituciones habían llegado a la misma conclusión. En efecto, los trabajos del Massachusetts Institute of Technology (1961-67), los de la compañía Rand Corporation (1962-65) y los de Donal Davis del National Physical Laboratory (NPL), en Gran Bretaña (1964-67),
Habían discurrido en paralelo sin que cada
investigador hubiera conocido el trabajo de los demás sobre la conmutación por
paquetes. La palabra “packet” (“paquete”) fue adoptada a partir de estos
trabajos. Fue en esa misma conferencia donde Paul Baran, investigador de la
organización Rand Corporation, anunció que él había estado trabajando en algo
similar a la teoría de los paquetes. Este trabajo, motivado por una de las
preocupaciones de las Fuerzas Armadas de los Estados Unidos en esa época,
estaba encaminado a conseguir una manera de que las comunicaciones a través de
la voz estuvieran descentralizadas, es decir, evitar un centro neurálgico de
comunicaciones que pudiera ser destruido en un eventual ataque militar con
armas nucleares y que así, aunque se produjera un ataque, las comunicaciones no
se bloquearan, sino que solamente se perdiera un nodo de la red. Se trataba de
encontrar un sistema de comunicaciones que fuera seguro. Fue precisamente este
estudio el que contribuyó a alimentar la versión, muy extendida, sobre el
origen militar de Internet. El estudio de RAND originó el falso rumor según el
cual ARPANET tenía que ver con la construcción de una red resistente a la
guerra nuclear. En este sentido hay que recordar que Les Earnest, uno de los pioneros de ARPANET,
El equipo responsable del desarrollo de ARPANET |
Roberts confeccionó su plan para “ARPANET” publicándolo en 1967. Posteriormente presentó el documento en una conferencia en donde se exponía también un trabajo sobre el concepto de red de paquetes, descubriendo que científicos de otras instituciones habían llegado a la misma conclusión. En efecto, los trabajos del Massachusetts Institute of Technology (1961-67), los de la compañía Rand Corporation (1962-65) y los de Donal Davis del National Physical Laboratory (NPL), en Gran Bretaña (1964-67),
Donal Davis |
Les Earnest |
Manifestó que “el Departamento de Defensa de
Estados Unidos pagaba las cuentas, pero el Pentágono tenía poco que ver con la
invención de la red”. La verdad es que si bien ARPA era un organismo
militar, no había militares en la lista de grandes “creadores” de Internet, en
la cual más bien predominaban los investigadores y científicos. La idea de los
científicos que estaban trabajando en estas instituciones era la de crear
una red para compartir recursos informáticos entre investigadores y no la
de crear una red para la defensa ante un ataque nuclear.
Lawrence G. Roberts desde su puesto directivo en ARPA emitió una oferta o convocatoria a las empresas de tecnología para que construyeran los ordenadores capaces de actuar como las primeras “compuertas” o “nodos” en la nueva red.
El trabajo continuó, ya que pese a todos los avances
aún faltaba un elemento clave, el del “idioma” que deberían hablar las
computadoras para poder comunicarse en forma estable. A este elemento se le
denomina como “norma” o “protocolo”.
Un protocolo define la forma en que los ordenadores deben identificarse entre sí en una red, la forma en que los datos deben transitar por la red, y cómo esta información debe procesarse una vez que alcanza su destino final. Al final de 1968, un pequeño grupo de graduados de las cuatro Universidades en donde se instalaron los cuatro primeros ordenadores de ARPANET (UCLA, Stanford, Utha y UC Santa Barbara) comenzó a reunirse regularmente para trabajar sobre la nueva red y los problemas derivados de su desarrollo. Se llamaron el "Grupo de Trabajo de Red" (Network Working Group, NWG). El NWG fue fundamental para resolver muchos de los problemas que surgieron durante el diseño e implementación de ARPANET. Uno de los principales obstáculos que tenía el desarrollo de la red de ARPA era el problema de tener ordenadores incompatibles para comunicarse con otros. La empresa Bolt Beranek & Newman (BBN) era responsable únicamente de construirlos y de asegurarse de que podían “mover paquetes”, no de idear los métodos que tendrían que utilizar para comunicarse entre ellos. Diseñar estándares para la comunicación entre ordenadores, lo que es conocido como “protocolos”, fue una de las principales tareas del NWG
En 1970, el grupo lanzó el protocolo que habían elaborado y que llamaron “Network Control Protocol, NCP” (Protocolo de Control de Red).
Lawrence G. Roberts desde su puesto directivo en ARPA emitió una oferta o convocatoria a las empresas de tecnología para que construyeran los ordenadores capaces de actuar como las primeras “compuertas” o “nodos” en la nueva red.
La empresa Bolt Beranek & Newman, (BBN), construyó los
primeros ordenadores (“compuertas” o “nodos”) para la red ARPANET, que
en 1969 ya tenía confirmada la financiación del Pentágono.
El primer ordenador de ARPANET se instaló el 1 de
Septiembre de 1969 en la Universidad de California, Los Ángeles (UCLA).
El segundo fue instalado en el Instituto de Investigación de Stanford (Stanford
Research Institute, SRI). El tercero en la Universidad de California,
Santa Barbara (UCSB), y el cuarto en la Universidad de Utah (UUtah).
Cada una de estas ubicaciones fue seleccionada por estar
desarrollándose en ellas, diferentes y relevantes investigaciones en el campo
científico:
En la UCLA: La “Teoría de conmutación de paquetes”, de
Kleinrock.
En el SRI: El proyecto denominado “Augmentation of Human
Intelect” (Aumento del Intelecto Humano), de Doug Engelbart.
En la UCSB: “Proyectos de visualización de aplicaciones”,
de Glen Culler y Burton Freíd.
En la UUtah: “Métodos de representación en 3-D a través de
la red” con Robert Taylor e Ivan Sutherland.
L. Kleinrock, dirigió el equipo que realizó la primera
conexión, la cual se efectuó únicamente entre dos de los cuatro ordenadores: el
de la Universidad de Los Angeles y el de Stanford.
En primer lugar, el 2 de septiembre de 1969 comprobaron
que las computadoras estaban capacitadas para comunicarse y “hablarse” y
posteriormente, el 20 de octubre, realizaron con éxito la comunicación
entre ellos. La primera palabra que transmitieron fue “LOGWIN”, “log”
por conexión y “win” por victoria. Para algunos Internet surgió a
la vida en cualquiera de esas dos fechas.
A finales de 1969 se conectaron los cuatro ordenadores. De
esta forma se hizo realidad una forma embrionaria de Internet, red sin nodos
centrales basada en la “conmutación de paquetes”.
En 1970, se instalaron tres nodos adicionales en distintas
universidades, conformando así ARPANET, con siete nodos. A partir de esta fecha
se siguieron conectando ordenadores rápidamente a ARPANET durante los años
siguientes. En 1971 ARPANET se extiende a 23 sitios, incluyendo uno en Hawai, y
en 1973 ya existían conexiones fuera de Estados Unidos, en Gran Bretaña y
Noruega.
Un protocolo define la forma en que los ordenadores deben identificarse entre sí en una red, la forma en que los datos deben transitar por la red, y cómo esta información debe procesarse una vez que alcanza su destino final. Al final de 1968, un pequeño grupo de graduados de las cuatro Universidades en donde se instalaron los cuatro primeros ordenadores de ARPANET (UCLA, Stanford, Utha y UC Santa Barbara) comenzó a reunirse regularmente para trabajar sobre la nueva red y los problemas derivados de su desarrollo. Se llamaron el "Grupo de Trabajo de Red" (Network Working Group, NWG). El NWG fue fundamental para resolver muchos de los problemas que surgieron durante el diseño e implementación de ARPANET. Uno de los principales obstáculos que tenía el desarrollo de la red de ARPA era el problema de tener ordenadores incompatibles para comunicarse con otros. La empresa Bolt Beranek & Newman (BBN) era responsable únicamente de construirlos y de asegurarse de que podían “mover paquetes”, no de idear los métodos que tendrían que utilizar para comunicarse entre ellos. Diseñar estándares para la comunicación entre ordenadores, lo que es conocido como “protocolos”, fue una de las principales tareas del NWG
En 1970, el grupo lanzó el protocolo que habían elaborado y que llamaron “Network Control Protocol, NCP” (Protocolo de Control de Red).
Cuando en los nodos de ARPANET se completó la
implementación del NCP durante el periodo 1971-72, los usuarios de la red
pudieron, finalmente, comenzar a desarrollar aplicaciones. En Octubre de 1972
se organizó en Washington DC una gran demostración de ARPANET en la “International
Computer Communication Conference” realizándose, con gran éxito, una conexión
entre 40 ordenadores. Esta fue la primera demostración pública de la nueva
tecnología de red.
Fue también en 1972 cuando se introdujo la primera
“aplicación estrella" de esta red: el correo electrónico.
En Marzo de este año, Ray Tomlinson, de
BBN
Ray Tomlinson |
Escribió el software básico de envío-recepción de mensajes
de correo electrónico, impulsado por la necesidad que se tenía, en el
desarrollo de ARPANET, de un mecanismo sencillo de coordinación entre
investigadores. Desde entonces, el correo electrónico se convirtió en la
aplicación mas utilizada de la red. La ARPANET original evolucionó hacia el
concepto que daría origen a la situación actual de Internet.
Este concepto se basó en la idea de que, en el futuro,
habría múltiples redes independientes, de diseños diferentes, empezando por la
propia ARPANET como la red
pionera de “conmutación de paquetes”, pero que pronto
incluiría redes de paquetes por satélite, redes de paquetes por radio y otros
tipos de redes. Internet, como ahora la conocemos encierra una idea técnica
clave, la de arquitectura abierta de trabajo en red. Bajo este enfoque,
cualquier red con su tecnología podría interactuar con las otras redes a través
de un sistema de interconexión entre redes o de trabajo entre redes.
Concepto de cuya expresión en ingles: “Internetting”
o “Internet working” se extrajo el termino con el que actualmente
conocemos este fenómeno: “INTERNET”.Robert E. Kahn |
Robert E. Kahn comenzó a trabajar en este proyecto
de Internetting en redes de arquitectura abierta. Las instituciones académicas
se interesaron por estas posibilidades de conexión. La NSF (National
Science Foundation) dio acceso a sus cinco centros de
supercomputación, a diversas universidades a través de ARPANET. A partir de
aquí se fueron conectando otras redes. Los años setenta transcurren con
Instituciones conectándose directamente o conectando otras redes a ARPANET.
Otras redes de ordenadores como la hawaiana ALOHANET y la
red de satélites SATNET, empezaron a crearse. Pronto habría muchas redes
diferentes alrededor del mundo, pero en muchos casos no podrían comunicarse
entre sí porque utilizaban protocolos o estándares para transmisión de datos,
diferentes. A finales de la década de los setenta, ARPANET se estaba acercando
a su máximo soporte, con 256 máquinas conectadas. El protocolo NCP no podía
satisfacer ya el abundante tráfico de la red, y era claro que se necesitaba un
recambio para este protocolo.
Vinton G. Cerf |
entonces en la Universidad de Stanford, que trabajara con
él en el diseño detallado del nuevo protocolo. El trabajo en común fue
altamente productivo y la primera versión escrita bajo este enfoque ("A
Protocol for Packet Network Interconnection") fue distribuida en una
sesión especial del International Network Working Group.
Padres de Internet |
El documento original de Cerf y Kahn sobre Internet describía un protocolo, llamado “Protocolo
de Control de Transmisión” (Transmisson Control Protocol, TCP),
que se encargaría de proveer todos los servicios de transporte y reenvío en
Internet. Posteriormente se reorganizó el TCP original en dos protocolos: uno
sencillo llamado
“Protocolo de Internet” (Internet Protocol, IP),
que se encargaría tan sólo de dar una dirección a los paquetes y de
reenviarlos; y un TCP que se dedicaría a una serie de funcionalidades como el
control del flujo y la recuperación de los paquetes perdidos.
El protocolo se denominó “Protocolo de Control de
Transmisión/Protocolo de Internet” *Transmisson Control
Protocol/Internet Protocol (TCP/IP)]. Con la elaboración de este
protocolo, se constituyó el acta de nacimiento de Internet. Por esta aportación
a Vinton G. Cerf y a Robert E. Kahn se les considera actualmente
como los “Padres de Internet”.
Este fue el principio de un largo periodo de
experimentación y desarrollo para evolucionar y madurar el concepto y la
tecnología de Internet. Partiendo de las tres primeras redes, ARPANET, PRNET
(Packet Radio) y SATNET (Packet Satelite) y de sus comunidades de
investigadores iniciales, el entorno experimental creció hasta incorporar
esencialmente cualquier forma de red y una amplia comunidad de investigación y
desarrollo. Cada expansión afrontó nuevos desafíos.
En los años 80, el desarrollo de las “Redes de Área Local” (“Local Area Network, LAN”)
y los Ordenadores Personales (“Personal Computers” PCs)
Ordenador años 80. |
Permitió que la naciente Internet se desarrollara. Los PCs eran los modelos de ordenadores dominantes. El cambio que supuso pasar de unas pocas redes con un modesto número de ordenadores (el modelo original de ARPANET), a tener muchas redes con muchos ordenadores, dio lugar a nuevos conceptos y a cambios en la tecnología.
A medida que evolucionaba Internet, la propagación de los
cambios en el software se fue convirtiendo en uno de sus mayores desafíos. En
1982, rendido ante la evidencia de la popularidad del protocolo y de la fuerza
del “internetting”, ARPA decidió desclasificar el protocolo TCP-IP y además
dispuso que fuera de uso obligatorio para todas aquellas redes conectadas a
ARPANET.
Uno de los desafíos más interesantes fue el momento de la
transición y el cambio del protocolo de ARPANET, desde el antiguo NCP al nuevo
TCP/IP. La fecha elegida para este trascendental evento, fue el 1 de enero
de 1983.
Se trataba de una ocasión muy importante que exigía que todos
los ordenadores pasaran a utilizar el protocolo TCP/IP. La transición fue
cuidadosamente planificada dentro de la comunidad científica con varios años de
antelación a la fecha, pero fue sorprendentemente sobre ruedas (a pesar de dar
lugar a la distribución de pegatinas con la inscripción "Yo sobreviví a la
transición a TCP/IP"). A primera hora de ese día, todas las redes
interconectadas comenzaron a utilizar el “esperanto tecnológico”, el
TCP-IP. Para muchos expertos ese 1 de enero de 1983 fue cuando realmente
se produjo el comienzo de Internet.
La red Internet se basa en la utilización de los
protocolos TCP/IP que son las normas que posibilitan la interconexión de
ordenadores que han sido construidos por diferentes fabricantes utilizando todo
tipo de tecnologías. El protocolo TCP/IP está formado a su vez por más de 100
normas o protocolos que no dependen de ningún fabricante y son estándar. Los
dos protocolos más importantes son IP (Internet Protocol) y TCP
(Transmision Control Protocol). El Protocolo IP, define una red de
conmutación de paquetes donde la información que se quiere transmitir está
fragmentada en paquetes. Cada paquete de información cuenta con la dirección IP
tanto del ordenador que lo envió como la del que lo tiene que recibir. Cada
paquete se envía a la dirección del ordenador destino y viaja
independientemente del resto. La característica principal de los paquetes IP es
que pueden utilizar cualquier medio y tecnología de transporte. Los ordenadores
que conectan las diferentes redes y deciden por donde es mejor enviar un
paquete según el destino, son los denominados “routers” o
direccionadores. El Protocolo TCP, define la manera en que la información será
separada en paquetes y enviada a través de Internet. Se asegura también de que
cada paquete se recombine en el orden correcto y los revisa para evitar
errores. Este mecanismo de funcionamiento requiere que todos los ordenadores
conectados tengan direcciones distintas. El Protocolo TCP/IP identifica un
ordenador en Internet. Cada ordenador conectado a la red tiene una dirección
asociada (dirección IP). Estas direcciones son números de 32 bits que
normalmente se escriben como a.b.c.d donde a,b,c,d son números menores de 255.
Una parte de la dirección (los 3 primeros números)
identifica la red (“network”) entre todas las redes conectadas a
Internet y las que utilizan los “routers” para encaminar los paquetes.
La otra parte de la dirección identifica el ordenador (host) dentro
de los conectados en la misma red. Aunque se puedan utilizar estas direcciones
Internet, de tipo numérico, para acceder a los servicios y ordenadores,
normalmente utilizamos direcciones con nombres que son más fáciles de recordar.
Es decir, para facilitar el uso de Internet por los usuarios se asignaron
nombres a los ordenadores de forma que resultara innecesario recordar sus
direcciones numéricas.
Originalmente había un número muy limitado de ordenadores,
por lo que bastaba con una simple tabla con todos los ordenadores y sus
direcciones numéricas asociadas. El cambio a un gran número de redes con
numerosos ordenadores, significó que ya no resultara fiable tener una pequeña
tabla con todos los números de los ordenadores. Esto llevó a la creación del “Sistema
de Nombres de Dominio” (Domain Name System, DNS).
El DNS es una base de datos distribuida de forma
jerárquica por toda la red y que es consultada por las aplicaciones para
traducir los nombres, que es lo que utiliza el usuario de Internet, a
direcciones numéricas.
Esta jerarquía permite distribuir la responsabilidad para
garantizar que no existen nombres repetidos dentro del mismo nivel o dominio,
ya que el administrador de cada nivel es responsable del registro de nombres
dentro de su nivel y garantiza que éstos sean únicos. Es un servicio
indispensable para nuestro uso en la vida diaria de Internet.
Así permite que una dirección IP, como la 198.137.240.100,
que pertenecía a la Casa Blanca sea más fácil de recordar, a través de los
llamados nombres de dominio, como “whitehouse.gov”. No obstante, se pueden
utilizar indistintamente los nombres o las direcciones IP en todas las
aplicaciones de Internet.
El dominio está formado por dos palabras separadas
por un punto. La primera corresponde a un nombre; por ejemplo el de una
empresa. La segunda (terminación o dominio principal) representa la
actividad (dominio genérico) o la procedencia territorial (dominio
territorial). Las terminaciones de los dominios genéricos incluían
clásicamente las siguientes:
.com, para organizaciones comerciales.
.edu, para universidades y centros educativos.
.gov, para instituciones de gobierno.
.mil, para instituciones militares.
.org, para otro tipo de organizaciones.
.net, para proveedores e instituciones de soporte
para Internet.
.info, para páginas informativas.
.int, para organizaciones con tratados
internacionales.
Los dominios que indican la procedencia territorial por
países son por ejemplo:
.pe para Perú,
.uk para el Reino Unido,
.es para España,
.fr para Francia,
.it para Italia,
.mx para México,
.de para Alemania, etc.
El desarrollo mundial de Internet y la saturación de los
dominios genéricos, sobre todo el “.com”, han provocado una reacción
internacional, que dio lugar a la aprobación, en noviembre del año 2000, de
nuevos dominios genéricos:
.biz, para actividades comerciales.
.info, puntos de información.
.name, para uso particular.
.pro, para profesionales.
.coop, para cooperativas.
.aero, para la industria aeronáutica, y
.museum, para museos.
.tv, para empresas de vídeo y TV.
.ws, para tipos de sitios web
Etc.
Poco después de la adopción generalizada del TCP/IP,
ARPANET fue desmilitarizada por completo en 1983. Para entonces ya estaba claro
que las comunidades académicas eran las principales usuarias de Internet. Las
comunidades militares crearon una red propia, MILNET, para investigación y
desarrollo en el área de la defensa.
Así, y ya sin fines militares, ARPANET abre las puertas a
universidades, empresas y todo tipo de instituciones. Desde ese momento
ARPANET, y todas sus redes asociadas empiezan a ser conocidas realmente como INTERNET.
En 1984 la Fundación Nacional para la Ciencia, NSF
(National Science Foundation) dio acceso a sus seis centros de supercomputación
a otras universidades a través de la ARPANET.
La NSF inicia una nueva "red de redes"
a través de nuevas y más rápidas conexiones. Esta red se le conoció como NSFNET
Y adoptó también como protocolo de comunicación a TCP/IP. A partir de ahí se conectan más y más redes.
TELNET: protocolo que permite la conexión remota a otro ordenador y que permite manejarlo como si se estuviese físicamente ante él
GOPHER que permitía acceder a servidores de información,
etc.).
En 1987 es cuando empieza la verdadera explosión de
Internet y ese año se incorporan diversas redes de Europa. A la NSFNET
empezaron a conectarse no solamente centros de supercomputación, sino también
instituciones educativas con redes más pequeñas. El crecimiento exponencial que
experimentó la NSFNET así como el incremento continuo de su capacidad de
transmisión de datos, determinó que la mayoría de los miembros de ARPANET
terminaran conectándose a esta nueva red y en 1989, ARPANET se declara
disuelta.
Su autor William Gibson utilizó el término “ciberespacio” para definir una especie de espacio/sitio/lugar tras la pantalla del ordenador, un lugar que no podemos ver pero que sabemos que está allí. El ciberespacio sería, pues, el espacio virtual o no físico que existe al otro lado del ordenador cuando nos conectamos a Internet y que experimentamos como real, aunque se trate de un espacio figurado. Con el tiempo este concepto iba a consolidarse, y la palabra “ciberespacio” terminó por ser sinónimo de Internet.
Tim Berners-Lee |
En Marzo de 1989, un físico británico llamado Tim Berners-Lee que trabajaba en el “Consejo Europeo para la Investigación Nuclear” (Conseil Européen pour la Recherche Nucleaire, CERN) de Suiza, propuso un proyecto de unificación del acceso a todos los datos que poseía este organismo. Desarrolló un sistema tipo hipertexto
Y un protocolo de comunicación (HyperText Transfer Protocol, HTTP)
Permitía a los científicos que trabajaban en proyectos
del CERN, consultar toda la información disponible que se encontraba diseminada
en los diferentes ordenadores de las instituciones que colaboraban con el CERN.
En octubre de 1990 decidieron ponerle un nombre a este sistema, y lo llamaron World
Wide Web (www).
La nueva fórmula permitía vincular la información a través de las redes de forma lógica. El éxito del proyecto fue tan amplio y tan contundente que se empezó a definir un lenguaje de creación de documentos estructurados llamado “Lenguaje de Marca de Hipertexto“(Hyper Text Markup Language, HTML).
La World Wide Web es un sistema que integra todos
los recursos de información accesibles por Internet en “páginas de
información” (paginas “web”), y se basa en el lenguaje
llamado “Lenguaje de Marca de Hipertexto“(Hyper-Text Markup
Language, HTML) y en el protocolo HTTP (HyperText Transfer
Protocol), que permiten hacer conexiones entre documentos publicados en
Internet, gracias a los llamados “enlaces hipertexto”, haciendo
la búsqueda de información bastante amigable. Un documento hipertexto no se
compone únicamente de texto sino que también contiene relaciones estructurales
(enlaces a otros documentos). Si ampliamos aún más el concepto y hacemos que
los enlaces no sean estrictamente entre texto sino que pueda intervenir
información en otros formatos (imágenes, gráficos, sonidos, vídeo…), el
resultado es un “documento hipermedia o multimedia”.
Así una página www (“página web”) puede incluir varios tipos de contenido (información): texto, gráficos, sonido e hipertexto. Un “hipertexto” es texto resaltado que el usuario puede activar para acceder a otra página web. La diferencia entre un documento hipertexto y un documento normal consiste en que el hipertexto contiene, además de la información, una serie de enlaces o conexiones (links) con otros documentos relacionados, de manera que el lector puede pasar de un tema a otro y volver al documento original en el momento en que le interese. Los documentos hipertexto reflejan nuestra forma de trabajar con documentos o libros. Hojeamos el índice, encontramos elementos que nos interesan, vamos a las páginas donde se desarrollan, si no era lo que esperábamos encontrar, volvemos al índice y repetimos el proceso. Un documento hipertexto incluye enlaces a otros documentos donde se desarrollan con mas detalle, conceptos, ideas, noticias, etc. que se encuentran en el primer documento. Se le llama World Wide Web (en sentido figurado “Telaraña Mundial”)
Por las conexiones o enlaces que se hacen entre los
documentos que existen en ella, así se va formando una telaraña de conexiones
(links) entre los documentos publicados en Internet. La WWW permite acceder
remotamente a documentos electrónicos organizados en forma de hipertexto que
incorporan imágenes y sonido. Para poder utilizar el servicio Web se necesitan
dos componentes: el servidor y el cliente. El servidor o host es la
empresa que pone a su disposición las máquinas donde se alojan las páginas web
y, por otro lado, está el cliente u ordenador del usuario. Si el usuario quiere
acceder a dichas páginas tiene que utilizar un programa que lea las páginas web
e interprete su significado. Estos programas son los navegadores (browser)
y son los que permiten al ordenador del usuario interpretar el lenguaje HTML.
En 1993 se produjo un hecho determinante: Marc
Andreesen en el “National Center for Supercomputing
Applications”,
Marc Andreesen |
Elaboró la primera versión del navegador “Mosaic”
La cual permitió acceder con mayor naturalidad a las páginas web de la WWW. La interfaz gráfica iba más allá de lo previsto y la facilidad con la que podía manejarse el programa hacía más accesible y abría Internet a los profanos en esta materia.
Poco después, Andreesen encabezó la
creación del navegador Netscape Navigator
Posteriormente surgió Internet Explorer de
Microsoft
A partir de entonces Internet comenzó a crecer más rápido
que ningún otro medio de comunicación en la historia de la humanidad. Estos
navegadores permiten usar los diferentes recursos de la red sin tener que
aprender comandos crípticos de los sistemas operativos. En el navegador
una palabra, una frase, e incluso una imagen, pueden formar parte de un enlace
hipertexto. De esta forma es posible organizar esquemas de acceso a la
información basados en iconos. Los navegadores se han convertido en una
herramienta universal de acceso a Internet.
En la actualidad los navegadores más comunes son el Explorer
de Microsoft y el navegador de código abierto Mozilla Firefox desarrollado
por la Corporación Mozilla tras ser liberado el código de Netscape.
El 20 de febrero de 2008 Netscape lanzó su última versión
y se cerró su historia en Internet.
Con la WWW se pretende crear también una interfaz
uniforme que homogeneice la búsqueda y el acceso a todos los servicios de
información disponibles, generándole así al usuario la visión de un sistema de
información universal. Este sistema de información distribuido permite que,
desde un interfaz de usuario totalmente intuitivo, la información sea buscada y
mostrada de forma fácil sin necesidad de ser, o depender de, un experto
informático. Es un sistema innovador que permite seguir hechos, ideas y texto de
un “enlace de hipertexto” a otro, y a su vez permite escuchar sonidos y ver
imágenes, lo que le hacen incomparable.
Así, sólo leyendo, buscando y guardando información, el
usuario “salta” (de una forma transparente para él) entre
diferentes documentos que pueden estar almacenados en máquinas distintas
(“distribución de la información”). Una vez encontrada la información, si le
interesa tiene varias opciones: se podría guardar el enlace, guardar el
documento o bien imprimirlo.
Una de las claves del éxito de WWW, aparte de lo
atractivo de su presentación es, sin duda, su organización y coherencia.
Identifica la información, el sistema donde reside y la
aplicación necesaria para acceder a ella. Tiene dos partes separadas por dos
puntos: antes de los dos puntos especifica el método de acceso (http, ftp,
mail, news,....). Después de los dos puntos suele contener direcciones y puntos
de acceso a un ordenador.
En la práctica, la www es el servicio más utilizado
de Internet. Se trata no sólo de un depósito de información, sino
también de una forma de acceso, búsqueda y recuperación. La mayoría de los
servicios de Internet se prestan hoy a través de la interfaz de la World Wide
Web debido no sólo a sus posibilidades multimedia sino también a las
características interactivas y dinámicas que hoy ofrece la propia Web. La
existencia de elementos dinámicos para acceder a diferentes aplicaciones de una
forma visualmente atractiva y de uso sencillo, han hecho de la World Wide Web
una herramienta potentísima para llevar a cabo todo tipo de servicios en
Internet.
Internet es una red de
redes de millones de ordenadores en todo el mundo. Pero al contrario de lo que
se piensa comúnmente, Internet no es sinónimo de World Wide Web.
La Web
es sólo una parte de Internet, es sólo uno de los muchos servicios
que ofrece Internet.
FUENTES:
http://www.hipertexto.info/documentos/h_hipertex.htm http://www.revistareduca.es/index.php/reduca/article/viewFile/20/21
No hay comentarios:
Publicar un comentario