viernes, 19 de octubre de 2012

HISTORIA DE INTERNET



La Historia de Internet es compleja, pero vamos a intentar simplificarla con algunos de los acontecimientos más importantes a partir de los artículos escritos por  María Jesús Lamarca Lapuente, quien realizó una Tesis Doctoral en la Universidad Complutense de Madrid sobre el Hipertexto  y por Carlos Martínez Ramo de la Facultad de Medicina de la Universidad Complutense de Madrid, los cuales nos hablan del origen y la evolución de Internet:

Nikola Tesla


Nikola Tesla (1856-1943), un ingeniero, poeta e inventor yugoslavo ya predijo la existencia de un sistema energético de distribución mundial que permitiría conectar todas las estaciones telefónicas del mundo, la difusión mundial de información y noticias, correo y otros escritos, la reproducción y envío de fotografías e imágenes, la implantación de un sistema de difusión musical, la impresión a distancia y la implantación de un registro horario universal.




El lanzamiento por parte de los soviéticos del satélite Sputnik originó una crisis en la confianza americana y el gobierno de los Estados Unidos formó en 1957 la agencia ARPA “Advanced Research Projects Agency”, un segmento del Departamento de Defensa encargado de asegurar el liderazgo de los Estados Unidos en la ciencia y la tecnología con aplicaciones militares.




En 1972, la agencia cambiará su denominación por Darpa (Defense Advanced Research Projects Agency”. Fue creada para asegurarse de que América no volviera a ser cogida con la guardia baja en el terreno tecnológico.



Además de esta agencia, por esa misma época se creó también la Fundación Nacional de la Ciencia (N.S.F) que tenía como finalidad institucionalizar las relaciones entre el Gobierno Federal de los Estados Unidos, la comunidad científica americana y los empresarios. Relaciones que habían sido promovidas años antes, durante la II Guerra Mundial, por un científico Vannevar Bush:


Vannevar Bush



Vannevar Bush escribió un artículo titulado “As we may think” (Cómo podemos pensar) en el que describió un dispositivo teórico de almacenamiento y extracción de información que llamó “Memex” que utilizaría un sistema notablemente similar al que ahora se emplea en Internet y que llamamos “Hipertexto”.



Theodor Holn Nelson

Si Vannevar Bush está considerado el padre del hipertexto, Theodor Holn Nelson fue quien lo bautizó. En 1965, Nelson acuñó el concepto de hipertexto (hypertext)  definiéndolo como: 

"un cuerpo de material escrito o pictórico interconectado en una forma compleja que no puede ser representado en forma conveniente haciendo uso del papel". En su artículo "A File Structure for the Complex, the Changing, and the Indeterminate", que leyó durante la vigésima conferencia anual de la Association of Computer Machinery (ACM), definió el término hipertexto de la siguiente manera: 

            "Por hipertexto entiendo escritura no secuencial. La escritura tradicional es secuencial por dos razones. Primero, se deriva del discurso hablado, que es secuencial, y segundo, porque los libros están escritos para leerse de forma secuencial... sin embargo, las estructuras de las ideas no son secuenciales. Están interrelacionadas en múltiples direcciones. Y cuando escribimos siempre tratamos de relacionar cosas de forma no secuencial".



Y en su obra ya clásica, “Literary Machines, donde demuestra una clarividencia extraordinaria al trascender su época y considerar a los ordenadores como máquinas literarias y no simples artefactos que trataban con números mediante la introducción de datos en tarjetas perforadas, definió el término hipertexto con más precisión:

            "Con hipertexto, me refiero a una escritura no secuencial, a un texto que bifurca, que permite que el lector elija y que se lea mejor en una pantalla interactiva. De acuerdo con la noción popular, se trata de una serie de bloques de texto conectados entre sí por nexos, que forman diferentes itinerarios para el usuario".

Creador de sistemas hipertextuales, Nelson ideó un modelo para la interconexión de documentos electrónicos y presentó el proyectoXanadú 



En referencia al mítico lugar que Samuel Taylor Coleridge inmortalizó en su poema "Kubla Khan" y que era símbolo de la creatividad y de la inspiración romántica. Dicho proyecto tenía como objetivo principal la construcción de un servidor de hipertexto que permitiera almacenar y enlazar toda la literatura mundial, y que fuera accesible desde cualquier terminal de ordenador. La idea era reunir toda la producción escrita existente y conectar unos textos con otros, estando esos documentos almacenados en ordenadores particulares pero disponibles para el resto de los usuarios por medio de una dirección única para cada uno de ellos. 



Un personaje fundamental en la gestación de Internet fue el científico J.C.R. Licklider,


J.C.R. Licklider

Era psicólogo e informático y tenía ideas futuristas y vanguardistas sobre redes de ordenadores integrados a nivel intergaláctico. Trabajos importantes como “Man Computer Symbiosis” (la simbiosis hombre-computadora) que publicó en 1960 y “The computer as a Communication Device” (La computadora como instrumento de comunicación) publicado en 1983. 

La primera descripción documentada existente acerca de las ventajas que reportaría la posibilidad del “trabajo en red” de los científicos, está contenida en una serie de memorándums escritos en agosto de 1962 por J.C.R. Licklider, en donde discutía el concepto pionero de “Red Galáctica” y en los cuales formuló por primera vez la idea de “una red global de computadoras” En esencia, el concepto era muy parecido a la Internet que hoy conocemos. En ese mismo año de 1962, Licklider se incorporó a trabajar en la agencia ARPA. Licklider creía que los ordenadores se podrían utilizar para aumentar el pensamiento humano y sugirió, estando ya trabajando en la agencia ARPA, que fuera establecida una red de ordenadores para permitir a los investigadores de ARPA poder comunicarse y transferirse información entre ellos, de modo eficiente. Es decir elaboró el concepto del TRABAJO EN RED.

Licklider no logró construir la red que propuso, pero su idea siguió viva cuando dejó ARPA en 1964, y convenció de la importancia del concepto de trabajo en reda sus sucesores Ivan Sutherland y Bob Taylor,



Ivan Sutherland
Bob Taylor

así como al investigador del Instituto Tecnológico de Massachussets (Massachusetts Institute of Technology, MIT) Lawrence G. Roberts.



Lawrence G. Roberts

Este concepto del TRABAJO EN RED fue una de las primeras situaciones que se dieron para que se produjera el nacimiento de Internet. Otro paso fundamental para el nacimiento de Internet se produjo en Julio de 1961 cuando otros investigadores de prestigiosas instituciones, como el “Instituto Tecnológico de Massachusetts”, o la compañía Rand Corporation”, 












Sentaron las bases tecnológicas que facilitaron en años posteriores la creación de Internet. Esta tecnología consistía en transmitir la información dividida en “paquetes” (tecnología que permitía fragmentar los datos o la información y que recorrieran rutas diferentes).







Es la llamada Teoría de la Conmutación por Paquetes”.



Entre estos investigadores hay que destacar, por un lado, a Leonard Kleinrock,


Leonard Kleinrock

Leonard Kleinrock publicó el primer documento sobre la teoría de conmutación por paquetes en las comunicaciones, en su artículo "Flujo de Información en Redes Amplias de Comunicación”. Y por otro, a Paul Baran



Paul Baran


que publicó "Redes de Comunicación Distribuida”, en el que hablaba de “redes conmutadas por paquetes, sin punto único de interrupción”. En las redes basadas en la conmutación por paquetes, el conjunto de la “información” a enviar se dividía en “paquetes” y cada paquete contenía la dirección de origen, la de destino, el número de secuencia y una parte de la información que transportan. Los paquetes al llegar al destino se ordenaban según el número de secuencia y se juntaban y volvían a ensamblarse para dar lugar de nuevo al conjunto de la “información”. Al viajar por la red la “información” en forma de “paquetes”, era más difícil perder datos ya que, si un “paquete” concreto no llegaba al destino o llegaba defectuoso, el ordenador que debía recibir la “información” sólo tenía que solicitar al ordenador emisor el “paquete” que le faltaba..

L. Kleinrock convenció a Lawrence G. Roberts, que dirigía un proyecto para encontrar una “manera eficiente que permitiera compartir recursos informáticos a diferentes trabajadoresde la Oficina de Técnicas de Proceso de Información (“Information Processing Techniques Office”, IPTO), sobre la factibilidad teórica de las “comunicaciones vía paquetes” en lugar de “vía circuitos.

Todo lo cual resultó ser un gran avance en el camino hacia el trabajo informático en red y, por tanto, hacia Internet. Lawrence G. Roberts se incorporó como investigador a ARPA en 1966, para dirigir un proyecto de consecuencias impredecibles, con un presupuesto de un millón de dólares: sería el arquitecto principal de una nueva red de ordenadores similar a la imaginada por J.C.R. Licklider, que se llamaría “ARPANET”, y que sería el embrión de la futura Internet.
El equipo responsable del desarrollo de ARPANET



Roberts confeccionó su plan para “ARPANET” publicándolo en 1967. Posteriormente presentó el documento en una conferencia en donde se exponía también un trabajo sobre el concepto de red de paquetes, descubriendo que científicos de otras instituciones habían llegado a la misma conclusión. En efecto, los trabajos del Massachusetts Institute of Technology (1961-67), los de la compañía Rand Corporation (1962-65) y los de Donal Davis  del National Physical Laboratory (NPL), en Gran Bretaña (1964-67), 


Donal Davis
Habían discurrido en paralelo sin que cada investigador hubiera conocido el trabajo de los demás sobre la conmutación por paquetes. La palabra “packet” (“paquete”) fue adoptada a partir de estos trabajos. Fue en esa misma conferencia donde Paul Baran, investigador de la organización Rand Corporation, anunció que él había estado trabajando en algo similar a la teoría de los paquetes. Este trabajo, motivado por una de las preocupaciones de las Fuerzas Armadas de los Estados Unidos en esa época, estaba encaminado a conseguir una manera de que las comunicaciones a través de la voz estuvieran descentralizadas, es decir, evitar un centro neurálgico de comunicaciones que pudiera ser destruido en un eventual ataque militar con armas nucleares y que así, aunque se produjera un ataque, las comunicaciones no se bloquearan, sino que solamente se perdiera un nodo de la red. Se trataba de encontrar un sistema de comunicaciones que fuera seguro. Fue precisamente este estudio el que contribuyó a alimentar la versión, muy extendida, sobre el origen militar de Internet. El estudio de RAND originó el falso rumor según el cual ARPANET tenía que ver con la construcción de una red resistente a la guerra nuclear. En este sentido hay que recordar que Les Earnestuno de los pioneros de ARPANET,

Les Earnest


Manifestó que el Departamento de Defensa de Estados Unidos pagaba las cuentas, pero el Pentágono tenía poco que ver con la invención de la red. La verdad es que si bien ARPA era un organismo militar, no había militares en la lista de grandes “creadores” de Internet, en la cual más bien predominaban los investigadores y científicos. La idea de los científicos que estaban trabajando en estas instituciones era la de crear una red para compartir recursos informáticos entre investigadores y no la de crear una red para la defensa ante un ataque nuclear.
Lawrence G. Roberts desde su puesto directivo en ARPA emitió una oferta o convocatoria a las empresas de tecnología para que construyeran los ordenadores capaces de actuar como las primeras compuertaso “nodosen la nueva red. 

La empresa Bolt Beranek & Newman, (BBN), construyó los primeros ordenadores (“compuertas” o “nodos”) para la red ARPANET, que en 1969 ya tenía confirmada la financiación del Pentágono.

El primer ordenador de ARPANET se instaló el 1 de Septiembre de 1969 en la Universidad de California, Los Ángeles (UCLA). El segundo fue instalado en el Instituto de Investigación de Stanford (Stanford Research Institute, SRI). El tercero en la Universidad de California, Santa Barbara (UCSB), y el cuarto en la Universidad de Utah (UUtah).

Cada una de estas ubicaciones fue seleccionada por estar desarrollándose en ellas, diferentes y relevantes investigaciones en el campo científico:
En la UCLA: La “Teoría de conmutación de paquetes”, de Kleinrock.
En el SRI: El proyecto denominado “Augmentation of Human Intelect(Aumento del Intelecto Humano), de Doug Engelbart.
En la UCSB: “Proyectos de visualización de aplicaciones”, de Glen Culler y Burton Freíd.
En la UUtah: “Métodos de representación en 3-D a través de la red” con Robert Taylor e Ivan Sutherland.
L. Kleinrock, dirigió el equipo que realizó la primera conexión, la cual se efectuó únicamente entre dos de los cuatro ordenadores: el de la Universidad de Los Angeles y el de Stanford.



En primer lugar, el 2 de septiembre de 1969 comprobaron que las computadoras estaban capacitadas para comunicarse y “hablarse” y posteriormente, el 20 de octubre, realizaron con éxito la comunicación entre ellos. La primera palabra que transmitieron fue “LOGWIN”, “log” por conexión y “win” por victoria. Para algunos Internet surgió a la vida en cualquiera de esas dos fechas.


A finales de 1969 se conectaron los cuatro ordenadores. De esta forma se hizo realidad una forma embrionaria de Internet, red sin nodos centrales basada en la “conmutación de paquetes”.
En 1970, se instalaron tres nodos adicionales en distintas universidades, conformando así ARPANET, con siete nodos. A partir de esta fecha se siguieron conectando ordenadores rápidamente a ARPANET durante los años siguientes. En 1971 ARPANET se extiende a 23 sitios, incluyendo uno en Hawai, y en 1973 ya existían conexiones fuera de Estados Unidos, en Gran Bretaña y Noruega.



El trabajo continuó, ya que pese a todos los avances aún faltaba un elemento clave, el del “idioma” que deberían hablar las computadoras para poder comunicarse en forma estable. A este elemento se le denomina como “norma” o “protocolo”. 




Un protocolo define la forma en que los ordenadores deben identificarse entre sí en una red, la forma en que los datos deben transitar por la red, y cómo esta información debe procesarse una vez que alcanza su destino final. Al final de 1968, un pequeño grupo de graduados de las cuatro Universidades en donde se instalaron los cuatro primeros ordenadores de ARPANET (UCLA, Stanford, Utha y UC Santa Barbara) comenzó a reunirse regularmente para trabajar sobre la nueva red y los problemas derivados de su desarrollo. Se llamaron el "Grupo de Trabajo de Red" (Network Working Group, NWG). El NWG fue fundamental para resolver muchos de los problemas que surgieron durante el diseño e implementación de ARPANET. Uno de los principales obstáculos que tenía el desarrollo de la red de ARPA era el problema de tener ordenadores incompatibles para comunicarse con otros. La empresa Bolt Beranek & Newman (BBN) era responsable únicamente de construirlos y de asegurarse de que podían “mover paquetes”, no de idear los métodos que tendrían que utilizar para comunicarse entre ellos. Diseñar estándares para la comunicación entre ordenadores, lo que es conocido como “protocolos”, fue una de las principales tareas del NWG


En 1970, el grupo lanzó el protocolo que habían elaborado y que llamaron Network Control Protocol, NCP” (Protocolo de Control de Red).





Cuando en los nodos de ARPANET se completó la implementación del NCP durante el periodo 1971-72, los usuarios de la red pudieron, finalmente, comenzar a desarrollar aplicaciones. En Octubre de 1972 se organizó en Washington DC una gran demostración de ARPANET en la “International Computer Communication Conference” realizándose, con gran éxito, una conexión entre 40 ordenadores. Esta fue la primera demostración pública de la nueva tecnología de red. 

Fue también en 1972 cuando se introdujo la primera “aplicación estrella" de esta red: el correo electrónico.





En Marzo de este año, Ray Tomlinson, de BBN



Ray Tomlinson

Escribió el software básico de envío-recepción de mensajes de correo electrónico, impulsado por la necesidad que se tenía, en el desarrollo de ARPANET, de un mecanismo sencillo de coordinación entre investigadores. Desde entonces, el correo electrónico se convirtió en la aplicación mas utilizada de la red. La ARPANET original evolucionó hacia el concepto que daría origen a la situación actual de Internet.
Este concepto se basó en la idea de que, en el futuro, habría múltiples redes independientes, de diseños diferentes, empezando por la propia ARPANET como la red
pionera de “conmutación de paquetes”, pero que pronto incluiría redes de paquetes por satélite, redes de paquetes por radio y otros tipos de redes. Internet, como ahora la conocemos encierra una idea técnica clave, la de arquitectura abierta de trabajo en red. Bajo este enfoque, cualquier red con su tecnología podría interactuar con las otras redes a través de un sistema de interconexión entre redes o de trabajo entre redes.
Concepto de cuya expresión en ingles: “Internetting” o “Internet working” se extrajo el termino con el que actualmente conocemos este fenómeno: “INTERNET”.


Robert E. Kahn

Robert E. Kahn comenzó a trabajar en este proyecto de Internetting en redes de arquitectura abierta. Las instituciones académicas se interesaron por estas posibilidades de conexión. La NSF (National Science Foundation) dio acceso a sus cinco centros de supercomputación, a diversas universidades a través de ARPANET. A partir de aquí se fueron conectando otras redes. Los años setenta transcurren con Instituciones conectándose directamente o conectando otras redes a ARPANET. 



Otras redes de ordenadores como la hawaiana ALOHANET y la red de satélites SATNET, empezaron a crearse. Pronto habría muchas redes diferentes alrededor del mundo, pero en muchos casos no podrían comunicarse entre sí porque utilizaban protocolos o estándares para transmisión de datos, diferentes. A finales de la década de los setenta, ARPANET se estaba acercando a su máximo soporte, con 256 máquinas conectadas. El protocolo NCP no podía satisfacer ya el abundante tráfico de la red, y era claro que se necesitaba un recambio para este protocolo.

Así, Robert E. Kahn decidió desarrollar una nueva versión del protocolo NCP que pudiera satisfacer las necesidades de un entorno de red de arquitectura abierta. En la primavera de 1973, después de haber empezado el trabajo de "Internetting", le pidió a Vinton G. Cerf



Vinton G. Cerf
entonces en la Universidad de Stanford, que trabajara con él en el diseño detallado del nuevo protocolo. El trabajo en común fue altamente productivo y la primera versión escrita bajo este enfoque ("A Protocol for Packet Network Interconnection") fue distribuida en una sesión especial del International Network Working Group.


Padres de Internet









El documento original de Cerf y Kahn sobre Internet describía un protocolo, llamado “Protocolo de Control de Transmisión” (Transmisson Control Protocol, TCP), que se encargaría de proveer todos los servicios de transporte y reenvío en Internet. Posteriormente se reorganizó el TCP original en dos protocolos: uno sencillo llamado
“Protocolo de Internet” (Internet Protocol, IP), que se encargaría tan sólo de dar una dirección a los paquetes y de reenviarlos; y un TCP que se dedicaría a una serie de funcionalidades como el control del flujo y la recuperación de los paquetes perdidos.

El protocolo se denominó “Protocolo de Control de Transmisión/Protocolo de Internet” *Transmisson Control Protocol/Internet Protocol (TCP/IP)]. Con la elaboración de este protocolo, se constituyó el acta de nacimiento de Internet. Por esta aportación a Vinton G. Cerf y a Robert E. Kahn se les considera actualmente como los “Padres de Internet”.

Este fue el principio de un largo periodo de experimentación y desarrollo para evolucionar y madurar el concepto y la tecnología de Internet. Partiendo de las tres primeras redes, ARPANET, PRNET (Packet Radio) y SATNET (Packet Satelite) y de sus comunidades de investigadores iniciales, el entorno experimental creció hasta incorporar esencialmente cualquier forma de red y una amplia comunidad de investigación y desarrollo. Cada expansión afrontó nuevos desafíos.

En los años 80, el desarrollo de las “Redes de Área Local” (“Local Area Network, LAN”) 






y los Ordenadores Personales (“Personal Computers” PCs) 


Ordenador años 80.


Permitió que la naciente Internet se desarrollara. Los PCs eran los modelos de ordenadores dominantes. El cambio que supuso pasar de unas pocas redes con un modesto número de ordenadores (el modelo original de ARPANET), a tener muchas redes con muchos ordenadores, dio lugar a nuevos conceptos y a cambios en la tecnología.


A medida que evolucionaba Internet, la propagación de los cambios en el software se fue convirtiendo en uno de sus mayores desafíos. En 1982, rendido ante la evidencia de la popularidad del protocolo y de la fuerza del “internetting”, ARPA decidió desclasificar el protocolo TCP-IP y además dispuso que fuera de uso obligatorio para todas aquellas redes conectadas a ARPANET.
Uno de los desafíos más interesantes fue el momento de la transición y el cambio del protocolo de ARPANET, desde el antiguo NCP al nuevo TCP/IP. La fecha elegida para este trascendental evento, fue el 1 de enero de 1983.

Se trataba de una ocasión muy importante que exigía que todos los ordenadores pasaran a utilizar el protocolo TCP/IP. La transición fue cuidadosamente planificada dentro de la comunidad científica con varios años de antelación a la fecha, pero fue sorprendentemente sobre ruedas (a pesar de dar lugar a la distribución de pegatinas con la inscripción "Yo sobreviví a la transición a TCP/IP"). A primera hora de ese día, todas las redes interconectadas comenzaron a utilizar el “esperanto tecnológico”, el TCP-IP. Para muchos expertos ese 1 de enero de 1983 fue cuando realmente se produjo el comienzo de Internet.

La red Internet se basa en la utilización de los protocolos TCP/IP que son las normas que posibilitan la interconexión de ordenadores que han sido construidos por diferentes fabricantes utilizando todo tipo de tecnologías. El protocolo TCP/IP está formado a su vez por más de 100 normas o protocolos que no dependen de ningún fabricante y son estándar. Los dos protocolos más importantes son IP (Internet Protocol) y TCP (Transmision Control Protocol). El Protocolo IP, define una red de conmutación de paquetes donde la información que se quiere transmitir está fragmentada en paquetes. Cada paquete de información cuenta con la dirección IP tanto del ordenador que lo envió como la del que lo tiene que recibir. Cada paquete se envía a la dirección del ordenador destino y viaja independientemente del resto. La característica principal de los paquetes IP es que pueden utilizar cualquier medio y tecnología de transporte. Los ordenadores que conectan las diferentes redes y deciden por donde es mejor enviar un paquete según el destino, son los denominados “routerso direccionadores. El Protocolo TCP, define la manera en que la información será separada en paquetes y enviada a través de Internet. Se asegura también de que cada paquete se recombine en el orden correcto y los revisa para evitar errores. Este mecanismo de funcionamiento requiere que todos los ordenadores conectados tengan direcciones distintas. El Protocolo TCP/IP identifica un ordenador en Internet. Cada ordenador conectado a la red tiene una dirección asociada (dirección IP). Estas direcciones son números de 32 bits que normalmente se escriben como a.b.c.d donde a,b,c,d son números menores de 255.
Una parte de la dirección (los 3 primeros números) identifica la red (“network”) entre todas las redes conectadas a Internet y las que utilizan los “routerspara encaminar los paquetes. La otra parte de la dirección identifica el ordenador (host) dentro de los conectados en la misma red. Aunque se puedan utilizar estas direcciones Internet, de tipo numérico, para acceder a los servicios y ordenadores, normalmente utilizamos direcciones con nombres que son más fáciles de recordar. Es decir, para facilitar el uso de Internet por los usuarios se asignaron nombres a los ordenadores de forma que resultara innecesario recordar sus direcciones numéricas.

Originalmente había un número muy limitado de ordenadores, por lo que bastaba con una simple tabla con todos los ordenadores y sus direcciones numéricas asociadas. El cambio a un gran número de redes con numerosos ordenadores, significó que ya no resultara fiable tener una pequeña tabla con todos los números de los ordenadores. Esto llevó a la creación del “Sistema de Nombres de Dominio” (Domain Name System, DNS).





El DNS es una base de datos distribuida de forma jerárquica por toda la red y que es consultada por las aplicaciones para traducir los nombres, que es lo que utiliza el usuario de Internet, a direcciones numéricas.


Esta jerarquía permite distribuir la responsabilidad para garantizar que no existen nombres repetidos dentro del mismo nivel o dominio, ya que el administrador de cada nivel es responsable del registro de nombres dentro de su nivel y garantiza que éstos sean únicos. Es un servicio indispensable para nuestro uso en la vida diaria de Internet.

Así permite que una dirección IP, como la 198.137.240.100, que pertenecía a la Casa Blanca sea más fácil de recordar, a través de los llamados nombres de dominio, como “whitehouse.gov”. No obstante, se pueden utilizar indistintamente los nombres o las direcciones IP en todas las aplicaciones de Internet.

El dominio está formado por dos palabras separadas por un punto. La primera corresponde a un nombre; por ejemplo el de una empresa. La segunda (terminación o dominio principal) representa la actividad (dominio genérico) o la procedencia territorial (dominio territorial). Las terminaciones de los dominios genéricos incluían clásicamente las siguientes:

.com, para organizaciones comerciales.
.edu, para universidades y centros educativos.
.gov, para instituciones de gobierno.
.mil, para instituciones militares.
.org, para otro tipo de organizaciones.
.net, para proveedores e instituciones de soporte para Internet.
.info, para páginas informativas.
.int, para organizaciones con tratados internacionales.
Los dominios que indican la procedencia territorial por países son por ejemplo:
.pe para Perú,
.uk para el Reino Unido,
.es para España,
.fr para Francia,
.it para Italia,
.mx para México,
.de para Alemania, etc.
El desarrollo mundial de Internet y la saturación de los dominios genéricos, sobre todo el “.com”, han provocado una reacción internacional, que dio lugar a la aprobación, en noviembre del año 2000, de nuevos dominios genéricos:
.biz, para actividades comerciales.
.info, puntos de información.
.name, para uso particular.
.pro, para profesionales.
.coop, para cooperativas.
.aero, para la industria aeronáutica, y
.museum, para museos.
.tv, para empresas de vídeo y TV.
.ws, para tipos de sitios web
Etc.

Poco después de la adopción generalizada del TCP/IP, ARPANET fue desmilitarizada por completo en 1983. Para entonces ya estaba claro que las comunidades académicas eran las principales usuarias de Internet. Las comunidades militares crearon una red propia, MILNET, para investigación y desarrollo en el área de la defensa.





Así, y ya sin fines militares, ARPANET abre las puertas a universidades, empresas y todo tipo de instituciones. Desde ese momento ARPANET, y todas sus redes asociadas empiezan a ser conocidas realmente como INTERNET.




En 1984 la Fundación Nacional para la Ciencia, NSF (National Science Foundation) dio acceso a sus seis centros de supercomputación a otras universidades a través de la ARPANET.

La NSF inicia una nueva "red de redes" a través de nuevas y más rápidas conexiones. Esta red se le conoció como NSFNET 




Y adoptó también como protocolo de comunicación a TCP/IP. A partir de ahí se conectan más y más redes.


Desde entonces, el desarrollo y extensión de Internet es imparable. Cada vez se conectan más ordenadores a la red, y se van creando los servicios para acceder y transportar la información (desarrollo del protocolo FTP (File Transfer Protocol) para la transmisión de ficheros



TELNET: protocolo que permite la conexión remota a otro ordenador y que permite manejarlo como si se estuviese físicamente ante él







GOPHER que permitía acceder a servidores de información, etc.).

 






En 1987 es cuando empieza la verdadera explosión de Internet y ese año se incorporan diversas redes de Europa. A la NSFNET empezaron a conectarse no solamente centros de supercomputación, sino también instituciones educativas con redes más pequeñas. El crecimiento exponencial que experimentó la NSFNET así como el incremento continuo de su capacidad de transmisión de datos, determinó que la mayoría de los miembros de ARPANET terminaran conectándose a esta nueva red y en 1989, ARPANET se declara disuelta.

En el género de la ciencia ficción apareció una novela titulada "Neuromancer", que fue muy premiada y traducida. 



William Gibson



Su autor William Gibson utilizó el término ciberespaciopara definir una especie de espacio/sitio/lugar tras la pantalla del ordenador, un lugar que no podemos ver pero que sabemos que está allí. El ciberespacio sería, pues, el espacio virtual o no físico que existe al otro lado del ordenador cuando nos conectamos a Internet y que experimentamos como real, aunque se trate de un espacio figurado. Con el tiempo este concepto iba a consolidarse, y la palabra “ciberespacioterminó por ser sinónimo de Internet.





Tim Berners-Lee


En Marzo de 1989, un físico británico llamado Tim Berners-Lee que trabajaba en el “Consejo Europeo para la Investigación Nuclear(Conseil Européen pour la Recherche Nucleaire, CERN) de Suiza, propuso un proyecto de unificación del acceso a todos los datos que poseía este organismo. Desarrolló un sistema tipo hipertexto 



Y un protocolo de comunicación (HyperText Transfer Protocol, HTTP  





Permitía a los científicos que trabajaban en proyectos del CERN, consultar toda la información disponible que se encontraba diseminada en los diferentes ordenadores de las instituciones que colaboraban con el CERN. En octubre de 1990 decidieron ponerle un nombre a este sistema, y lo llamaron World Wide Web (www).




La nueva fórmula permitía vincular la información a través de las redes de forma lógica. El éxito del proyecto fue tan amplio y tan contundente que se empezó a definir un lenguaje de creación de documentos estructurados llamado Lenguaje de Marca de Hipertexto(Hyper Text Markup Language, HTML). 





La World Wide Web es un sistema que integra todos los recursos de información accesibles por Internet en páginas de información” (paginas “web”), y se basa en el lenguaje llamado Lenguaje de Marca de Hipertexto(Hyper-Text Markup Language, HTML) y en el protocolo HTTP (HyperText Transfer Protocol), que permiten hacer conexiones entre documentos publicados en Internet, gracias a los llamados enlaces hipertexto”, haciendo la búsqueda de información bastante amigable. Un documento hipertexto no se compone únicamente de texto sino que también contiene relaciones estructurales (enlaces a otros documentos). Si ampliamos aún más el concepto y hacemos que los enlaces no sean estrictamente entre texto sino que pueda intervenir información en otros formatos (imágenes, gráficos, sonidos, vídeo…), el resultado es un “documento hipermedia o multimedia”.





Así una página www (“página web”) puede incluir varios tipos de contenido (información): texto, gráficos, sonido e hipertexto. Un “hipertexto” es texto resaltado que el usuario puede activar para acceder a otra página web. La diferencia entre un documento hipertexto y un documento normal consiste en que el hipertexto contiene, además de la información, una serie de enlaces o conexiones (links) con otros documentos relacionados, de manera que el lector puede pasar de un tema a otro y volver al documento original en el momento en que le interese. Los documentos hipertexto reflejan nuestra forma de trabajar con documentos o libros. Hojeamos el índice, encontramos elementos que nos interesan, vamos a las páginas donde se desarrollan, si no era lo que esperábamos encontrar, volvemos al índice y repetimos el proceso. Un documento hipertexto incluye enlaces a otros documentos donde se desarrollan con mas detalle, conceptos, ideas, noticias, etc. que se encuentran en el primer documento. Se le llama World Wide Web (en sentido figurado “Telaraña Mundial”) 





Por las conexiones o enlaces que se hacen entre los documentos que existen en ella, así se va formando una telaraña de conexiones (links) entre los documentos publicados en Internet. La WWW permite acceder remotamente a documentos electrónicos organizados en forma de hipertexto que incorporan imágenes y sonido. Para poder utilizar el servicio Web se necesitan dos componentes: el servidor y el cliente. El servidor o host es la empresa que pone a su disposición las máquinas donde se alojan las páginas web y, por otro lado, está el cliente u ordenador del usuario. Si el usuario quiere acceder a dichas páginas tiene que utilizar un programa que lea las páginas web e interprete su significado. Estos programas son los navegadores (browser) y son los que permiten al ordenador del usuario interpretar el lenguaje HTML.


En 1993 se produjo un hecho determinante: Marc Andreesen en el “National Center for Supercomputing Applications,


Marc Andreesen





Elaboró la primera versión del navegador “Mosaic





La cual permitió acceder con mayor naturalidad a las páginas web de la WWW. La interfaz gráfica iba más allá de lo previsto y la facilidad con la que podía manejarse el programa hacía más accesible y abría Internet a los profanos en esta materia.

Poco después, Andreesen encabezó la creación del navegador Netscape Navigator 





Posteriormente surgió Internet Explorer de Microsoft






A partir de entonces Internet comenzó a crecer más rápido que ningún otro medio de comunicación en la historia de la humanidad. Estos navegadores permiten usar los diferentes recursos de la red sin tener que aprender comandos crípticos de los sistemas operativos. En el navegador una palabra, una frase, e incluso una imagen, pueden formar parte de un enlace hipertexto. De esta forma es posible organizar esquemas de acceso a la información basados en iconos. Los navegadores se han convertido en una herramienta universal de acceso a Internet.


En la actualidad los navegadores más comunes son el Explorer de Microsoft y el navegador de código abierto Mozilla Firefox desarrollado por la Corporación Mozilla tras ser liberado el código de Netscape.








El 20 de febrero de 2008 Netscape lanzó su última versión y se cerró su historia en Internet.



Con la WWW se pretende crear también una interfaz uniforme que homogeneice la búsqueda y el acceso a todos los servicios de información disponibles, generándole así al usuario la visión de un sistema de información universal. Este sistema de información distribuido permite que, desde un interfaz de usuario totalmente intuitivo, la información sea buscada y mostrada de forma fácil sin necesidad de ser, o depender de, un experto informático. Es un sistema innovador que permite seguir hechos, ideas y texto de un “enlace de hipertexto” a otro, y a su vez permite escuchar sonidos y ver imágenes, lo que le hacen incomparable.


Así, sólo leyendo, buscando y guardando información, el usuario salta(de una forma transparente para él) entre diferentes documentos que pueden estar almacenados en máquinas distintas (“distribución de la información”). Una vez encontrada la información, si le interesa tiene varias opciones: se podría guardar el enlace, guardar el documento o bien imprimirlo. 

Una de las claves del éxito de WWW, aparte de lo atractivo de su presentación es, sin duda, su organización y coherencia.

La WWW facilita enormemente la localización de la información, a través de la trama de las vías de acceso, independientemente de cual sea su fuente y del lugar donde se encuentre. Esta universalización en el acceso, requiere una identificación unívoca de los recursos de la red. El “Localizador Uniforme de Recursos” (Universal Resource Locator, URL







Identifica la información, el sistema donde reside y la aplicación necesaria para acceder a ella. Tiene dos partes separadas por dos puntos: antes de los dos puntos especifica el método de acceso (http, ftp, mail, news,....). Después de los dos puntos suele contener direcciones y puntos de acceso a un ordenador.


En la práctica, la www es el servicio más utilizado de Internet. Se trata no sólo de un depósito de información, sino también de una forma de acceso, búsqueda y recuperación. La mayoría de los servicios de Internet se prestan hoy a través de la interfaz de la World Wide Web debido no sólo a sus posibilidades multimedia sino también a las características interactivas y dinámicas que hoy ofrece la propia Web. La existencia de elementos dinámicos para acceder a diferentes aplicaciones de una forma visualmente atractiva y de uso sencillo, han hecho de la World Wide Web una herramienta potentísima para llevar a cabo todo tipo de servicios en Internet.

Internet es una red de redes de millones de ordenadores en todo el mundo. Pero al contrario de lo que se piensa comúnmente, Internet no es sinónimo de World Wide Web.

La Web es sólo una parte de Internet, es sólo uno de los muchos servicios que ofrece Internet.



FUENTES:

http://www.hipertexto.info/documentos/h_hipertex.htm http://www.revistareduca.es/index.php/reduca/article/viewFile/20/21


































No hay comentarios:

Publicar un comentario