Upload
others
View
0
Download
0
Embed Size (px)
Citation preview
República Bolivariana de Venezuela
Ministerio del Poder Popular para la Educación
Universidad Nororiental ‘’Gran Mariscal de Ayacucho’’
Escuela de Administración de Empresas
Trabajo 3
Historia del Internet.
Docente: Alumna:
Hamlet Mata Mata Kathlen Pereira CI: 27.380.558
El Tigre, 11 de Diciembre del 2017.
2
INTRODUCCION
Existe una evolución tecnológica que comienza con la primitiva investigación en conmutación
de paquetes, ARPANET y tecnologías relacionadas en virtud de la cual la investigación actual
continúa tratando de expandir los horizontes de la infraestructura en dimensiones tales como escala,
rendimiento y funcionalidades de alto nivel. Hay aspectos de operación y gestión de una
infraestructura operacional global y compleja. Existen aspectos sociales, que tuvieron como
consecuencia el nacimiento de una amplia comunidad de internautas trabajando juntos para crear y
hacer evolucionar la tecnología. Y finalmente, el aspecto de comercialización que desemboca en una
transición enormemente efectiva desde los resultados de la investigación hacia una infraestructura
informática ampliamente desarrollada y disponible. Internet hoy en día es una infraestructura
informática ampliamente extendida. Su primer prototipo es a menudo denominado National Global or
Galactic Information Infrastructure (Infraestructura de Información Nacional Global o Galáctica).
La historia de Internet es compleja y comprende muchos aspectos: tecnológico, organizacional
y comunitario. Y su influencia alcanza no solamente al campo técnico de las comunicaciones
computacionales sino también a toda la sociedad en la medida en que nos movemos hacia el
incremento del uso de las herramientas online para llevar a cabo el comercio electrónico, la
adquisición de información y la acción en comunidad.
Se ha repetido numerosas veces, que la Internet tiene su origen en un proyecto militar estadounidense
para crear una red que uniera los centros de investigación dedicados a labores de defensa en la década
de los 60 en los Estados Unidos y que pudiera seguir funcionando a pesar de que alguno de sus
componentes fuera destruido por un hipotético ataque nuclear, los creadores de ARPANET, la red
precursora de la Internet que hoy en día conocemos, no tenían nada parecido en mente.
3
Internet surgió de la necesidad cada vez más acuciante de poner a disposición de los
contratistas de la Oficina para las Tecnologías de Procesado de la Información (IPTO) más y más
recursos informáticos. El objetivo de la IPTO era buscar mejores maneras de usar los ordenadores,
yendo más allá de su uso inicial como grandes máquinas calculadoras, y cada uno de los principales
investigadores que trabajaban para la IPTO parecía querer tener su propio ordenador, lo que no sólo
provocaba una duplicación de esfuerzos dentro de la comunidad de investigadores, sino que además
era muy caro. Los ordenadores en aquella época eran cualquier cosa menos pequeña y barata.
Internet ha revolucionado la informática y las comunicaciones como ninguna otra cosa. La
invención del telégrafo, el teléfono, la radio y el ordenador sentó las bases para esta integración de
funcionalidades sin precedentes. Internet es a la vez una herramienta de emisión mundial, un
mecanismo para diseminar información y un medio para la colaboración y la interacción entre
personas y sus ordenadores, sin tener en cuenta su ubicación geográfica. Internet representa uno de
los ejemplos más exitosos de los beneficios de una inversión y un compromiso continuos en el campo
de la investigación y el desarrollo de la infraestructura de la información. Desde las primeras
investigaciones en conmutación de paquetes, el Gobierno, la Industria y la Academia se han asociado
como artífices de la evolución e implementación de esta apasionante nueva tecnología. Hoy en día,
términos como "[email protected]" y "http://www.acm.org " se escuchan a cualquier persona de
la calle.
Actualmente existe mucho material sobre Internet, material que cubre su historia, tecnología y
uso. Un viaje a prácticamente cualquier librería le permitirá encontrar estanterías llenas de material
escrito sobre Internet.
Esta historia se desarrolla a partir de cuatro aspectos diferentes; está la evolución tecnológica
que empezó con las primeras investigaciones sobre conmutación de paquetes y ARPANET (y
4
tecnologías relacionadas), donde las investigaciones actuales continúan ampliando el horizonte de la
infraestructura junto con varias dimensiones, como la escala, el rendimiento y las funcionalidades de
nivel superior. Está el aspecto de operaciones y gestión de una infraestructura operativa global y
compleja. Está el aspecto social, que dio como resultado una amplia comunidad de internautas
trabajando juntos para crear y desarrollar la tecnología. Y está el aspecto de la comercialización, que
desembocó en una transición extremadamente eficaz de los resultados de las investigaciones a una
estructura de información ampliamente implementada y disponible.
¿QUÉ ES EL INTERNET?
Internet, como la conocemos hoy en día, es una infraestructura de información muy difundida,
el prototipo inicial de lo que se llama a menudo la Infraestructura de Información Nacional (o Global,
o Galáctica). Su historia es compleja e implica muchos aspectos: tecnológicos, organizativos y
comunitarios. Y su influencia no solo alcanza los campos técnicos de las comunicaciones
informáticas, sino también a toda la sociedad, ya que nos movemos hacia un uso mayor de las
herramientas en línea para el comercio electrónico, la obtención de información y las operaciones
comunitarias.
El nombre de Internet procede de las palabras Interconnected Networks, lo cual significa
‘’redes interconectadas’’. Se puede decir que el internet es la unión de todas las redes y computadoras
que se encuentran distribuidas en el mundo, por lo que se define como una red global en la que se
encuentran unidas todas las redes que utilizan protocolos TPC/IP y que son compatibles entre sí.
El internet es también conocido como la ‘’red de redes’’, en la cual participan cualquier tipo
de computadoras, desde grandes sistemas hasta modelos personales. En la red se dan citas,
instituciones oficiales, gubernamentales, educativas, científicas y empresariales cuya información se
encuentra a disposición de cualquier persona que tenga acceso al internet.
5
El internet resultó de un experimento realizado en 1969 por el Departamento de Defensa de
Estados Unidos, el cual fue materializado en el desarrollo de ARPAnet, la cual es una red que
enlazaba universidades y centros de alta tecnología con contratistas de dicho departamento. Tenía el
objetivo el intercambio de datos entre científicos y militares. A esta red se unieron nodos de Europa y
del resto del mundo, formando lo que se conoce como la gran telaraña mundial o World Wide Web,
dejando de existir en el año 1990.
ORIGENES DEL INTERNET
La primera descripción registrada de las interacciones sociales que se podían habilitar
a través de la red fue una serie de memorandos escritos por J.C.R. Licklider, del MIT, en
agosto de 1962, en los que describe su concepto de “Red galáctica”. Imaginó un conjunto
de ordenadores interconectados globalmente, a través de los que todo el mundo podría
acceder rápidamente a datos y programas desde cualquier sitio. En espíritu, el concepto era
muy similar a la Internet de hoy en día. Licklider era el director del programa de
investigación informática de DARPA,4 que comenzó en octubre de 1962. Mientras estaba
en DARPA convenció a sus sucesores en dicha agencia (Ivan Sutherland, Bob Taylor y
Lawrence G. Roberts, investigador del MIT), de la importancia de su concepto de red.
Leonard Kleinrock, del MIT, publicó el primer documento sobre la teoría de
conmutación de paquetes en julio de 1961 y el primer libro sobre el tema en 1964
Kleinrock convenció a Roberts de la factibilidad teorética de comunicarse usando paquetes
en vez de circuitos, lo que fue un gran paso en el viaje hacia las redes informáticas. El otro
paso clave fue conseguir que los ordenadores hablasen entre sí. Para explorar esta idea, en
1965, trabajando con Thomas Merrill, Roberts conectó el ordenador TX-2, en
6
Massachusetts, con el Q-32, en California, mediante una línea telefónica conmutada de baja
velocidad, creando la primera (aunque pequeña) red de área amplia del mundo. El resultado
de este experimento fue la constatación de que los ordenadores con tiempo compartido
podían trabajar bien juntos, ejecutando programas y recuperando datos según fuese
necesario en el equipo remoto, pero que el sistema telefónico de conmutación de circuitos
era totalmente inadecuado para esa tarea. Se confirmó la convicción de Kleinrock de la
necesidad de la conmutación de paquetes.
A finales de 1966, Roberts entró en DARPA para desarrollar el concepto de redes
informáticas y rápidamente creó su plan para "ARPANET", que publicó en 1967. En la
conferencia en la que presentó el artículo había otra ponencia sobre el concepto de redes de
paquetes, que venía del Reino Unido, de la mano de Donald Davies y Roger Scantlebury,
del NPL. Scantlebury le comentó a Roberts el trabajo del NPL y el de Paul Baran y otras
personas de RAND. El grupo RAND había escrito un artículo sobre redes de conmutación
de paquetes para cifrar comunicaciones de voz en el ejército en 1964. La labor del MIT
(1961- 1967), de RAND (1962-1965) y del NPL (1964-1967) se había llevado a cabo en
paralelo sin que los investigadores conociesen el trabajo de los demás. Se adoptó el término
“paquete” del trabajo del NPL, y la velocidad de línea propuesta en el diseño de ARPANET
pasó de 2,4 kbps a 50 kbps. 5
En agosto de 1968, después de que Roberts y la comunidad financiada por DARPA
redefinieran la estructura general y las especificaciones de ARPANET, DARPA publicó
una solicitud de presupuesto para desarrollar uno de los componentes clave, los
conmutadores de paquetes llamados procesadores de mensajes de interfaz (IMP). La
7
solicitud de presupuesto la ganó en diciembre de 1968 un grupo liderado por Frank Heart,
de Bolt, Beranek y Newman (BBN). Mientras el equipo de BNN trabajaba en los IMP con
Bob Kahn desempeñando un importante papel en el diseño arquitectónico general de
ARPANET, Roberts, junto con Howard Frank y su equipo de Network Analysis
Corporation, diseñaron la topología y la economía de la red. El sistema de medición de la
red lo preparó el equipo de Kleinrock en UCLA. 6
Debido al temprano desarrollo de Kleinrock de la teoría de conmutación de paquetes y a su
trabajo en el análisis, el diseño y la medición, su Network Measurement Center de UCLA
fue seleccionado como el primer nodo de ARPANET. Se recogió el fruto de estos esfuerzos
en septiembre de 1969, cuando BBN instaló el primer IMP en UCLA y se conectó el primer
host. El proyecto de Doug Engelbart, “Augmentation of Human Intellect” (aumento del
intelecto humano, que incluía NLS, un antecedente del sistema de hipertexto), en el
Standford Research Institute (SRI), fue el segundo nodo. El SRI estaba detrás del Network
Information Center, liderado por Elizabeth (Jake) Feinler, que incluía funciones como
mantenimiento de tablas de nombres de host para asignar direcciones, así como de un
directorio de RFC.
Un mes más tarde, cuando el SRI se conectó a ARPANET, se envió el primer
mensaje de host a host desde el laboratorio de Kleinrock hasta el SRI. Se añadieron dos
nodos más, en la Universidad de California en Santa Bárbara y en la Universidad de Utah.
Estos dos últimos nodos incorporaron proyectos de visualización de aplicaciones, con Glen
Culler y Burton Fried, de la Universidad de California en Santa Bárbara, investigando
métodos para mostrar funciones matemáticas usando pantallas de almacenamiento para
resolver el problema de la actualización en la red, y Robert Taylor e Ivan Sutherland, de
8
Utah, investigando métodos de representación 3D en la red. De esta manera, a finales de
1969, había cuatro hosts conectados en la ARPANET inicial, e Internet iniciaba su
trayectoria. Incluso en esta primera etapa, conviene destacar que la investigación sobre
redes incorporaba trabajo sobre la red subyacente y trabajo sobre cómo usar la red. Esta
tradición continúa hoy en día.
En los siguientes años, se añadieron rápidamente ordenadores a ARPANET, y se
siguió trabajando para conseguir un protocolo de host a host funcionalmente completo y
otro software de red. En diciembre de 1970, el Network Working Group (NWG), bajo el
liderazgo de S. Crocker, terminó el protocolo de host a host inicial de ARPANET, llamado
Network Control Protocol (NCP). Cuando los sitios de ARPANET terminaron de
implementar NCP, en el periodo de 1971 a 1972, los usuarios de la red pudieron, por fin,
comenzar a desarrollar aplicaciones.
En octubre de 1972, Kahn organizó una gran demostración de ARPANET, que tuvo
mucho éxito, en la International Computer Communication Conference (ICCC). Fue la
primera demostración pública de esta nueva tecnología de redes. En 1972 también se
introdujo la aplicación “hot” inicial, el correo electrónico. En marzo, Ray Tomlinson, de
BBN, escribió el software básico de envío y lectura de mensajes de correo electrónico,
motivado por la necesidad de los desarrolladores de ARPANET de un mecanismo sencillo
de coordinación. En julio, Roberts amplió su utilidad escribiendo la primera utilidad de
correo electrónico para hacer listas de mensajes, leerlos selectivamente, archivarlos,
reenviarlos y responder a los mismos. A partir de ese momento, el correo electrónico se
convirtió en la aplicación de red más importante durante más de una década. Esto presagió
9
el tipo de actividad que vemos hoy en día en la World Wide Web, es decir, un crecimiento
enorme de todo tipo de tráfico “de persona a persona”
PRIMEROS CONCEPTOS DEL INTERNET
La ARPANET original se convirtió en Internet. Internet se basó en la idea de que
habría múltiples redes independientes con un diseño bastante arbitrario, empezando por
ARPANET como red pionera de conmutación de paquetes, pero que pronto incluiría redes
de paquetes satélite, redes terrestres de radiopaquetes y otras redes. Internet tal y como la
conocemos hoy en día plasma una idea técnica subyacente fundamental, que es la de red de
arquitectura abierta. En este enfoque, la selección de una tecnología de redes no la dictaba
una arquitectura particular de redes, sino que la podía elegir libremente un proveedor y
hacerla trabajar con las demás redes a través de una “metaarquitectura de interredes”. Hasta
ese momento solo había un método general para federar redes. Era el método tradicional de
conmutación de circuitos, en el que las redes se interconectaban a nivel de circuito, pasando
bits individuales de forma síncrona a través de una parte de un circuito completo entre un
par de ubicaciones finales. Recordemos que Kleinrock había demostrado en 1961 que la
conmutación de paquetes era un método de conmutación más eficiente. Además de la
conmutación de paquetes, las interconexiones entre redes con fines especiales eran otra
posibilidad. Aunque había otras maneras limitadas de interconectar redes diferentes, era
necesario usar una como componente de la otra, y la primera no actuaba como par de la
segunda ofreciendo servicios de extremo a extremo.
En una red de arquitectura abierta, las redes individuales se pueden diseñar y desarrollar
10
por separado, cada una con su propia interfaz única, que puede ofrecerse a usuarios y otros
proveedores, incluyendo otros proveedores de Internet. Se puede diseñar cada red según el
entorno específico y los requisitos de los usuarios de esa red. En general, no existen
restricciones sobre el tipo de redes que se pueden incluir o sobre su alcance geográfico,
aunque ciertas consideraciones pragmáticas dictaminan lo que tiene sentido ofrecer.
La idea de las redes de arquitectura abierta la introdujo por primera vez Kahn, poco después
de llegar a DARPA, en 1972. Su labor era
originalmente parte del programa de radiopaquetes, pero posteriormente se convirtió en un
programa independiente por derecho propio. En aquel momento, el programa se llamó
“Internetting”. La clave para que el sistema de radiopaquetes funcionase era un protocolo
de extremo a extremo fiable que pudiera mantener una comunicación efectiva frente a
bloqueos y otras interferencias de radio, o soportar cortes intermitentes como los causados
cuando se entra en un túnel o el terreno bloquea la señal. Kahn, al principio, se planteó
desarrollar un protocolo solo para la red de radiopaquetes, ya que así evitaría tratar con una
multitud de diferentes sistemas operativos, y seguir usando NCP.
Sin embargo, NCP no tenía la capacidad de dirigirse a redes (ni a máquinas) que estuvieran
más allá de un IMP de destino de ARPANET, de modo que también hacía falta algún
cambio en NCP. (Se asumía que ARPANET no se podía cambiar en este sentido). NCP
dependía de ARPANET para ofrecer fiabilidad de extremo a extremo. Si se perdía algún
paquete, el protocolo (y probablemente las aplicaciones a las que este daba soporte) se
pararía de repente. En este modelo, NCP no tenía control de errores de host de extremo a
extremo, ya que ARPANET sería la única red, y tan fiable que no haría falta un control de
11
errores por parte de los hosts. Así pues, Kahn decidió desarrollar una nueva versión del
protocolo que podría cubrir las necesidades de un entorno de redes de arquitectura abierta.
Este protocolo se llamaría más adelante Protocolo de Control de Transmisión/Protocolo de
Internet (TCP/IP). Mientras que NCP tendía a actuar como un controlador de dispositivo, el
nuevo protocolo se parecería más a un protocolo de comunicaciones.
Cuatro reglas básicas fueron fundamentales en la primera concepción de Kahn:
Cada red diferente debería mantenerse por sí misma, y no debía ser necesario
cambio interno alguno para que esas redes se conectasen a Internet.
La comunicación se haría en base al mejor esfuerzo. Si un paquete no llegaba a su
destino final, se retransmitía poco después desde el origen.
Se usarían cajas negras para conectar las redes; más adelante, estas cajas negras se
llamarían puertas de enlace y enrutadores. Las puertas de enlace no guardarían
información acerca de los flujos individuales de paquetes que pasaban por las
mismas, manteniendo su sencillez y evitando la complicación de la adaptación y la
recuperación a partir de varios modos de error.
No habría control global a nivel operativo.
Otros problemas clave que había que resolver eran:
Algoritmos para evitar que los paquetes perdidos impidiesen permanentemente las
12
comunicaciones y permitir que dichos paquetes se retransmitiesen correctamente
desde el origen.
Ofrecer “segmentación” de host a host para que se pudiesen enviar múltiples
paquetes desde el origen hasta el destino, según el criterio de los hosts, si las redes
intermedias lo permitían.
Funciones de puerta de enlace para poder reenviar paquetes de manera adecuada.
Esto incluía interpretar encabezados IP para enrutar, manejar interfaces, dividir
paquetes en partes más pequeñas si era necesario, etc.
La necesidad de sumas de verificación de extremo a extremo, reensamblaje de
paquetes a partir de fragmentos y detección de duplicados.
La necesidad de un abordaje global
Técnicas para el control del flujo de host a host.
Interfaces con los diferentes sistemas operativos
Había además otras preocupaciones, como la eficacia en la implementación y el
rendimiento de las redes, pero estas, en principio, eran consideraciones secundarias.
Kahn comenzó a trabajar en un conjunto orientado a las comunicaciones de principios para
sistemas operativos en BBN y documentó algunas de sus ideas iniciales en un
memorándum interno de BBN titulado "Principios de comunicación para sistemas
operativos". En este momento, se dio cuenta de que sería necesario conocer los detalles de
implementación de cada sistema operativo para tener la oportunidad de integrar cualquier
protocolo nuevo de una forma eficaz. Así pues, en la primavera de 1973, tras comenzar el
trabajo de lo que sería Internet, pidió a Vint Cerf (que entonces estaba en Stanford) que
colaborase con él en el diseño detallado del protocolo. Cerf había estado involucrado de
13
lleno en el diseño y desarrollo original de NCP, y ya tenía conocimiento sobre las interfaces
de los sistemas operativos existentes. Así que, armados con el enfoque arquitectónico de
Kahn para la parte de comunicaciones y con la experiencia de Cerf en NCP, se unieron para
crear lo que se convertiría en TCP/IP.
Su colaboración fue muy productiva, y la primera versión escrita7 del enfoque resultante se
distribuyó en una reunión especial del International Network Working Group (INWG), que
se había creado en una conferencia de la Universidad de Sussex en septiembre de 1973. Se
había invitado a Cerf a presidir ese grupo, y aprovechó la ocasión para celebrar una reunión
con los miembros del INWG que eran numerosos en la Conferencia de Sussex.
Emergieron algunos enfoques básicos de esta colaboración entre Kahn y Cerf:
La comunicación entre dos procesos consistiría lógicamente en una secuencia
larguísima de bytes (los llamaron octetos). Se usaría la posición de un octeto en la
secuencia para identificarlo.
El control de flujo se haría usando ventanas deslizantes y confirmaciones (acks). El
destino podría decidir cuándo confirmar, y cada ack devuelta se acumularía para
todos los paquetes recibidos hasta ese momento.
No se concretó la manera exacta en la que el origen y el destino acordarían los
parámetros de división de particiones que se usaría. Al principio se usaban los
valores predeterminados.
Aunque en ese momento se estaba desarrollando Ethernet en Xerox PARC, la
proliferación de LAN no se imaginaba entonces, y mucho menos la de los
14
ordenadores personales y las estaciones de trabajo. El modelo original era de redes
nacionales como ARPANET, y se esperaba que existiese un pequeño número de las
mismas. Así pues, se usó una dirección IP de 32 bits, en la que los primeros 8 bits
indicaban la red y los 24 bits restantes designaban el host de esa red. Fue evidente
que habría que reconsiderar esta suposición, la de que sería suficiente con 256 redes
en el futuro inmediato, cuando empezaron a aparecer las LAN a finales de los años
70.
El artículo original de Cerf y Kahn sobre Internet describía un protocolo, llamado TCP, que
ofrecía todos los servicios de transporte y reenvío de Internet. La intención de Kahn era que
el protocolo TCP soportase una serie de servicios de transporte, desde la entrega
secuenciada totalmente fiable de datos (modelo de circuito virtual) hasta un servicio de
datagrama, en el que la aplicación hacía un uso directo del servicio de red subyacente, lo
que podía implicar la pérdida, la corrupción y la reordenación de paquetes. Sin embargo, el
primer intento de implementar TCP produjo una versión que solo permitía circuitos
virtuales. Este modelo funcionó bien para aplicaciones de inicio de sesión remoto y
transferencia de archivos, pero algunos de los primeros trabajos en aplicaciones de red
avanzadas, en particular la voz por paquetes de los años 70, dejaron claro que en algunos
casos la pérdida de paquetes no podía ser corregida por TCP, y la aplicación debería
encargarse de ella. Esto llevó a reorganizar el TCP original en dos protocolos, el IP
simple, que solo dirigía y reenviaba paquetes individuales, y el TCP por separado, que
se ocupaba de funciones del servicio como el control de flujos y la recuperación de
paquetes perdidos. Para las aplicaciones que no querían los servicios de TCP, se añadió una
alternativa llamada Protocolo de datagramas de usuario (UDP) para ofrecer acceso directo a
15
los servicios básicos de IP.
Una de las principales motivaciones iniciales de ARPANET e Internet era compartir
recursos, por ejemplo, permitir a los usuarios de las redes de radiopaquetes acceder a
sistemas de tiempo compartido conectados a ARPANET. Conectar ambos era mucho más
económico que duplicar estos ordenadores tan caros. Sin embargo, aunque la transferencia
de archivos y el inicio de sesión remoto (Telnet) eran aplicaciones muy importantes, el
correo electrónico ha sido, probablemente, la innovación de aquella época con mayor
impacto. El correo electrónico ofreció un nuevo modelo de comunicación entre las
personas, y cambió la naturaleza de la colaboración, primero en la creación de la propia
Internet (como se comenta a continuación) y después para gran parte de la sociedad.
Se propusieron otras aplicaciones en los primeros tiempos de Internet, incluyendo la
comunicación de voz basada en paquetes (el precursor de la telefonía por Internet), varios
modelos para compartir archivos y discos y los primeros programas “gusano” que
mostraron el concepto de agentes (y, por supuesto, virus). Un concepto clave de Internet es
que no se había diseñado solo para una aplicación, sino como una infraestructura general en
la que se podían concebir nuevas aplicaciones, como se ilustró más adelante con la
aparición de la World Wide Web. Es la naturaleza generalista del servicio que ofrecen TCP
e IP la que lo hace posible.
Demostrando las ideas
DARPA firmó tres contratos con Stanford (Cerf), BBN (Ray Tomlinson) y UCL (Peter
16
Kirstein) para implementar TCP/IP (en el artículo de Cerf y Kahn se llamaba simplemente
TCP, pero contenía ambos componentes). El equipo de Stanford, liderado por Cerf, produjo
la especificación detallada y, en un año aproximadamente, se realizaron tres
implementaciones independientes de TCP que podían interoperar.
Este fue el principio de una experimentación y desarrollo a largo plazo para perfeccionar y
madurar los conceptos y la tecnología de Internet. Empezando con las tres primeras redes
(ARPANET, red de radiopaquetes y red satélite de paquetes) y sus primeras comunidades
de investigación, el entorno experimental incorpora ya prácticamente cualquier forma de
red y una comunidad de investigación y desarrollo con una base muy amplia. [REK78] Con
cada expansión se han presentado nuevos desafíos.
Las primeras implementaciones de TCP se hicieron con grandes sistemas de tiempo
compartido como Tenex y TOPS 20. Cuando aparecieron los ordenadores de sobremesa por
primera vez, algunos pensaron que TCP era demasiado grande y complejo para ejecutarse
en un ordenador personal. David Clark y su grupo de investigación del MIT se propusieron
demostrar que se podía hacer una implementación compacta y sencilla de TCP. Produjeron
una implementación, primero para el Xerox Alto (la primera estación de trabajo personal
desarrollada por Xerox PARC) y después para el IBM PC. La implementación era
completamente interoperable con otros TCP, pero se adaptó al conjunto de aplicaciones y
los objetivos de rendimiento de los ordenadores personales, y demostró que las estaciones
de trabajo, además de grandes sistemas de tiempo compartido, podían ser parte de Internet.
En 1976, Kleinrock publicó el primer libro sobre ARPANET. Destacaba la complejidad de
los protocolos y las dificultades que a menudo introducían. Este libro fue influyente a la
17
hora de difundir el conocimiento sobre las redes de conmutación de paquetes entre una
comunidad muy amplia.
El amplio desarrollo de LAN, PC y estaciones de trabajo en los años 80 permitió florecer a
la incipiente Internet. La tecnología de Ethernet, desarrollada por Bob Metacalfe en Xerox
PARC en 1973, es ahora probablemente la tecnología de redes dominante en Internet, y los
PC y las estaciones de trabajo son los ordenadores dominantes. Este cambio entre tener
unas cuantas redes con un número modesto de hosts de tiempo compartido (el modelo
original de ARPANET) y tener muchas redes ha originado una serie de conceptos nuevos y
cambios en la tecnología subyacente. Primero, tuvo como resultado la definición de tres
clases de redes (A, B y C) para acomodar todas las redes. La clase A representaba las
grandes redes a escala nacional (un pequeño número de redes con gran número de hosts); la
clase B representaba las redes a escala regional, y la clase C representaba las redes de área
local (un gran número de redes con relativamente pocos hosts).
Hubo un gran cambio como resultado del aumento de la escala de Internet y sus problemas
de gestión asociados. Para que la gente encontrase fácil el uso de la red, se asignaron
nombres a los hosts, de modo que no era necesario recordar las direcciones numéricas.
Originalmente, había un número bastante limitado de hosts, de modo que era factible
mantener una sola tabla con todos los hosts y sus
nombres y direcciones asociados. El cambio de tener un gran número de redes gestionadas
de manera independiente (por ejemplo, LAN) significaba que tener una sola tabla de hosts
ya no era factible, y Paul Mockapetris, de USC/ISI, inventó el sistema de nombres de
dominio (DNS). El DNS permitía un mecanismo escalable distribuido para resolver
18
nombres de hosts jerárquicos (por ejemplo, www.acm.org) en una dirección de Internet.
El aumento de tamaño de Internet también desafiaba las capacidades de los enrutadores.
Originalmente, existía un solo algoritmo distribuido para enrutar que se implementaba de
manera uniforme en todos los enrutadores de Internet. Cuando aumentó tanto el número de
redes en Internet, su diseño inicial no se pudo ampliar lo suficiente, de modo que se
reemplazó por un modelo de enrutamiento jerárquico, con un Protocolo de puerta de enlace
interna (IGP) que se usaba dentro de cada región de Internet, y un Protocolo de puerta de
enlace externa (EGP) que se usaba para unir las regiones. Este diseño permitió que las
diferentes regiones usasen un IGP diferente, de modo que se podían cumplir diferentes
requisitos de coste, velocidad de reconfiguración, robustez y escala. No solo el algoritmo de
enrutamiento, sino también el tamaño de las tablas de direccionamiento suponía un reto
para la capacidad de los enrutadores. Nuevos enfoques para la agregación de direcciones,
en particular el enrutamiento entre dominios sin clases (CIDR), se han introducido
recientemente para controlar el tamaño de las tablas de los enrutadores.
Conforme evolucionó Internet, uno de los principales desafíos fue cómo propagar los
cambios al software, en particular al software de host. DARPA apoyó a UC Berkeley para
investigar modificaciones del sistema operativo Unix, incluyendo la incorporación de
TCP/IP, desarrollado en BBN. A pesar de que Berkeley reescribió después el código de
BBN para que encajase de una forma más eficiente en el sistema y kernel de Unix, la
incorporación de TCP/IP en el sistema Unix BSD demostró ser un elemento fundamental
para la difusión de los protocolos entre la comunidad investigadora. Gran parte de la
comunidad investigadora informática empezó a usar Unix BSD en su entorno informático
19
diario. Echando la vista atrás, vemos que la estrategia de incorporar protocolos de Internet
en un sistema operativo compatible para la comunidad investigadora fue uno de los
elementos clave para el éxito de Internet.
Uno de los retos más interesantes fue la transición del protocolo de host de ARPANET de
NCP a TCP/IP el 1 de enero de 1983. Fue una transición “histórica”, que exigió que todos
los hosts se convirtiesen simultáneamente para no tener que comunicarse a través de
mecanismos especiales. Esta transición se planificó cuidadosamente en la comunidad
durante años antes de llevarse a cabo realmente, y fue sorprendentemente bien (pero dio
como resultado que se distribuyeran chapas con las palabras “Yo sobreviví a la transición a
TCP/IP”).
TCP/IP se había adoptado como estándar en Defensa tres años antes, en 1980. Esto permitió
a Defensa empezar a compartir en la base de tecnología de Internet de DARPA, y llevó
directamente a la división de las comunidades militar y no militar. En 1983, ARPANET la
usaba un número significativo de organizaciones operativas y de I+D de Defensa. La
transición de ARPANET de NCP a TCP/IP le permitió dividirse en MILNET, que cumplía
requisitos operativos, y ARPANET, que cubría las necesidades de investigación.
Así pues, para 1985 Internet ya estaba bien establecida como tecnología que daba cobertura
a una amplia comunidad de investigadores y desarrolladores, y empezaba a ser usada por
otras comunidades para comunicaciones informáticas diarias. El correo electrónico se usaba
ampliamente entre varias comunidades, a menudo con diferentes sistemas, pero la
interconexión entre diferentes sistemas de correo demostraba lo útil que era una amplia
20
comunicación electrónica entre la gente.
Transición a una infraestructura muy difundida
A la vez que la tecnología de Internet se estaba validando experimentalmente y usando
ampliamente entre un subconjunto de investigadores informáticos, se estaban buscando
otras redes y tecnologías de red. La utilidad de las redes de ordenadores (en especial en lo
que se refiere al correo electrónico) demostrada por DARPA y las personas al servicio del
Ministerio de Defensa en ARPANET, no pasó desapercibida para otras comunidades y
disciplinas, de modo que a mediados de los años 70 habían empezado a aparecer redes de
ordenadores donde lo permitía la financiación disponible. El Ministerio de Energía (DoE)
de EE.UU. creó MFENet para sus investigadores en energía de fusión magnética, y los
físicos de altas energías del DoE respondieron creando HEPNet. Los físicos espaciales de la
NASA fueron los siguientes, con SPAN, y Rick Adrion, David Farber y Larry Landweber
crearon CSNET para la comunidad informática (académica e industrial) con una beca
inicial de la National Science Foundation (NSF) de EE.UU. La amplia difusión por parte de
AT&T del sistema operativo UNIX creó USENET, basado en los protocolos de
comunicaciones UUCP integrados en UNIX, y en 1981 Ira Fuchs y Greydon Freeman
crearon BITNET, que
conectaba mainframes de la universidad en un paradigma de “correo electrónico como
imágenes de tarjetas”.
Con la excepción de BITNET y USENET, estas primeras redes (incluyendo ARPANET) se
crearon con un objetivo, es decir, estaban dirigidas, y muy restringidas, a comunidades
21
cerradas de eruditos; por lo tanto, había poca presión para que las redes individuales fuesen
compatibles y, de hecho, la mayoría no lo eran. Además, empezaron a emprenderse
tecnologías alternativas en el sector comercial, incluyendo XNS de Xerox, DECNet y SNA
de IBM.8 El programa británico JANET (1984) y el estadounidense NSFNET (1985)
anunciaron explícitamente que tenían la intención de dar servicio a toda la comunidad de la
educación superior, sin importar la disciplina. De hecho, una condición para que una
universidad estadounidense recibiera financiación de la NSF para contar con una conexión
a Internet era: "... la conexión debe estar disponible para TODOS los usuarios cualificados
del campus”.
En 1985, Dennis Jennings llegó desde Irlanda para pasar un año en la NSF, liderando el
programa NSFNET. Trabajó con la comunidad para ayudar a la NSF a tomar una decisión
muy importante: que TCP/IP fuese obligatorio para el programa NSFNET. Cuando Steve
Wolff asumió la responsabilidad del programa NSFNET en 1986, reconoció la necesidad
de una infraestructura de red de área amplia para dar cobertura a toda la comunidad
académica e investigadora, además de la necesidad de desarrollar una estrategia para
establecer esa infraestructura de manera que, en último término, fuese independiente de la
financiación federal directa. Se adoptaron políticas y estrategias (ver a continuación) para
conseguir ese fin.
La NSF también eligió respaldar la infraestructura organizativa de Internet que existía en
DARPA, organizada jerárquicamente a las órdenes de la (entonces) Internet Activities
Board (IAB). La declaración pública de esta elección fue realizada conjuntamente por las
Internet Engineering and Architecture Task Forces de la IAB y el Network Technical
22
Advisory Group of RFC 985 (Requirements for Internet Gateways ) de la NSF, que
aseguraron formalmente la interoperabilidad entre la Internet de DARPA y la de la NSF.
Además de seleccionar TCP/IP para el programa NSFNET, las agencias federales tomaron
e implementaron otras decisiones políticas que formaron la Internet de hoy en día.
Las agencias federales compartieron el coste de una
infraestructura común, como los circuitos transoceánicos. También
se encargaron conjuntamente de los “puntos gestionados de interconexión” para el
tráfico entre agencias; los Federal Internet Exchanges (FIX-E y FIX-W) creados con
este fin sirvieron como modelos para los puntos de acceso a la red y las
instalaciones “*IX”, que son características fundamentales de la arquitectura actual
de Internet.
Para coordinar esta distribución, se formó el Federal Networking Council 9. El FNC
también cooperaba con otras organizaciones internacionales, como RARE en
Europa, a través del Coordinating Committee on Intercontinental Research
Networking (CCIRN), para coordinar la cobertura en Internet de la comunidad
investigadora de todo el mundo.
Esta forma de compartir y cooperar entre agencias en temas relacionados con
Internet tenía una larga historia. Un acuerdo sin precedentes que se produjo en 1981
entre Farber, en nombre de CSNET y la NSF, y Kahn, en nombre de DARPA,
permitió que el tráfico de CSNET compartiese la infraestructura de ARPANET
basándose en estadísticas y sin cifras previas.
Después, y de manera similar, la NSF alentó a sus redes regionales (inicialmente
23
académicas) de NSFNET a buscar clientes comerciales, no académicos, a ampliar
sus instalaciones para darles servicios y a utilizar el dinero resultante para reducir
los costes de abono a todo el mundo.
En la red troncal de NSFET (el segmento a escala nacional de NSFET), la NSF
impuso una “Directiva de uso aceptable” (AUP) que prohibía el uso de la red
troncal para fines “ajenos a la investigación y la educación”. El resultado predecible
(y buscado) de alentar el tráfico de redes comerciales a nivel local y regional,
mientras se negaba el acceso al transporte a escala nacional, era estimular la
aparición y crecimiento de redes “privadas”, competitivas y de largo alcance, como
PSI, UUNET, ANS CO+RE y (más adelante) otras. Este proceso de aumento
financiado por empresas privadas para usos comerciales fue muy criticado desde
1988 en una serie de conferencias iniciadas por la NSF en la Escuela de Gobierno
Kennedy de Harvard acerca de “La comercialización y privatización de Internet”, y
en la propia lista de la red “com-priv”.
En 1988, un comité del Consejo Nacional de Investigaciones, presidido por
Kleinrock y con Kahn y Clark como miembros, presentó un informe encargado por
la NSF titulado “Hacia una red de investigación nacional”. Este informe influyó en
el entonces senador Al Gore, y marcó el comienzo de las redes de alta velocidad que
fueron la base de la futura autopista de la información.
En 1994, se publicó un informe del Consejo Nacional de Investigaciones, presidido
de nuevo por Kleinrock (y con Kahn y Clark como miembros una vez más), titulado
“Haciendo realidad el futuro de la información: Internet y después”. Este informe,
encargado por la NSF, fue el documento en el que se articuló el programa para la
24
evolución de la autopista de la información, y que ha tenido un efecto duradero en la
manera en que se concibe su evolución. Anticipó los problemas fundamentales de
derechos de propiedad intelectual, ética, precios, educación, arquitectura y
regulación de Internet.
La política de privatización de la NSF culminó en abril de 1995, con la eliminación
de la financiación de la red troncal de NSFNET. Los fondos así recuperados se
redistribuyeron (competitivamente) entre redes regionales para adquirir
conectividad a Internet a escala nacional de las entonces numerosas redes privadas
de largo alcance.
La red troncal había hecho la transición de una red construida a partir de enrutadores de la
comunidad investigadora (los enrutadores “Fuzzball” de David Mills) a los equipos
comerciales. En su vida de 8 años y medio, la red troncal había pasado de seis nodos con
enlaces a 56 kbps a 21 nodos con múltiples enlaces a 45 Mbps. Había visto cómo Internet
pasaba a tener más de 50.000 redes en los siete continentes y el espacio exterior, con
aproximadamente 29.000 redes en Estados Unidos.
Tal era el peso del ecumenismo y la financiación del programa NSFNET (200.000 millones
de dólares desde 1986 hasta 1995) (y de la calidad de los propios protocolos), que en 1990,
cuando finalmente se retiró del servicio ARPANET 10, , TCP/IP había suplantado o
marginado a la mayoría de los demás protocolos de red de área amplia, e IP se estaba
convirtiendo a pasos agigantados en EL servicio portador de la infraestructura global de
información.
25
El papel de la documentación
Una clave para el rápido crecimiento de Internet ha sido el acceso abierto y gratuito a los
documentos básicos, en especial las especificaciones de los protocolos.
Los principios de ARPANET e Internet en la comunidad investigadora universitaria
promovieron la tradición académica de publicar ideas y resultados de forma abierta. Sin
embargo, el ciclo normal de las publicaciones académicas tradicionales era demasiado
formal y demasiado lento para el intercambio dinámico de ideas esencial para la creación
de redes.
En 1969, S. Crocker (en UCLA en aquel momento) dio un paso esencial al establecer las
series de notas Petición de comentarios (o RFC). La idea de estos memorandos era que
fuesen una forma de distribución informal y rápida para compartir ideas con otros
investigadores de la red. Al principio, las RFC se imprimían en papel y se distribuían a
través del correo ordinario. Cuando se empezó a usar el Protocolo de Transferencia de
Archivos (FTP), las RFC se preparaban como archivos en línea y se accedía a ellas a través
de FTP. Hoy en día, por supuesto, se accede a las RFC fácilmente a través de la World
Wide Web en numerosos sitios de todo el mundo. El SRI, en su papel de Centro de
Información de Redes, mantenía los directorios en línea. Jon Postel fue editor de RFC
además de gestionar la administración centralizada de las asignaciones necesarias de
números de protocolo, trabajos que ejerció hasta su muerte, el 16 de octubre de 1998.
El efecto de las RFC fue crear un bucle de comentarios positivos, en el que las ideas y
propuestas presentadas en una RFC desencadenaban otra RFC con ideas adicionales, y así
sucesivamente. Cuando se conseguía un consenso (o al menos un conjunto coherente de
ideas), se preparaba un documento de especificaciones. Después, varios equipos de
26
investigación usaban esas especificaciones como base para las implementaciones.
Con el tiempo, las RFC se han ido centrando más en los estándares de los protocolos (las
especificaciones “oficiales”), aunque siguen existiendo RFC informativas que describen
enfoques alternativos, u ofrecen información sobre los antecedentes de los protocolos y los
problemas de ingeniería. Hoy en día, las RFC se conciben como “documentos oficiales” en
la comunidad de ingeniería y estándares de Internet.
El acceso abierto a las RFC (gratuito, si tiene cualquier tipo de conexión a Internet)
promueve el crecimiento de Internet porque permite usar las especificaciones reales como
ejemplos en clases y entre los emprendedores que desarrollan nuevos sistemas.
El correo electrónico ha sido un factor significativo en todas las áreas de Internet, y eso es
especialmente cierto en el desarrollo de especificaciones de protocolos y estándares
técnicos y en la ingeniería de Internet. Las primeras RFC solían presentar un conjunto de
idas desarrolladas por un determinado grupo de investigadores, ubicado en un punto
concreto, que las presentaban al resto de la comunidad.
Cuando se empezó a usar el correo electrónico, el patrón de autoría cambió: las RFC eran
presentadas por varios autores con una visión común, independientemente de su ubicación.
El uso de listas de correo electrónico especializadas se ha usado desde hace tiempo en el
desarrollo de especificaciones de protocolos, y sigue siendo una herramienta importante.
Ahora la IETF consta de más de 75 grupos de trabajo, cada uno trabajando en un aspecto
diferente de la ingeniería de Internet. Cada uno de esos grupos de trabajo tiene una lista de
correo electrónico para discutir uno o más borradores en vías de desarrollo. Cuando se
27
alcanza el consenso sobre un borrador, se puede distribuir como RFC.
Como la actual y rápida expansión de Internet está impulsada por la conciencia de su
capacidad para compartir información, deberíamos entender que el primer papel de la red a
la hora de compartir información fue compartir la información relativa a su propio diseño y
funcionamiento a través de las RFC. Este método único de desarrollar nuevas funciones en
la red seguirá teniendo una importancia fundamental en la evolución futura de Internet.
Formación de una comunidad amplia
Internet es tanto una colección de comunidades como una colección de tecnologías, y
su éxito se puede atribuir en gran medida a la satisfacción de necesidades básicas de las
comunidades y a usar la comunidad de manera efectiva para hacer avanzar la
infraestructura. Este espíritu comunitario tiene una larga historia, que comienza con
ARPANET. Los primeros investigadores de ARPANET trabajaron como una comunidad
muy unida para conseguir las primeras demostraciones de la tecnología de conmutación de
paquetes ya descrita. Del mismo modo, la red satélite de paquetes, de radiopaquetes y otros
programas de investigación informática de DARPA eran actividades en las que colaboraban
varias personas, que usaban con profusión cualquier mecanismo disponible para coordinar
sus esfuerzos, empezando por el correo electrónico y siguiendo por la posibilidad de
compartir archivos, el acceso remoto y, finalmente, las funciones de la World Wide Web.
Cada uno de esos programas formó un grupo de trabajo, empezando por el ARPANET
Network Working Group. Debido al papel único que desempeñó ARPANET como
infraestructura que respaldaba los distintos programas de investigación, cuando Internet
28
empezó a evolucionar, el Network Working Group se convirtió en el Internet Working
Group.
A finales de la década de 1970, reconociendo que el crecimiento de Internet iba
acompañado de un crecimiento del interés de la comunidad de investigación, y, por lo
tanto, de un incremento de la necesidad de mecanismos de coordinación, Vint Cerf, gerente
por entonces del Programa de Internet en DARPA, formó varios organismos de
coordinación, una Junta de Cooperación Internacional (ICB), presidida por Peter Kirstein
de UCL, para coordinar las actividades con algunos países cooperantes centrados en la
investigación de la red satélite de paquetes, un Grupo de Investigación de Internet que se
trataba de un grupo abierto que proporcionaba un entorno de intercambio de información
general, y una Junta de Configuración de Internet (ICCB), presidida por Clark. La ICCB
era un organismo en el que solo podía participarse por invitación, creado para ayudar a Cerf
en la gestión de la creciente actividad de Internet.
En 1983, cuando Barry Leiner asumió la responsabilidad de la gestión del programa de
investigación de Internet en DARPA, él y Clark se dieron cuenta de que el crecimiento
continuado de la comunidad de Internet exigía una reestructuración de los mecanismos de
coordinación. La ICCB se disolvió y en su lugar se formó una estructura de Fuerzas de
tareas, cada una de ellas centrada en un área en particular de la tecnología (por ejemplo,
enrutadores, protocolos de extremo a extremo, etc.) Se formó la Internet Activities Board
(IAB), creada por los presidentes de las Fuerzas de tareas.
Por supuesto, fue una mera coincidencia que los presidentes de las Fuerzas de tareas fuesen
29
las mismas personas que los miembros de la antigua ICCB, y Dave Clark continuó
actuando como presidente. Tras algunos cambios entre los miembros de la IAB, Phill Gross
se convirtió en presidente de una revitalizada Fuerza de Tareas de Ingeniería de Internet
(IETF), que en aquella época era simplemente una de las Fuerzas de tareas de la IAB.
Como se ha visto antes, en 1985 existía un tremendo crecimiento en la parte más práctica y
de ingeniería de Internet. Este crecimiento tuvo como resultado una explosión en la
asistencia a las reuniones de IETF y Gross se vio obligado a crear una subestructura de la
IETF con grupos de trabajo.
Este crecimiento se vio complementado por una gran expansión de la comunidad. DARPA
ya no era el único que jugaba un papel importante en la financiación de Internet. Además
de NSFNet y diversas actividades financiadas por el gobierno de EE.UU. y por gobiernos
internacionales, empezaba a crecer el interés en el sector comercial. También en 1985, tanto
Kahn como Leiner abandonaron DARPA, con lo que hubo una disminución en la
actividad de Internet de DARPA. Como resultado, la
IAB se quedó sin su patrocinador primario y asumió cada vez la responsabilidad del
liderazgo.
El crecimiento continuó, lo que resultó en la creación de más subestructuras dentro de la
IAB e IETF. La IETF combinó los grupos de trabajo en áreas y designó directores de áreas.
Un Grupo de Dirección de Ingeniería de Internet (IESG) se formó a partir de los directores
de área. La IAB reconoció la creciente importancia de la IETF, y reestructuró el proceso de
estándares para reconocer explícitamente IESG como el principal cuerpo de revisión de
estándares. La IAB también reestructuró el resto de la Fuerzas de tareas (excepto la IETF) y
30
las combinó en una Fuerza de Tareas de Investigación de Internet (IRTF) presidida por
Postel, renombrando las antiguas fuerzas de tareas como grupos de investigación.
El crecimiento en el sector comercial trajo una mayor preocupación en el proceso de
estándares en sí. Desde principios de los 80 y hasta hoy en día, Internet creció más allá de
sus principales raíces de investigación para incluir una amplia comunidad de usuarios y un
aumento en las actividades comerciales. Se prestó mayor atención a que el proceso fuese
justo y abierto. Esto, junto con una necesidad reconocida de tener apoyo comunitario en
Internet, llevó, con el tiempo, a la formación de Internet Society en 1991, bajo los auspicios
de la Corporation for National Research Initiatives (CNRI) de Kahn y el liderazgo de Cerf,
entonces en la CNRI.
En 1992, se hizo otra reorganización. En 1992, el Consejo de actividades de Internet se
reorganizó y se renombró Consejo de arquitectura de Internet y operaba bajo los auspicios
de Internet Society. Se definió una relación más de “pares” entre la nueva IAB con IESG,
con una toma de mayor responsabilidad de la IETF y el IESG para la aprobación de
estándares. Finalmente, se formó una relación cooperativa y de apoyo mutuo entre la IAB,
IETF e Internet Society, con Internet Society cuyo objetivo era proveer servicios y otras
medias que facilitarían la labor de la IETF.
Los recientes desarrollos y el despliegue generalizado de la World Wide Web han aportado
una nueva comunidad, ya que mucha de la gente que trabaja en WWW no se consideran
primariamente investigadores de redes y desarrolladores. Se formó un nuevo grupo de
organización el Word Wide Web Consortium (W3C). Liderado al principio desde el
31
laboratorio de informática de MIT por Tim Berners-Lee (el inventor de WWW) y Al
Vezza, W3C ha tomado la responsabilidad de evolucionar algunos protocolos y estándares
asociados con la Web.
Así pues, en dos décadas de actividad de Internet hemos visto una evolución continuada en
las estructuras organizativas diseñadas para soportar y facilitar la siempre creciente
comunidad que trabaja colaborativamente en temas de Internet.
Comercialización de la tecnología
La comercialización de Internet no solo implicó el desarrollo de servicios de redes
competitivos y privados sino también el desarrollo de productos comerciales para
implementar la tecnología de Internet. A principios de los 80, docenas de vendedores
estaban incorporando TCP/IP en sus productos porque veían compradores para este tipo de
enfoque a la interconexión. Desafortunadamente, no tenían información real sobre cómo se
suponía que funcionaba la tecnología y cómo planeaban los clientes usar este enfoque a la
interconexión. Muchos lo veían como un complemento incordioso que se tenía que pegar a
sus propias soluciones propietarias de interconexión: SNA, DECNet, Netware, NetBios.
DoD había obligado a usar TCP/IP en muchas de sus compras pero no ayudaba a los
vendedores a construir productos TCP/IP útiles.
En 1985, reconociendo esta falta de disponibilidad de información y entrenamiento
apropiado, Dan Lynch en cooperación con la IAB organizó un taller de tres días para que
32
TODOS los vendedores aprendiesen cómo TCP/IP funcionaba y lo que aún no podía hacer
bien. Los conferenciantes provenían casi todos de la comunidad de investigación de
DARPA, gente que había desarrollado esos protocolos y los usaba diariamente. Unos 250
vendedores fueron a escuchar a 50 inventores y experimentadores. Los resultados fueron
sorpresas en ambas partes: los vendedores se sorprendieron al darse cuenta que los
inventores eran tan abiertos sobre el funcionamiento de las cosas (y sobre lo que aún no
funcionaba) y a los inventores les gustó escuchar sobre nuevos problemas que no habían
considerado, pero que los vendedores de campo estaban descubriendo. De modo que se
formó una discusión a dos vías que ha durado más de una década.
Después de dos años de conferencias, tutoriales, reuniones de diseño y talleres, se organizó
un evento especial y se invitó a los vendedores cuyos productos ejecutaban TCP/IP bien
para que se juntasen en una sala durante tres días para demostrar lo bien que trabajaban
todos juntos con Internet. En septiembre de 1988 nació la primera feria de muestras Interop.
50 compañías consiguieron asistir. 5.000 ingenieros de organizaciones de clientes
potenciales fueron a ver si funcionaba como prometían. Funcionaba. ¿Por qué? Porque los
vendedores
trabajaron duro para asegurarse que todos los productos interoperaban con el resto de los
productos; incluso con los productos de los competidores. La feria de muestras Interop ha
crecido muchísimo desde entonces y hoy en día se celebra en 7 ubicaciones en todo el
mundo durante el año, y más de 250.000 personas vienen a aprender sobre qué productos
funcionan con que productos sin problemas, aprender más sobre los últimos productos y
discutir la tecnología más puntera.
33
En paralelo con los esfuerzos de comercialización que se resaltaban en las actividades de
Interop, los vendedores empezaron a asistir a las reuniones de la IETF, que se celebraban 3
o 4 veces al año para discutir nuevas ideas sobre ampliaciones del conjunto de protocolos
TCP/IP. Empezando con unos pocos cientos de asistentes, mayoritariamente de académicos
y pagados por el gobierno, hoy en día, estas reuniones tienen una asistencia de miles de
personas, mayoritariamente de la comunidad de vendedores y pagados por los asistentes
mismo. Este grupo autoseleccionado evoluciona el conjunto TCP/IP de manera cooperativa.
La razón por la que es tan útil es porque está compuesto por todos los interesados:
investigadores, usuarios finales y vendedores.
La gestión de redes da un ejemplo de la interacción entre las comunidades de investigación
y de venta. En el principio de Internet, el énfasis se ponía en definir e implementar
protocolos que consiguiesen la interoperación.
Conforme se hizo más grande la red, quedó claro que los procedimientos ad hoc usados
para gestionar la red no escalarían. La configuración manual de las tablas fue sustituida por
algoritmos automáticos distribuidos, y se diseñaron mejores herramientas para aislar fallos.
En 1987, quedó claro que era necesario un protocolo que permitiese gestionar los elementos
de una red, como los enrutadores, remotamente de manera uniforme. Se propusieron varios
protocolos con este objetivo, incluyendo el Protocolo Simple de Administración de Red o
SNMP (diseñado, como sugiere su nombre, para ser sencillo, y derivado de una propuesta
anterior llamada SGMP), HEMS (un diseño más complejo de la comunidad investigadora)
y CMIP (de la comunidad OSI). Tras una serie de reuniones se decidió retirar HEMS como
candidato para la estandarización, para ayudar a resolver la contención, pero que se
34
continuaría trabajando en SNMP y CMIP, con la idea que SNMP sería una solución a corto
plazo y CMIP una solución a largo plazo. El mercado podía elegir el que le pareciese más
adecuado. Hoy en día se usa SNMP casi universalmente para la gestión basada en la red.
En los últimos años, hemos visto una nueva fase de comercialización. Originalmente, los
esfuerzos de comercialización comprendían principalmente vendedores ofreciendo los
productos básicos de redes y los proveedores de servicios ofreciendo los servicios de
conectividad y básicos de Internet. Internet casi se ha convertido en un servicio de
“mercancías”, y se ha prestado mucha atención en esta infraestructura global de
información para soportar otros servicios comerciales. Esto se ha visto acelerado
increíblemente por la adopción generalizada y rápida de navegadores y la tecnología World
Wide Web, lo que permite a los usuarios tener un fácil acceso a la información enlazada de
todo el mundo. Hay productos disponibles para facilitar el aprovisionamiento de esta
información y muchos de los últimos desarrollos en la tecnología se han centrado en
proveer servicios de información cada vez más sofisticados por encima de los servicios de
comunicación básicos de datos de Internet.
Historia del futuro
El 24 de octubre de 1995, FNC pasó una resolución unánime para definir el término
Internet. Esta definición se desarrolló consultando a los miembros de las comunidades de
Internet y propiedad intelectual. RESOLUCIÓN: El Consejo federal de redes (FNC)
acuerda que la siguiente descripción refleja nuestra definición del término "Internet".
"Internet" se refiere al sistema de información global que: (i) esta enlazado lógicamente a
35
un espacio global de direcciones únicas basadas en el Protocolo de Internet (IP) o sus
subsecuentes extensiones/añadidos; (ii) puede soportar la comunicación usando el conjunto
Protocolo de control de transmisión/Protocolo de Internet (TCP/IP) o sus subsecuentes
extensiones/añadido y otros protocolos compatibles con IP; y (iii) provee, usa o da
accesibilidad, ya sea de manera pública o privada a servicios de alto nivel superpuestos en
las comunicaciones y las infraestructuras relacionas ya descritas.
Internet ha cambiado mucho en las dos décadas desde que nació. Se concibió en la época de
tiempo compartido, pero ha sobrevivido a la época de los ordenadores personales, la
informática cliente-servidor y par a par y la informática de redes. Se diseñó antes que
existiesen las LAN, pero ha acomodado a esa tecnología nueva, además de los recientes
cajeros y servicios de intercambio de marcos. Se concibió para soportar un rango de
funciones tales como compartir archivos y acceso remota a distribución de recursos y
colaboración, y ha creado el correo electrónico y más recientemente la World Wide Web.
Pero lo más importante, empezó como la creación de un pequeño grupo de
investigadores dedicados y ha crecido para convertirse en un éxito comercial con miles de
millones de dólares en inversiones anuales.
No se debería concluir que Internet ha dejado de cambiar ahora. Internet, a pesar de ser una
red con nombre y geografía, es una criatura de los ordenadores, no las redes tradicionales
de teléfono y televisión. Seguirá, y debe, cambiando y evolucionando a la velocidad de la
industria informática si quiere seguir siendo relevante. En estos momentos está cambiando
para ofrecer nuevos servicios como transporte en tiempo real, para soportar, por ejemplo,
de stream de audio y vídeo.
36
La disponibilidad de una red dominante (es decir, Internet) junto con ordenadores potentes
baratos y comunicaciones en dispositivos portátiles (es decir, portátiles, mensáfonos, PDA,
teléfonos móviles) hace posible un nuevo paradigma de informática y comunicaciones
nómadas. Esta evolución nos traerá nuevas aplicaciones; el teléfono de Internet y, en el
futuro, la televisión de Internet. Está evolucionando para permitir formas más sofisticadas
de poner precios y recuperar costes, un requisito doloroso en este mundo comercial. Está
cambiando para acomodar otra generación de nuevas tecnologías subyacentes con
diferentes características y requisitos, por ejemplo, acceso residencial a banda ancha y
satélites. Nuevos modos de acceso y nuevas formas de servicio generarán nuevas
aplicaciones, que en su lugar impulsarán la evolución de la red.
La pregunta más acuciante del futuro de Internet no es cómo la tecnología cambiará, sino
cómo se gestionará el proceso de cambio y evolución. Como describe este artículo, la
arquitectura de Internet siempre ha sido impulsada por un grupo de diseñadores, pero la
forma del grupo ha cambiado conforme crecía el número de partes interesadas. Con el éxito
de Internet ha habido una proliferación de interesados: interesados que ahora invierten
dinero además de invertir ideas en la red.
Ahora vemos, en los debates sobre el control del espacio de nombres de dominio y la forma
de la próxima generación de direcciones de IP, una lucha para encontrar la próxima
estructura social que guiará Internet en el futuro. La forma de estructura será más difícil de
encontrar teniendo en cuenta el número de interesados. La industria, a su vez, lucha por
encontrar la razón económica para la gran inversión necesaria para el crecimiento futuro,
37
por ejemplo para mejorar el acceso residencial a una tecnología más adecuada. Si Internet
tropieza no será porque nos falta
tecnología, visión o motivación. Será porque no podemos determinar una dirección y
caminar juntos hacia el futuro.
EVOLUCION DEL INTERNET EN VENEZUELA
En Venezuela, los primeros intentos de conexión a Internet, se remontan a 1980
cuando la Universidad Simón Bolívar estaba perfectamente familiarizada con la
interconexión de máquinas bajo UUCP, luego de la instalación en 1970 de la primera
máquina operando bajo el sistema operativo UNIX -basamento de las redes pioneras-. En
pleno desarrollo del TCP/IP, el primer enlace con el exterior se establece a través de la
plataforma X25 suministrada por CANTV, aunque, para entonces, problemas de
facturación impedían la continuidad de este servicio que proveía FTP, Telnet y correo
electrónico a unos 300 usuarios, con un computador Prime como primer servidor:
Velocidad de enlace 300 bits por segundo, suficiente para el uso racional de la herramienta.
Fue la Dirección de Información Científica y Tecnológica del Conicit la organización que
lideraba los esfuerzos para concretar un proyecto de automatización y concibe el Saicyt o
Servicio Automatizado de Información Científica y Tecnológica, que toma el control de la
conexión.
El segundo hito importante corresponde al año 1989, cuando se decide desarrollar
los servicios sobre una plataforma TCP/IP, es decir, sobre el conjunto de tecnologías que
hoy son la base de Internet. Corresponde a Emsca, empresa especializada la primera
38
máquina SUN SPARC que asume el rol de servidor bajo el nombre de "DINO".
Posteriormente Pebbles y Ban-Ban sirvieron de nombres para otros servidores. En ese
tiempo, la oferta estaba limitada, se hacían charlas de sensibilización para convencer al
grueso de la calidad académica de las bondades del servicio ofrecido. Las cuentas eran
asignadas siguiendo un listado, en parte para justificar la inversión que se estaba haciendo.
Dino se conecta al backbone o espina dorsal de la NSFNET desarrollada en 1986 en
Estados Unidos, con una capacidad de 56K bps. En Venezuela se usaba la conexión de
Saicyt para accesos a base de datos privados como Dialog, las cuales requerían suscripción.
En el año 1992, se realiza la primera conexión de Venezuela a Internet, con un enlace de
19,200 bps que conectaba al Conicit con el JVNC, surgiendo la idea de desarrollar un
proyecto nacional que integrara los esfuerzos de interconexión de las Universidades y
Centros de Investigación entre sí con el exterior. Después que el marco regulatorio lo
permite, a partir de 1994 comienza la explotación comercial del acceso a Internet en
Venezuela.
La utilización de Internet se ha propagado lentamente, ofreciendo servicios de correo-e
desde y hacia Internet, ftp y telnet, y luego el acceso a Internet y a Compuserve en una sola
sesión. De 300 usuarios a principios de los 80, se estima actualmente un aproximado de 120
mil usuarios conectados en la red. Hoy existen proveedores con más de 6 Mbps de ancho de
banda y el perfil del usuario de Internet ha cambiado considerablemente, así como sus
hábitos de conexión, debido a lo costoso del servicio. No obstante, se espera un crecimiento
de más de medio millón de personas a fines del año, lo cual evidencia la importancia que
tiene como medio masivo de comunicación e información.
Desde hace varios años Internet se ha convertido en una alternativa donde personas
39
y empresas de todo el mundo pueden accesar una gran variedad de información y recursos,
comunicarse y conducir sus negocios. Con mayor frecuencia las personas utilizan
herramientas como el correo electrónico y las páginas Web para llevar a cabo procesos de
mercadeo, compra y venta de productos.
Estudios recientes indican que en Venezuela existen 120 mil usuarios de Internet,
pertenecientes en su mayoría a las clases socioeconómicas A, B y C y la tasa de
crecimiento semanal es del 2%. El perfil del usuario promedio de Internet es el siguiente
(Fuente: PC News- Mayo 1997):
83% Hombres, 56% entre 26 y 45 años, 75% profesionales 70%
localizado en Caracas y Zona Metropolitana
50% se conecta al menos una vez al día, 48% desde su casa, 38% desde casa y oficina.
El tiempo de conexión promedio es de 22 horas mensuales.
Otros estudios señalan que en Venezuela el usuario de Internet se divide en dos
grupos: el académico, que ha trabajado por 10 años con Internet y aquel que llega después
de la apertura comercial del medio (4 años), y pertenece a un grupo que tiene poder
adquisitivo, posee tarjetas de crédito e ingresos apetecibles para que los anunciantes les
muestren sus productos. Por esto es importante que el comercio en línea se realice con
productos asequibles al target que navega en la red.
40
TERMINOS BASICOS UTILIZADOS EN INTERNET PARA SU COMPRENSIÒN
Y UTILIZACIÒN
ANCHO DE BANDA: (Bandwith) Término técnico que determina el volumen de
información que puede circular por un medio físico de comunicación de datos, es decir, la
capacidad de una conexión. A mayor ancho de banda, mejor velocidad de acceso; más
personas pueden utilizar el mismo medio simultáneamente. Se mide en Hertz o bps (bits
por segundo), por ejemplo 32 kbps, 64 kbps, 1Mbps, etc.
ANSI: (American National Standars Institute, Instituto Americano de Normas)
Organización que desarrolla y aprueba normas de los Estados Unidos. Participó en la
creación de gran parte de los estándares actualmente en uso en Internet.
AOL: America On Line. Uno de los principales proveedores de acceso a Internet. Cuenta
con varios millones de usuarios.
APPLET: (Programa) Pequeño programa hecho en lenguaje Java.
ARPANET: Red de la Agencia de Investigación de Proyectos Avanzados, precursora en los
años 60 de lo que hoy conocemos como Internet.
ASCII: código de caracteres utilizado por los ordenadores, en el que cada letra, dígito y
símbolo (¨? ",...) es representado por un número del 0 al 255.
ARCHIE: Herramienta que permite localizar archivos en Internet, creada en Montreal por
la Universidad de McGill. Un server de Archie (hay muchos distribuidos en Internet)
mantiene una base de datos con la ubicación de varios miles de archivos en la Red.
Actualmente el sistema sigue la pista a cerca de 1,5 millón de archivos en 900 lugares de
41
almacenamiento. En desuso a partir de la aparición de World Wide Web.
ATTACHMENT :(Adjunto) Se llama así a un archivo de datos (por ejemplo una planilla de
cálculo o una carta de procesador de textos) que se envía junto con un mensaje de correo
electrónico. Para que el documento pueda viajar, debe ser codificado de alguna manera, ya
que el e-mail sólo puede transportar códigos ASCII. Entre los formatos de codificación más
difundidos están el UUENCODE, MIME y BinHex.
AUTHORING: Actividad de crear contenido para la Web en HTML. El Webmaster, o
administrador de un sitio Web, es en general el responsable de la autoría de su contenido.
AVATAR: Originariamente figura humana de un dios en la mitología hindú. Identidad
ficticia, representación física (cara y cuerpo) de una persona conectada al mundo virtual de
Internet. Muchas personas construyen su personalidad digital y luego se encuentran en
servers determinados (por ejemplo, en Chats) para jugar o charlar con otros.
BANNER: Aviso publicitario que ocupa parte de una página Web, en general ubicada en la
parte superior al centro. Haciendo un click sobre él, se puede llegar
al sitio del anunciante. De este modo, los banners en general se cobran en base a los click-
throughs que se obtienen.
BINHEX: método de codificación para enviar ficheros binarios como textos. Se usa para
enviar este tipo de ficheros por correo, bien a otros usuarios, a una lista o a grupos de news.
Para poder convertirlo de nuevo a un fichero binario hace falta decodificarlo. Algunos
programas lectores de correo o de news incorporan un decodificador.
BOMBER: Persona que envía correos electrónicos (como bombardeo), siendo estos un
numero ilimitado con el objeto de saturar o bloquear cuantas de E. Mail con cualquier tipo
42
de mensaje.
BOOKMARK: (Señalador o favoritos) La sección de menú de un navegador donde se
pueden almacenar los sitios preferidos, para luego volver a ellos simplemente eligiéndolos
con un simple click desde un menú.
BROWSER: (Web Browser, Navegador o visualizador) Programa que permite leer
documentos en la Web y seguir enlaces (links) de documento en documento de hipertexto.
Los Navegadores hacen pedidos de archivos (páginas y otros) a los servers de Web según la
elección del usuario y luego muestran en el monitor el resultado del pedido en forma
multimedial. Entre los más conocidos se encuentran el Netscape de Navigator, Microsoft
Explorer y Mosaic. El primer navegador se llamó Line Mode Browser, pero el primer
navegador en cuanto a difusión fue Mosaic. Usualmente, a los navegadores se les agrega
plug-ins (agregados) para aumentar sus capacidades.
BUSCADOR: (Search) Herramienta que permite ubicar contenidos en la Red, buscando en
forma booleana a través de palabras clave. Se organizan en buscadores por palabra o
índices (como Lycos o Infoseek) y buscadores temáticos o Directories (como Yahoo!).
Dentro de estas dos categorías básicas existen cientos de buscadores diferentes, cada uno
con distintas habilidades o entornos de búsqueda (por ejemplo, sólo para médicos, para
fanáticos de las mascotas o para libros y revistas).
CACHE: Almacenamiento intermedio o temporario de información. Por ejemplo, un
navegador posee un cache donde almacena las últimas páginas visitadas por el usuario y, si
alguna se solicita nuevamente, el navegador mostrará la que tiene acumulada en lugar de
volver a buscarla en Internet. El término se utiliza para denominar todo depósito intermedio
de datos solicitados con mayor frecuencia.
43
CGI: (Common Gateway Interface, Interfaz Común de Intercomunicación) Conjunto de
medios y formatos para permitir y unificar la comunicación entre la Web y otros sistemas
externos, como las bases de datos. Similar al ActieX.
CHAT: Sistema de conversación en línea que permite que varias personas de todo el mundo
conversen en tiempo real a través de sus teclados. Existen varios sistemas de chat, uno de
los más difundidos es el IRC.
CIBERNAUTA: dícese del navegante del ciberespacio.
CIBERESPACIO: término abstracto que se usa para referirse al "lugar" en que nos
situamos al entrar en un espacio virtual, como al conectar con Internet o usar un casco de
realidad virtual. El término procede de Neuromante, novela de William Gibson que todo
buen cibernauta debería leer.
CGI: Common Gateway Interface. Método para pasar parámetros desde una página Web a
un programa en el servidor, que realizará diversas acciones con los mismos, generando una
salida que normalmente es una nueva página Web.
CLIENTE: en una estructura cliente-servidor, se llama cliente al programa utilizado para
acceder a los servicios de un programa servidor. Por ejemplo, usted está utilizando un
cliente Web para ver estás páginas, que le son ofrecidas por un servidor Web.
COOKIES :(Galletitas) Pequeños archivos con datos que algunos sitios Web depositan en
forma automática en las computadoras de los visitantes. Lo hacen con el objetivo de
almacenar allí información sobre las personas y sus preferencias. Por ejemplo, la primera
44
vez que un navegante visita un site y completa un formulario con sus datos y perfil, el
sistema podrá enviarle una cookie al asignarle una identificación. Cuando el usuario
retorne, el sitio Web pedirá a la computadora cliente la cookie y, a través de ella, lo
reconocerá.
COUNTER: Generalmente es el contador de accesos de los Home Pages.
CRACKER: Persona que se especializa en violar medidas de seguridad de una computadora
o red de computadoras, venciendo claves de acceso y defensas para obtener información que
cree valiosa. El cracker es considerado un personaje ruin y sin honor, a diferencia del
hacker.
DEFAULT: Opción que un programa asume si no se especifica lo contrario. También
llamado "valores predeterminados").
DIRECCION ELECTRONICA: Serie de caracteres que identifican unívocamente un
servidor (por ejemplo, www.supernet.com.mx) una persona
([email protected]) o un recurso (un sitio web como
http://www.supernet.com.mx/info.html) en Internet. Se componen de varias partes de
longitud variable. Las direcciones son convertidas por los DNS en los números IP
correspondientes para que puedan viajar por la Red.
DIRECCION IP: la dirección IP de una máquina conectada a Internet es un número que
identifica unívocamente a esa máquina (es decir, tan sólo esa máquina tiene ese número).
Las direcciones IP constan de cuatro números que van del 0 al 255, y que se representan
por dígitos decimales separados por puntos, como 123.456.1.1 Como estos números son
difíciles de recordar, a cada máquina se le asigna también un nombre, su nombre de
45
dominio.
DIAL UP: Se le llama Dial Up, al servicio que proporciona algún provedor de acceso a
Internet.
DNS: (Domain Name System/Server, Servidor de nombres de dominios) Sistema de
computadoras que se encarga de convertir (resolver) las direcciones electrónicas de Internet
(como www.supernet.com.mx ) en la dirección IP correspondiente y viceversa. Componen
la base del funcionamiento de las direcciones electrónicas en Internet y están organizados
jerárquicamente.
DOMINIO: El dominio, o más propiamente nombre de dominio, es uno de los conceptos
básicos de Internet. Está muy relacionado con las direcciones IP, y su función es identificar
unívocamente cada máquina conectada a Internet con un nombre qu e sea más fácil de
recordar (para un humano) que una dirección IP. Un nombre de dominio está compuesto de
varias partes que suelen dar una idea de la localización física de la máquina.
DOWNLOAD: Es el proceso de bajar (traer) un archivo desde algún lugar en la Red a la
computadora de un usuario. (Up-load, el proceso inverso).
DYNAMIC IP: Se dice así cuando el número IP de una computadora conectada a un
proveedor de servicio vía dial-in (módem) es otorgado en el momento de la conexión en
lugar de ser un número fijo.
E-MAIL: Servicio de Internet que permite el envío de mensajes privados (semejantes al
correo común) entre usuarios. Basado en el SMTP. Más rápido, económico y versátil que
ningún otro medio de comunicación actual. También utilizado como medio de debate
grupal en las mailing lists.
46
EMOTICON: este término se ha ido imponiendo como el equivalente en castellano de
smiley, que son esos extraños símbolos, como :-), usados para añadir
emociones y sentimientos a los mensajes de correo electrónico. Hay varios cientos de ellos,
que expresan alegría, tristeza, enfado, e incluso describen físicamente al interlocutor. Para
apreciarlos, gire la cabeza como si fuese a apoyarla en su hombro izquierdo.
ENLACES: (Links) Conexiones que posee un documento de la Web (escrito en HTML).
Un enlace puede apuntar a referencias en el mismo documento, en otro documento en el
mismo site; también a otro site, a un gráfico, video o sonido.
EXTRANET: Utilización de la tecnología de Internet para conectar la red local (LAN) de
una organización con otras redes (por ejemplo, proveedores y clientes).
FINGER: Comando que permite obtener información sobre una persona en la Red (por
ejemplo, dirección de E-mail, dirección postal, hobbies), buscando ciertos datos que ésta
pudo dejar en un formulario de consulta.
FAQ: Frequently Asked Questions. Preguntas frecuentemente realizadas. Son documentos
de Usenet en los que se recogen las respuestas a las preguntas más comunes de cada uno de
los grupos. Dada la diversidad de temas tratados en las news, son muy útiles, no solo para
moverse por la Red, sino para disponer de información detallada de casi cualquier tema.
FIREWALL: (pared a prueba de fuego) Conjunto de programas de protección y
dispositivos especiales que ponen barreras al acceso exterior a una determinada red privada.
Es utilizado para proteger los recursos de una organización de consultas externas no
autorizadas.
FLAME: mensajes de correo insultantes, en los que se ataca más a la persona a la que se
47
intenta responder que a los argumentos que esta ha expuesto. Por lo general son de carácter
personal (aunque no son raros los dirigidos a grupos étnicos), a pesar de lo cual son
enviados a grupos de noticias o listas de correo.
FLAME WAR: intercambio de flames entre dos o mas personas, generalmente en una lista
donde al resto de los usuarios no les interesan en absoluto.
FORMATOS: Se les llama formatos generalmente a cada tipo de archivo, por ejemplo a los
de gráficos como ".jpg, .gif, etc, etc.
FRAME: (Cuadros) Instrucciones en el lenguaje HTML (utilizado para diseñar las páginas
Web); una forma de dividir la pantalla del navegante en varias zonas, cada una con
autonomía de movimiento. Por ejemplo, se puede dividir una pantalla de modo que haya un
frame vertical que ocupe el lado izquierdo de la
pantalla durante toda la navegación que contenga el menú de un sitio Web. Los frames son
un agregado al HTML estándar inventado por la empresa Netscape y luego adoptados como
norma.
FRAME-RELAY: Tecnología de transporte de datos por paquetes muy utilizada en las
conexiones por líneas dedicadas.
FREEWARE: Política de distribución gratuita de programas. Utilizada para gran parte del
software de Internet. En general, estos programas son creados por un estudiante o alguna
organización (usualmente una Universidad) con el único objetivo de que mucha gente en el
mundo pueda disfrutarlos. No son necesariamente sencillos: muchos de ellos son complejos
48
y han llevado ciento de horas de desarrollo. Ejemplos de freeware son el sistema operativo
Linux (un Unix) o el PGP (Pretty Good Privacy, un software de encriptación), que se
distribuyen de este modo.
FTP: (File Transfer Protocol, Protocolo de Transferencia de Archivos) Es un servicio de
Internet que permite transferir archivos (upload y download) entre computadoras
conectadas a Internet. Método por el cual la mayoría del software de Internet es distribuido.
FULL DUPLEX: Característica de un medio de comunicación por el que se pueden enviar
y recibir datos simultáneamente.
FYI: For Your Information. Ficheros de texto con diferente información sobre Internet.
Similares a los RFC, los FYI no tienen carácter "oficial", siendo meramente informativos.
A menudo se usan como borradores de RFCs, o como textos complementarios a estos.
GATEWAY: Dispositivo de comunicación entre dos o más redes locales (LANs) y
remotas, usualmente capaz de convertir distintos protocolos, actuando de traductor para
permitir la comunicación. Como término genérico, es utilizado para denominar a todo
instrumento capaz de convertir o transformar datos que circulan entre dos medios
tecnológicos.
GOPHER: Servicio de Internet que organiza la información y permite acceder a ella en
forma sencilla. Es precursora de la Web y actualmente esta cayendo en desuso. Creada en
la Universidad de Minessotta, su nombre hace referencia a la mascota del lugar, que es un
topo. Otros sugieren que es una deformación de la frase goes-fer ("busca"). El Gopher
resolvió el problema de cómo ubicar recursos en Internet, reduciendo todas las búsquedas a
menúes y submenúes.
49
GURÚ: persona que domina absolutamente todos los aspectos de una determinada
disciplina. Es un término muy usado en Internet, aunque se refiera a otros campos (p. e. "es
un gurú del Unix").
HACKER: Experto técnico en algún tema relacionado con comunicaciones o seguridad; de
alguna manera es también un gurú. Los hackers suelen dedicarse a violar claves de acceso
por pura diversión, o para demostrar falencias en los sistemas de protección de una red de
computadoras. Los Hackers son muy respetados por la comunidad técnica de Internet, a
diferencia de los Crackers.
HIPERMEDIA: Combinación de hipertexto y multimedia. Uno de los grandes atractivos de
la Web.
HIPERTEXTO: Concepto y termino inventado por Ted Nelson en 1969. Nelson era un
famoso visionario de la informática que investigo durante 25 años, las posibilidades de
interacción entre las computadoras y la literatura. Uno de los conceptos básicos para el
desarrollo de la WWW. El hipertexto es una forma diferente de organizar información. En
lugar de leer un texto en forma continua, ciertos términos están unidos a otros mediante
relaciones (enlaces o links) que tienen entre ellos. El hipertexto permite saltar de un punto a
otro en un texto, y a través de los enlaces (con un simple click sobre las palabras
subrayadas y en negrita), permite que los navegantes busquen información de su interés en
la Red, guiándose por un camino distinto de razonamiento. Algunos programas muy
difundidos, como la Ayuda de Windows o las enciclopedias en CD-ROOM, están
organizadas como hipertextos.
HIT: (Acceso o pedido) Unidad de medición de accesos a determinado recurso. Forma de
registrar cada pedido de información que un usuario efectúa a un server. Por ejemplo, en el
50
caso de un sitio Web, la solicitud de cada imagen, página y frame genera un hit. Por lo
tanto, para conocer en realidad cuántos accesos hubo, debe dividirse la cantidad de objetos
independientes (texto, frames e imágenes) que una página contiene, o usar un contador de
accesos.
HOME PAGE: (Página principal o de entrada) Página de información de la Web, escrita en
HTML. En general, el término hace referencia a la página principal o de acceso inicial de
un site.
HOST: Actualmente, sinónimo de SERVIDOR, y también se le conoce a los servidores que
albergan como "HOST" a una o varias Páginas, pudiendo tener estas un nombre de dominio
distinto a la del HOST en que se encuentren.
HOSTNAME: Denominación otorgada por el administrador a una computadora. El
hostname es parte de la dirección electrónica de esa computadora, y debe ser único para
cada maquina conectada a Internet. Por ejemplo "supernet"
HTML: (Hypertext Markup Language, Lenguaje de Marcado de Hipertextos) Lenguaje que
define textos, subgrupo del SGML, destinado a simplificar la escritura de documentos
estándar. Es la base estructural en la que están diseñadas las páginas de la World Wide
Web. Su definición está a cargo del Web Consortium
HTTP: (Hypertext Transfer Protocol, Protocolo de Transferencia de Hipertexto) Es el
mecanismo de intercambio de información que constituye la base funcional de la World
Wide Web.
HIPERDOCUMENTOS: Documento que tiene estructura de hipertexto, pero contiene
además referencias a objetos multimediales (como sonidos, imágenes, videos).
51
HIPERLINK: Enlace entre dos nodos de un hipertexto.
IANA: (Internet Assigned Numbers Authory) Organismo que asigna los números IP a las
instituciones que desean participar de Internet. Actualmente funciona junto a Internic.
INTERFACE: Cara visible de los programas. Interactúa con los usuarios. La interface
abarca las pantallas y su diseño, el lenguaje usado, los botones y los mensajes de error,
entre otros aspectos de la comunicación computadora/persona.
INTERNET ADRESS: Sinónimo de número IP. Número asignado que identifica a un
server en Internet. Está compuesto por dos o tres partes: número de red, número opcional
de sub-red y número de host.
INTERNETS: La Red de computadoras más extensa del planeta, que conecta y comunica a
más de 50 millones de personas. Nació a fines de los años sesenta como ARPANET y se
convirtió en un revolucionario medio de comunicación. Su estructura técnica se basa en
millones de computadoras que ofrecen todo tipo de información. Estas computadoras,
encendidas las 24 horas, se llaman servidores y están interconectadas entre sí en todo el
mundo a través de diferentes mecanismos de líneas dedicadas. Sin importar que tipo de
computadoras son, para intercomunicarse utilizan el protocolo TCP/IP. Las computadoras
que utilizan las personas para conectarse y consultar los datos de los servidores se llaman
clientes, y acceden en general a través de un tipo de conexión llamado dial-in, utilizando un
módem y una línea telefónica.
INTERNET: Denomina a un grupo interconectado de redes locales, que utilizan un mismo
protocolo de comunicación.
52
INTERNIC: (Internet Network Information Centre) Centro de información que almacena
documentos de Internet: RFCs y borradores de documentos. Organismo que se ocupa de
otorgar grupos de números IP y direcciones electrónicas a cada organización que desee
conectarse a Internet, garantizando que sean únicas.
INTRANET: Utilización de la tecnología de Internet dentro de la red local (LAN) y/o red
de área amplia (WAN) de una organización. Permite crear un sitio público donde se
centraliza el acceso a la información de la compañía. Bien utilizada, una Intranet permite
optimizar el acceso a los recursos de una organización, organizar los datos existentes en las
PCs de cada individuo y extender la tarea colaborativa entre los miembros de equipos de
trabajo. Cuando una Intranet extiende sus fronteras más alla de los limites de la
organización, para permitir la intercomunicación con los sistemas de otras compañías, se
llama Extranet.
IP: (Internet Protocol) Protocolo de Internet definido en el RFC 791. Confirma la base del
estándar de comunicaciones de Internet. El IP provee un método para fragmentar (deshacer
en pequeños paquetes) y rutear (llevar desde el origen al destino) la información. Es
inseguro, ya que no verifica que todos los fragmentos del mensaje lleguen a su destino sin
perderse por el camino. Por eso se complementa con el TCP.
IRC: (Internet Relay Chat) Uno de los sistemas más populares de charlas interactivas
(chats) de múltiples usuarios vía Internet. Permite que miles de personas de todo el mundo
se reúnan a "conversar" simultáneamente en forma escrita.
ISDN: (Integrated Services Data Networks) Tecnología rápida de conexión para líneas
dedicadas y transmisión de datos. Se utiliza para tener acceso a Internet o a una
videoconferencia. Si bien esta tecnología existe hace varios años, aún se encuentra poco
53
difundida.
ISP: (Internet Service Povider, Proveedor de servicios de Internet)
JAVA: Lenguaje de programación creado por Sun Microsystems. Desde su aparición, java
se perfila como un probable revolucionario de la Red. Como lenguaje es simple, orientado a
objetos, distribuido, interpretado, robusto, seguro, neutral con respecto a la arquitectura,
portable, de alta perfomance, multithreaded y dinámico. Java es un lenguaje de
programación, un subset de C++. Susbset, porque algunas instrucciones (como las que
tienen que ver con la administración de memoria) no se pueden usar. Seguro, porque agrega
características de seguridad a los programas. Un applet de Java se baja automáticamente
con la página Web y es compilado y ejecutado en la máquina local. Permite, entre otras
cosas, agregar animación e interactividad a una página Web, pero su característica más
importante es que un programa escrito en Java puede correr en cualquier computadora.
JAVASCRIPT: Lenguaje de Scripts para utilizar en páginas Web desarrollado por
Netscape. Permite aumentar la interactividad y la personalización de un sitio.
LAN: (Local Area Network, Red de Area Local) Red de computadoras interconectadas,
distribuida en la superficie de una sola oficina o edificio. También llamadas redes privadas
de datos. Su principal característica es la velocidad de conexión.
LINEA DEDICADA: Forma de conexión a Internet (con acceso las 24 horas) a través de
un cable hasta un proveedor de Internet. Esta conexión puede ser utilizada por varias
personas en forma simultánea.
LINK: Enlace.
54
LISTAS DE INTERES: Mailing List
LISTSERV: uno de los más populares y extendidos programas servidores de listas de
correo.
LOG: Archivo que registra movimientos y actividades de un determinado programa (log
file). Utilizado como mecanismo de control y estadística.
LOGIN : Proceso de seguridad que exige que un usuario se identifique con un nombre
(user-ID o nombre de usuario) y una clave (password o contraseña), para poder acceder a
una computadora o recurso.
LINX: Browser de Web en modo texto, que no permite ver imágenes. Aún es ampliamente
utilizado por quienes navegan desde estaciones Unix.
MAILING LISTS: (Lista de interés) Modo de distribución de e-mail grupal. Mecanismos
de debate grupales entre distintas personas interesadas en un determinado tema. Similares
en concepto a los NewsGroups, pero no es necesario utilizar un servidor especial ya que los
mensajes son recibidos por el usuario como correo electrónico.
MIME: (Internet Mail Extensions, extensiones Multipropósito para e-mail) Formato
especifico de codificación para la transferencia de correo electrónico y attachments entre
dos computadoras; contiene cualquier tipo de datos. Más moderno que el UUEncoding.
MODEM: Dispositivo que se utiliza para transferir datos entre computadoras a través de
una línea telefónica. Unifica la información para que pueda ser transmitida entre dos
medios distintos como un teléfono y una computadora. La velocidad del módem se mide en
55
una unidad llamada baudios (bits por segundo), por ejemplo 56.600 baudios. Cuanto más
rápido es el módem, más datos pueden viajar por el en menos tiempo.
MUD: MultiUser Dungeon. Juegos de rol a través del ordenador, generalmente a través de
textos, en los que el usuario adopta un personaje con ciertas características que interactúa
con otros usuarios en un mundo imaginario.
MULTIMEDIA: Combinación de varias tecnologías de presentación de información
(imágenes, sonido, animación, video, texto) con la intención de captar tantos sentidos
humanos como sea posible. Previamente a la existencia de la multimedia, el intercambio de
información con las computadoras estaba limitado al texto. Luego, con el nacimiento de las
interfaces de usuario gráficas y los desarrollos en video y sonido, la multimedia permitió
convertir el modo de comunicación entre personas y dispositivos aumentando la variedad
de información disponible. El uso de la multimedia fue la razón principal por la que la
World Wide Web facilitó la difusión masiva de Internet.
NETIQUETTE: la etiqueta de la Red. Conjunto de normas de buena educación dentro de
Internet, asumidas y creadas por los propios usuarios. Seguirlas hace que los servicios de
Internet sean mucho más útiles y eficientes.
NEWBIE: novato. Nuevo en la Red.
NODO: cualquier servidor conectado a Internet.
PÁGINA WEB: es la unidad mínima de información en el WWW. Cada vez que pulsa un
enlace o especifica una dirección, se carga un fichero que se le muestra en pantalla. Este
fichero, llamado página, puede contener imágenes, enlaces a otras páginas, textos... puede
56
ser tan pequeño como unas pocas líneas, o tan grande como esta (y más).
PASARELA: ordenadores que conectan a dos o más sistemas que usan diferentes
protocolos para comunicarse, y que actúan como traductores de las comunicaciones entre
esos sistemas.
POSTMASTER: persona encargada del mantenimiento de los servicios de correo
electrónico en un nodo.
PPP: Point to Point Protocol. Protocolo Punto a Punto. Al igual que SLIP, es un protocolo
usado para realizar conexiones a Internet desde un ordenador personal por medio de una
línea telefónica. Ambos protocolos soportan mensajes TCP/IP, lo que significa que
permiten la ejecución de aplicaciones para acceder a servicios como gopher y WWW, a
diferencia de los programas de comunicaciones tradicionales, que sólo permitían la
transmisión de caracteres de texto. La mayor diferencia entrelos programas de
comunicaciones tradicionales y los basados en SLIP/PPP es que los primeros simplemente
hacen de "puente" entre el ordenador personal y el ordenador desde el que se accede a
Internet, ejecutándose los programas necesarios en este último. Con una conexión
SLIP/PPP, es el ordenador del proveedor el que hace de puente, y los programas se ejecutan
en nuestro propio ordenador. El protocolo PPP es más eficiente que el SLIP, por lo cual
está logrando una mayor popularidad.
PROTOCOLO: conjunto de normas que definen las características del formato que deben
tener las comunicaciones entre dos sistemas para poder entenderse entre sí.
RFC: Request For Comments. Son los documentos que han construido Internet. Definen
entre otras cosas los protocolos y servicios usados en la Red, desde los más básicos hasta
57
los mínimos detalles. Un RFC es lanzado como una propuesta (una "llamada a discusión"),
y a partir de los comentarios que surgen, y que pueden provenir de cualquier persona
(relativamente, ya que su nivel técnico es muy alto), se van construyendo y adoptando los
diversos protocolos y acuerdos de funcionamiento que posteriormente serán
implementados.
RTFM: Read The Fucked Manual. Lee el j***** manual. Es la respuesta habitual cuando
se hacen preguntas muy básicas en algunas listas o grupos de noticias.
SERVIDOR: en una estructura cliente-servidor, se llama servidor a un programa que ofrece
una serie de servicios, a los cuales se suele acceder por medio de programas especiales
llamados clientes. Por ejemplo, a un servidor FTP, situado en un ordenador en cualquier
lugar de la red se accede mediante programas FTP clientes, que son los que disponemos en
nuestro ordenador. Por extensión, se suele llamar servidor también al ordenador en el que
están situados estos programas.
SERVIDOR DE NOMBRES: es la máquina que traduce las direcciones de Internet en
forma de texto a direcciones IP.
SLIP: Serial Line Internet Protocol. Es uno de los protocolos usados para la conexión a
Internet por medio de líneas telefónicas.
SMILEY: ver emoticón.
SMTP: Simple Mail Transfer Protocol. Protocolo usado para la transmisión de correo
electrónico a través de Internet.
SNAIL MAIL: Correo caracol. Alusión irónica al correo "de toda la vida", en referencia a
su lentitud frente al correo electrónico.
58
SPAMMING: se llama así al envio masivo de mensajes de correo no solicitados, por lo
general de carácter comercial, a varias listas de correos, grupos de noticias, o a listas de
usuarios que pueden alcanzar miles de personas. La expresión proviene de una película de
los Monthy Pyton.
SUBJECT: asunto o título de un mensaje de correo electrónico. Es una pequeña frase que
describe el contenido del mensaje.
TAG: se llama así a cada uno de los elementos del lenguaje HTML.
TCP/IP: Tranfer Control Protocol / Internetworking Protocol. Es el protocolo básico de
Internet, a partir del cual se construyen todos los demás servicios. Define como se dividen
los mensajes, como se dirigen al receptor, y una vez que han llegado, como se
reconstruyen.
TLA: Three Letter Acronym. Acrónimo de tres letras.
URL: Uniform Resource Location. Estandard de identificación de un recurso de cualquier
tipo (ftp, web, telnet, news...) en Internet. Consta de un identificador de recurso, una
dirección y el recurso en sí: directorio en que está, grupo de news, fichero... Por ejemplo:
http://www.xe1rcs.org.mx/index.html identifica un recurso HTML (http://) situado en la
dirección www.xe1rcs.org.mx, que es el fichero index.html, correspondiente a la homepage
del proveedor xe1rcs.
USENET: una de las principales redes dentro de Internet. Muy popular ya que dentro de
ella se originó el concepto de news.
UUcode: método de codificación para enviar ficheros binarios como textos. Se usa para
enviar este tipo de ficheros por correo, bien a otros usuarios, a una lista o a grupos de news.
59
Para poder convertirlo de nuevo a un fichero binario hace falta decodificarlo. Algunos
programas lectores de correo o de news incorporan un decodificador. A los procesos de
codificar y descodificar este tipo de mensajes, así como a los programas que realizan las
conversiones, se les conoce por sus nombres en inglés: uuencode y uudecode.
VRML: Virtual Reality Modeling Language. Lenguaje similar al HTML usado para crear
mundos virtuales y animaciones en 3D, que pueden ser visualizadas con los navegadores
adecuados.
WAIS: Wide Area Information Server. Servicio que indexa un conjunto de documentos y
que permite realizar búsquedas por claves de los mismos.
WEBMASTER: Suele llamarse así al administrador de sistema de un sitio o servidor, el
cual es el encargado y responsable del mismo, además de ser en muchos casos el que de
formato y mantenimiento a las paginas contenidas en el.
WWW: World Wide Web. También conocido simplemente como el Web, es uno de los
servicios más populares de Internet. Combina texto con gráficos, imágenes, animaciones e
incluso música, enlazados entre sí de tal manera que facilita la navegación por la
información dispersa en todo Internet. Se basa en el protocolo HTTP.
X. 0: base de datos distribuida que permite conocer datos tales como nombres,
direcciones y teléfonos de personas u organizaciones en todo el mundo.
VENTAJAS Y DESVENTAJAS DEL INTERNET
La evolución y el acceso al internet en estos últimos tiempos ha crecido
enormemente y hoy hay mucha gente, especialmente las nuevas generaciones ya nacieron
60
con esto, por lo que dentro de un tiempo ya el internet será algo intrínseco en nuestras
vidas, y su crecimiento no lo podremos detener.
Ahora bien, similar a la dependencia del teléfono celular, el internet ha hecho que
muchas cosas se mejoren, haciendo procesos más eficientes, búsquedas de información
mucho más sencilla, comunicación a distancia a tiempo real, y especialmente que ha
economizado mucho los costos de los envíos de mensajes que anteriormente solo se daba
por correspondencia.
Pero también ha traído muchas cosas malas, como toda tecnología lo hace, y es
hacer que las personas sean mucho más cómodas, trabajen menos, y accesibles a otro tipo
de información desagradable.
Por lo que vale la pena listar algunas ventajas y desventajas del internet en estos últimos
tiempos:
Ventajas
Hace la comunicación mucho más sencilla.
Es posible conocer e interactuar con muchas personas de todas partes del mundo.
La búsqueda de información se vuelve mucho más sencilla, sin tener que ir
forzadamente a las bibliotecas tradicionales.
Es posible encontrar muchos puntos de vista diferente sobre alguna noticia.
Es posible la creación y descarga de software libre, por sus herramientas
colaborativas.
La computadora se actualiza periódicamente más fácil que si no tuviéramos internet.
61
Es posible encontrar soporte técnico de toda clase sobre alguna
herramienta o proceso.
El seguimiento de la información a tiempo real es posible a través del Internet.
Es posible comprar fácilmente a otras tiendas de otros
Y es posible compartir muchas cosas personales o conocimientos que a otro le
puede servir, y de esa manera, se vuelve bien provechoso.
Desventajas
Así como es de fácil encontrar información buena, es posible encontrar de la misma forma
información mala, desagradable (pornografía, violencia explícita, terrorismo) que puede
afectar especialmente a los menores.
Te genera una gran dependencia o vicio del internet, descuidandote de muchas cosas
personales o laborales.
Hace que los estudiantes se esfuercen menos en hacer sus tareas, debido a la mala
práctica del copia y pega.
El principal puente de la piratería es el internet
Distrae a los empleados en su trabajo.
Dependencia de procesos. Si hay un corte de internet, hay muchos procesos que se
quedan varados por esa dependencia.
Dependencia de energía eléctrica. Si hay un corte de energía en la casa, adios
internet (no es el caso de la telefonía convencional).
Hace que nazcan otros males tales como el spam, el malware, la proliferación de los
62
virus, el phising, etc.
Hay que saber equilibrar nuestro uso del internet para que sea provechoso en
nuestras vidas.
63
CONCLUSIÓN
Internet se ha convertido en un nuevo medio de comunicación y que día con día ha
tomado una fuerza e importancia en todas las áreas de nuestras vida. En un mundo invadido
por la información, Internet ha venido a darle mayor proyección y facilidad para que un
gran número de gente este informada, y pueda tener la oportunidad de desarrollarse y
comunicarse de una mejor manera.
Este nuevo medio de comunicación no puede ser visto de otra manera ya que lo que
conforma precisamente a la red de redes es precisamente la gran cantidad de información
que circula alrededor del mundo; llevando y trayendo datos de un lado al otro del planeta y
por lo mismo convirtiéndose en un medio que acerca continentes de una manera que hace
una década atrás lo veíamos como historia de ciencia ficción.
El gran avance tecnológico que hemos tenido en menos de diez años en cuanto a la
convergencia de voz, datos e imagen, por medio de los programas de computación nos ha
abierto la puerta para entrar en la llamada superautopista de la información y de la
comunicación. Podemos ver como Internet desde que se volcó hacia el exterior se ha ido
colocando rápidamente como un medio más de comunicación que además de ser un sistema
independiente para su transmisión como el que tiene la radio, la T. V. La prensa, también
cuenta con la capacidad de ser parte de cada uno de estos medios.
Internet juega un papel muy importante como medio de comunicación, no solo para
apoyar a los otros medios sino independientemente en diferentes áreas de la vida cotidiana,
en diversas profesiones y niveles educativos. Internet es utilizado desde las grandes
empresas para agilizar su producción y actualizar datos, hasta en el hogar para obtener la
64
información de alguna tarea escolar, alguna duda sobre el conocimiento, así como un medio
de entretenimiento y de socialización manteniendo contacto con otra cultura ya sea por
medio del correo electrónico o de los chats y las videoconferencias.
Internet reúne las características esenciales de un medio de comunicación,
cumpliendo el esquema más sencillo que propicia la comunicación, " emisor – mensaje –
receptor " y la "retroalimentación".
65
REFERENCIAS
P. Baran, "Acerca de las comunicaciones de redes distribuidas", IEEE Trans. Comm..
Systems, marzo de 1964.
V. G. Cerf y R. E. Kahn, "Un protocolo para la interconexión de paquetes de red", IEEE
Trans. Comm. Tech. , vol. COM-22, V 5, págs. 627-641, mayo de
1974.
S. Crocker, RFC001 Host software, 7 de abril de 1969.
R. Kahn, Principios de comunicación para sistemas operativos. Memorando interno
de BBN, enero 1972. Procedimientos de IEEE, edición especial sobre la las redes
de paquetes de comunicación, volumen 66, nº 11, noviembre de 1978. (Editor invitado:
Robert Kahn, editores invitados asociados: Keith Uncapher y Harry van
Trees)
L. Kleinrock, "Flujo de información en grandes redes de comunicación", informe
trimestral de progreso RLE, julio de 1961.
L. Kleinrock, Redes de comunicación: flujo y retraso estocástico de mensajes,
Mcgraw-Hill (Nueva York), 1964.
L. Kleinrock, Sistemas de cola: volumen II, aplicaciones informáticas, John Wiley
and Sons (Nueva York), 1976
J.C.R. Licklider y W. Clark, "Comunicación en línea entre el hombre y el ordenador",
agosto de 1962.
L. Roberts y T. Merrill, "Hacia una red cooperativa en ordenadores de tiempo compartido",
Conferencia AFIPS de otoño, octubre de 1966.
L. Roberts, "Múltiples redes informáticas y comunicación entre ordenadores", Conferencia
66
ACM Gatlinburg, octubre de 1967.
Autores
Barry M. Leiner fue director del Instituto de investigación para informática avanzada.
Falleció en abril de 2003. Vinton G. Cerf es vicepresidente y director
evangelista de Internet en Google.
David D. Clark investigador sénior en el Laboratorio de informática de MIT.
Robert E. Kahn es presidente de Corporation for National Research Initiatives.
Leonard Kleinrock es profesor de informática en la universidad de California, Los Ángeles,
y es presidente y fundador de Nomadix. Daniel C. Lynch es el fundador de CyberCash
Inc. y de la feria de muestras y conferencia Interop.
Jon Postel sirvió como director de la división de redes informáticas del Instituto de ciencias
de la información de la universidad de Southern California hasta su muerte el 16 de
octubre de 1998. Dr. Lawrence G. Roberts es director ejecutivo y presidente de
Anagran, Inc. Stephen Wolff trabaja con Cisco Systems, Inc.
67
ANEXOS
68
69
70