70
República Bolivariana de Venezuela Ministerio del Poder Popular para la Educación Universidad Nororiental ‘’Gran Mariscal de Ayacucho’’ Escuela de Administración de Empresas Trabajo 3 Historia del Internet. Docente: Alumna: Hamlet Mata Mata Kathlen Pereira CI: 27.380.558 El Tigre, 11 de Diciembre del 2017.

kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

  • Upload
    others

  • View
    0

  • Download
    0

Embed Size (px)

Citation preview

Page 1: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

República Bolivariana de Venezuela

Ministerio del Poder Popular para la Educación

Universidad Nororiental ‘’Gran Mariscal de Ayacucho’’

Escuela de Administración de Empresas

Trabajo 3

Historia del Internet.

Docente: Alumna:

Hamlet Mata Mata Kathlen Pereira CI: 27.380.558

El Tigre, 11 de Diciembre del 2017.

Page 2: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

2

INTRODUCCION

Existe una evolución tecnológica que comienza con la primitiva investigación en conmutación

de paquetes, ARPANET y tecnologías relacionadas en virtud de la cual la investigación actual

continúa tratando de expandir los horizontes de la infraestructura en dimensiones tales como escala,

rendimiento y funcionalidades de alto nivel. Hay aspectos de operación y gestión de una

infraestructura operacional global y compleja. Existen aspectos sociales, que tuvieron como

consecuencia el nacimiento de una amplia comunidad de internautas trabajando juntos para crear y

hacer evolucionar la tecnología. Y finalmente, el aspecto de comercialización que desemboca en una

transición enormemente efectiva desde los resultados de la investigación hacia una infraestructura

informática ampliamente desarrollada y disponible. Internet hoy en día es una infraestructura

informática ampliamente extendida. Su primer prototipo es a menudo denominado National Global or

Galactic Information Infrastructure (Infraestructura de Información Nacional Global o Galáctica).

La historia de Internet es compleja y comprende muchos aspectos: tecnológico, organizacional

y comunitario. Y su influencia alcanza no solamente al campo técnico de las comunicaciones

computacionales sino también a toda la sociedad en la medida en que nos movemos hacia el

incremento del uso de las herramientas online para llevar a cabo el comercio electrónico, la

adquisición de información y la acción en comunidad.

Se ha repetido numerosas veces, que la Internet tiene su origen en un proyecto militar estadounidense

para crear una red que uniera los centros de investigación dedicados a labores de defensa en la década

de los 60 en los Estados Unidos y que pudiera seguir funcionando a pesar de que alguno de sus

componentes fuera destruido por un hipotético ataque nuclear, los creadores de ARPANET, la red

precursora de la Internet que hoy en día conocemos, no tenían nada parecido en mente.

Page 3: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

3

Internet surgió de la necesidad cada vez más acuciante de poner a disposición de los

contratistas de la Oficina para las Tecnologías de Procesado de la Información (IPTO) más y más

recursos informáticos. El objetivo de la IPTO era buscar mejores maneras de usar los ordenadores,

yendo más allá de su uso inicial como grandes máquinas calculadoras, y cada uno de los principales

investigadores que trabajaban para la IPTO parecía querer tener su propio ordenador, lo que no sólo

provocaba una duplicación de esfuerzos dentro de la comunidad de investigadores, sino que además

era muy caro. Los ordenadores en aquella época eran cualquier cosa menos pequeña y barata.

Internet ha revolucionado la informática y las comunicaciones como ninguna otra cosa. La

invención del telégrafo, el teléfono, la radio y el ordenador sentó las bases para esta integración de

funcionalidades sin precedentes. Internet es a la vez una herramienta de emisión mundial, un

mecanismo para diseminar información y un medio para la colaboración y la interacción entre

personas y sus ordenadores, sin tener en cuenta su ubicación geográfica. Internet representa uno de

los ejemplos más exitosos de los beneficios de una inversión y un compromiso continuos en el campo

de la investigación y el desarrollo de la infraestructura de la información. Desde las primeras

investigaciones en conmutación de paquetes, el Gobierno, la Industria y la Academia se han asociado

como artífices de la evolución e implementación de esta apasionante nueva tecnología. Hoy en día,

términos como "[email protected]" y "http://www.acm.org " se escuchan a cualquier persona de

la calle.

Actualmente existe mucho material sobre Internet, material que cubre su historia, tecnología y

uso. Un viaje a prácticamente cualquier librería le permitirá encontrar estanterías llenas de material

escrito sobre Internet.

Esta historia se desarrolla a partir de cuatro aspectos diferentes; está la evolución tecnológica

que empezó con las primeras investigaciones sobre conmutación de paquetes y ARPANET (y

Page 4: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

4

tecnologías relacionadas), donde las investigaciones actuales continúan ampliando el horizonte de la

infraestructura junto con varias dimensiones, como la escala, el rendimiento y las funcionalidades de

nivel superior. Está el aspecto de operaciones y gestión de una infraestructura operativa global y

compleja. Está el aspecto social, que dio como resultado una amplia comunidad de internautas

trabajando juntos para crear y desarrollar la tecnología. Y está el aspecto de la comercialización, que

desembocó en una transición extremadamente eficaz de los resultados de las investigaciones a una

estructura de información ampliamente implementada y disponible.

¿QUÉ ES EL INTERNET?

Internet, como la conocemos hoy en día, es una infraestructura de información muy difundida,

el prototipo inicial de lo que se llama a menudo la Infraestructura de Información Nacional (o Global,

o Galáctica). Su historia es compleja e implica muchos aspectos: tecnológicos, organizativos y

comunitarios. Y su influencia no solo alcanza los campos técnicos de las comunicaciones

informáticas, sino también a toda la sociedad, ya que nos movemos hacia un uso mayor de las

herramientas en línea para el comercio electrónico, la obtención de información y las operaciones

comunitarias.

El nombre de Internet procede de las palabras Interconnected Networks, lo cual significa

‘’redes interconectadas’’. Se puede decir que el internet es la unión de todas las redes y computadoras

que se encuentran distribuidas en el mundo, por lo que se define como una red global en la que se

encuentran unidas todas las redes que utilizan protocolos TPC/IP y que son compatibles entre sí.

El internet es también conocido como la ‘’red de redes’’, en la cual participan cualquier tipo

de computadoras, desde grandes sistemas hasta modelos personales. En la red se dan citas,

instituciones oficiales, gubernamentales, educativas, científicas y empresariales cuya información se

encuentra a disposición de cualquier persona que tenga acceso al internet.

Page 5: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

5

El internet resultó de un experimento realizado en 1969 por el Departamento de Defensa de

Estados Unidos, el cual fue materializado en el desarrollo de ARPAnet, la cual es una red que

enlazaba universidades y centros de alta tecnología con contratistas de dicho departamento. Tenía el

objetivo el intercambio de datos entre científicos y militares. A esta red se unieron nodos de Europa y

del resto del mundo, formando lo que se conoce como la gran telaraña mundial o World Wide Web,

dejando de existir en el año 1990.

ORIGENES DEL INTERNET

La primera descripción registrada de las interacciones sociales que se podían habilitar

a través de la red fue una serie de memorandos escritos por J.C.R. Licklider, del MIT, en

agosto de 1962, en los que describe su concepto de “Red galáctica”. Imaginó un conjunto

de ordenadores interconectados globalmente, a través de los que todo el mundo podría

acceder rápidamente a datos y programas desde cualquier sitio. En espíritu, el concepto era

muy similar a la Internet de hoy en día. Licklider era el director del programa de

investigación informática de DARPA,4 que comenzó en octubre de 1962. Mientras estaba

en DARPA convenció a sus sucesores en dicha agencia (Ivan Sutherland, Bob Taylor y

Lawrence G. Roberts, investigador del MIT), de la importancia de su concepto de red.

Leonard Kleinrock, del MIT, publicó el primer documento sobre la teoría de

conmutación de paquetes en julio de 1961 y el primer libro sobre el tema en 1964

Kleinrock convenció a Roberts de la factibilidad teorética de comunicarse usando paquetes

en vez de circuitos, lo que fue un gran paso en el viaje hacia las redes informáticas. El otro

paso clave fue conseguir que los ordenadores hablasen entre sí. Para explorar esta idea, en

1965, trabajando con Thomas Merrill, Roberts conectó el ordenador TX-2, en

Page 6: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

6

Massachusetts, con el Q-32, en California, mediante una línea telefónica conmutada de baja

velocidad, creando la primera (aunque pequeña) red de área amplia del mundo. El resultado

de este experimento fue la constatación de que los ordenadores con tiempo compartido

podían trabajar bien juntos, ejecutando programas y recuperando datos según fuese

necesario en el equipo remoto, pero que el sistema telefónico de conmutación de circuitos

era totalmente inadecuado para esa tarea. Se confirmó la convicción de Kleinrock de la

necesidad de la conmutación de paquetes.

A finales de 1966, Roberts entró en DARPA para desarrollar el concepto de redes

informáticas y rápidamente creó su plan para "ARPANET", que publicó en 1967. En la

conferencia en la que presentó el artículo había otra ponencia sobre el concepto de redes de

paquetes, que venía del Reino Unido, de la mano de Donald Davies y Roger Scantlebury,

del NPL. Scantlebury le comentó a Roberts el trabajo del NPL y el de Paul Baran y otras

personas de RAND. El grupo RAND había escrito un artículo sobre redes de conmutación

de paquetes para cifrar comunicaciones de voz en el ejército en 1964. La labor del MIT

(1961- 1967), de RAND (1962-1965) y del NPL (1964-1967) se había llevado a cabo en

paralelo sin que los investigadores conociesen el trabajo de los demás. Se adoptó el término

“paquete” del trabajo del NPL, y la velocidad de línea propuesta en el diseño de ARPANET

pasó de 2,4 kbps a 50 kbps. 5

En agosto de 1968, después de que Roberts y la comunidad financiada por DARPA

redefinieran la estructura general y las especificaciones de ARPANET, DARPA publicó

una solicitud de presupuesto para desarrollar uno de los componentes clave, los

conmutadores de paquetes llamados procesadores de mensajes de interfaz (IMP). La

Page 7: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

7

solicitud de presupuesto la ganó en diciembre de 1968 un grupo liderado por Frank Heart,

de Bolt, Beranek y Newman (BBN). Mientras el equipo de BNN trabajaba en los IMP con

Bob Kahn desempeñando un importante papel en el diseño arquitectónico general de

ARPANET, Roberts, junto con Howard Frank y su equipo de Network Analysis

Corporation, diseñaron la topología y la economía de la red. El sistema de medición de la

red lo preparó el equipo de Kleinrock en UCLA. 6

Debido al temprano desarrollo de Kleinrock de la teoría de conmutación de paquetes y a su

trabajo en el análisis, el diseño y la medición, su Network Measurement Center de UCLA

fue seleccionado como el primer nodo de ARPANET. Se recogió el fruto de estos esfuerzos

en septiembre de 1969, cuando BBN instaló el primer IMP en UCLA y se conectó el primer

host. El proyecto de Doug Engelbart, “Augmentation of Human Intellect” (aumento del

intelecto humano, que incluía NLS, un antecedente del sistema de hipertexto), en el

Standford Research Institute (SRI), fue el segundo nodo. El SRI estaba detrás del Network

Information Center, liderado por Elizabeth (Jake) Feinler, que incluía funciones como

mantenimiento de tablas de nombres de host para asignar direcciones, así como de un

directorio de RFC.

Un mes más tarde, cuando el SRI se conectó a ARPANET, se envió el primer

mensaje de host a host desde el laboratorio de Kleinrock hasta el SRI. Se añadieron dos

nodos más, en la Universidad de California en Santa Bárbara y en la Universidad de Utah.

Estos dos últimos nodos incorporaron proyectos de visualización de aplicaciones, con Glen

Culler y Burton Fried, de la Universidad de California en Santa Bárbara, investigando

métodos para mostrar funciones matemáticas usando pantallas de almacenamiento para

resolver el problema de la actualización en la red, y Robert Taylor e Ivan Sutherland, de

Page 8: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

8

Utah, investigando métodos de representación 3D en la red. De esta manera, a finales de

1969, había cuatro hosts conectados en la ARPANET inicial, e Internet iniciaba su

trayectoria. Incluso en esta primera etapa, conviene destacar que la investigación sobre

redes incorporaba trabajo sobre la red subyacente y trabajo sobre cómo usar la red. Esta

tradición continúa hoy en día.

En los siguientes años, se añadieron rápidamente ordenadores a ARPANET, y se

siguió trabajando para conseguir un protocolo de host a host funcionalmente completo y

otro software de red. En diciembre de 1970, el Network Working Group (NWG), bajo el

liderazgo de S. Crocker, terminó el protocolo de host a host inicial de ARPANET, llamado

Network Control Protocol (NCP). Cuando los sitios de ARPANET terminaron de

implementar NCP, en el periodo de 1971 a 1972, los usuarios de la red pudieron, por fin,

comenzar a desarrollar aplicaciones.

En octubre de 1972, Kahn organizó una gran demostración de ARPANET, que tuvo

mucho éxito, en la International Computer Communication Conference (ICCC). Fue la

primera demostración pública de esta nueva tecnología de redes. En 1972 también se

introdujo la aplicación “hot” inicial, el correo electrónico. En marzo, Ray Tomlinson, de

BBN, escribió el software básico de envío y lectura de mensajes de correo electrónico,

motivado por la necesidad de los desarrolladores de ARPANET de un mecanismo sencillo

de coordinación. En julio, Roberts amplió su utilidad escribiendo la primera utilidad de

correo electrónico para hacer listas de mensajes, leerlos selectivamente, archivarlos,

reenviarlos y responder a los mismos. A partir de ese momento, el correo electrónico se

convirtió en la aplicación de red más importante durante más de una década. Esto presagió

Page 9: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

9

el tipo de actividad que vemos hoy en día en la World Wide Web, es decir, un crecimiento

enorme de todo tipo de tráfico “de persona a persona”

PRIMEROS CONCEPTOS DEL INTERNET

La ARPANET original se convirtió en Internet. Internet se basó en la idea de que

habría múltiples redes independientes con un diseño bastante arbitrario, empezando por

ARPANET como red pionera de conmutación de paquetes, pero que pronto incluiría redes

de paquetes satélite, redes terrestres de radiopaquetes y otras redes. Internet tal y como la

conocemos hoy en día plasma una idea técnica subyacente fundamental, que es la de red de

arquitectura abierta. En este enfoque, la selección de una tecnología de redes no la dictaba

una arquitectura particular de redes, sino que la podía elegir libremente un proveedor y

hacerla trabajar con las demás redes a través de una “metaarquitectura de interredes”. Hasta

ese momento solo había un método general para federar redes. Era el método tradicional de

conmutación de circuitos, en el que las redes se interconectaban a nivel de circuito, pasando

bits individuales de forma síncrona a través de una parte de un circuito completo entre un

par de ubicaciones finales. Recordemos que Kleinrock había demostrado en 1961 que la

conmutación de paquetes era un método de conmutación más eficiente. Además de la

conmutación de paquetes, las interconexiones entre redes con fines especiales eran otra

posibilidad. Aunque había otras maneras limitadas de interconectar redes diferentes, era

necesario usar una como componente de la otra, y la primera no actuaba como par de la

segunda ofreciendo servicios de extremo a extremo.

En una red de arquitectura abierta, las redes individuales se pueden diseñar y desarrollar

Page 10: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

10

por separado, cada una con su propia interfaz única, que puede ofrecerse a usuarios y otros

proveedores, incluyendo otros proveedores de Internet. Se puede diseñar cada red según el

entorno específico y los requisitos de los usuarios de esa red. En general, no existen

restricciones sobre el tipo de redes que se pueden incluir o sobre su alcance geográfico,

aunque ciertas consideraciones pragmáticas dictaminan lo que tiene sentido ofrecer.

La idea de las redes de arquitectura abierta la introdujo por primera vez Kahn, poco después

de llegar a DARPA, en 1972. Su labor era

originalmente parte del programa de radiopaquetes, pero posteriormente se convirtió en un

programa independiente por derecho propio. En aquel momento, el programa se llamó

“Internetting”. La clave para que el sistema de radiopaquetes funcionase era un protocolo

de extremo a extremo fiable que pudiera mantener una comunicación efectiva frente a

bloqueos y otras interferencias de radio, o soportar cortes intermitentes como los causados

cuando se entra en un túnel o el terreno bloquea la señal. Kahn, al principio, se planteó

desarrollar un protocolo solo para la red de radiopaquetes, ya que así evitaría tratar con una

multitud de diferentes sistemas operativos, y seguir usando NCP.

Sin embargo, NCP no tenía la capacidad de dirigirse a redes (ni a máquinas) que estuvieran

más allá de un IMP de destino de ARPANET, de modo que también hacía falta algún

cambio en NCP. (Se asumía que ARPANET no se podía cambiar en este sentido). NCP

dependía de ARPANET para ofrecer fiabilidad de extremo a extremo. Si se perdía algún

paquete, el protocolo (y probablemente las aplicaciones a las que este daba soporte) se

pararía de repente. En este modelo, NCP no tenía control de errores de host de extremo a

extremo, ya que ARPANET sería la única red, y tan fiable que no haría falta un control de

Page 11: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

11

errores por parte de los hosts. Así pues, Kahn decidió desarrollar una nueva versión del

protocolo que podría cubrir las necesidades de un entorno de redes de arquitectura abierta.

Este protocolo se llamaría más adelante Protocolo de Control de Transmisión/Protocolo de

Internet (TCP/IP). Mientras que NCP tendía a actuar como un controlador de dispositivo, el

nuevo protocolo se parecería más a un protocolo de comunicaciones.

Cuatro reglas básicas fueron fundamentales en la primera concepción de Kahn:

Cada red diferente debería mantenerse por sí misma, y no debía ser necesario

cambio interno alguno para que esas redes se conectasen a Internet.

La comunicación se haría en base al mejor esfuerzo. Si un paquete no llegaba a su

destino final, se retransmitía poco después desde el origen.

Se usarían cajas negras para conectar las redes; más adelante, estas cajas negras se

llamarían puertas de enlace y enrutadores. Las puertas de enlace no guardarían

información acerca de los flujos individuales de paquetes que pasaban por las

mismas, manteniendo su sencillez y evitando la complicación de la adaptación y la

recuperación a partir de varios modos de error.

No habría control global a nivel operativo.

Otros problemas clave que había que resolver eran:

Algoritmos para evitar que los paquetes perdidos impidiesen permanentemente las

Page 12: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

12

comunicaciones y permitir que dichos paquetes se retransmitiesen correctamente

desde el origen.

Ofrecer “segmentación” de host a host para que se pudiesen enviar múltiples

paquetes desde el origen hasta el destino, según el criterio de los hosts, si las redes

intermedias lo permitían.

Funciones de puerta de enlace para poder reenviar paquetes de manera adecuada.

Esto incluía interpretar encabezados IP para enrutar, manejar interfaces, dividir

paquetes en partes más pequeñas si era necesario, etc.

La necesidad de sumas de verificación de extremo a extremo, reensamblaje de

paquetes a partir de fragmentos y detección de duplicados.

La necesidad de un abordaje global

Técnicas para el control del flujo de host a host.

Interfaces con los diferentes sistemas operativos

Había además otras preocupaciones, como la eficacia en la implementación y el

rendimiento de las redes, pero estas, en principio, eran consideraciones secundarias.

Kahn comenzó a trabajar en un conjunto orientado a las comunicaciones de principios para

sistemas operativos en BBN y documentó algunas de sus ideas iniciales en un

memorándum interno de BBN titulado "Principios de comunicación para sistemas

operativos". En este momento, se dio cuenta de que sería necesario conocer los detalles de

implementación de cada sistema operativo para tener la oportunidad de integrar cualquier

protocolo nuevo de una forma eficaz. Así pues, en la primavera de 1973, tras comenzar el

trabajo de lo que sería Internet, pidió a Vint Cerf (que entonces estaba en Stanford) que

colaborase con él en el diseño detallado del protocolo. Cerf había estado involucrado de

Page 13: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

13

lleno en el diseño y desarrollo original de NCP, y ya tenía conocimiento sobre las interfaces

de los sistemas operativos existentes. Así que, armados con el enfoque arquitectónico de

Kahn para la parte de comunicaciones y con la experiencia de Cerf en NCP, se unieron para

crear lo que se convertiría en TCP/IP.

Su colaboración fue muy productiva, y la primera versión escrita7 del enfoque resultante se

distribuyó en una reunión especial del International Network Working Group (INWG), que

se había creado en una conferencia de la Universidad de Sussex en septiembre de 1973. Se

había invitado a Cerf a presidir ese grupo, y aprovechó la ocasión para celebrar una reunión

con los miembros del INWG que eran numerosos en la Conferencia de Sussex.

Emergieron algunos enfoques básicos de esta colaboración entre Kahn y Cerf:

La comunicación entre dos procesos consistiría lógicamente en una secuencia

larguísima de bytes (los llamaron octetos). Se usaría la posición de un octeto en la

secuencia para identificarlo.

El control de flujo se haría usando ventanas deslizantes y confirmaciones (acks). El

destino podría decidir cuándo confirmar, y cada ack devuelta se acumularía para

todos los paquetes recibidos hasta ese momento.

No se concretó la manera exacta en la que el origen y el destino acordarían los

parámetros de división de particiones que se usaría. Al principio se usaban los

valores predeterminados.

Aunque en ese momento se estaba desarrollando Ethernet en Xerox PARC, la

proliferación de LAN no se imaginaba entonces, y mucho menos la de los

Page 14: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

14

ordenadores personales y las estaciones de trabajo. El modelo original era de redes

nacionales como ARPANET, y se esperaba que existiese un pequeño número de las

mismas. Así pues, se usó una dirección IP de 32 bits, en la que los primeros 8 bits

indicaban la red y los 24 bits restantes designaban el host de esa red. Fue evidente

que habría que reconsiderar esta suposición, la de que sería suficiente con 256 redes

en el futuro inmediato, cuando empezaron a aparecer las LAN a finales de los años

70.

El artículo original de Cerf y Kahn sobre Internet describía un protocolo, llamado TCP, que

ofrecía todos los servicios de transporte y reenvío de Internet. La intención de Kahn era que

el protocolo TCP soportase una serie de servicios de transporte, desde la entrega

secuenciada totalmente fiable de datos (modelo de circuito virtual) hasta un servicio de

datagrama, en el que la aplicación hacía un uso directo del servicio de red subyacente, lo

que podía implicar la pérdida, la corrupción y la reordenación de paquetes. Sin embargo, el

primer intento de implementar TCP produjo una versión que solo permitía circuitos

virtuales. Este modelo funcionó bien para aplicaciones de inicio de sesión remoto y

transferencia de archivos, pero algunos de los primeros trabajos en aplicaciones de red

avanzadas, en particular la voz por paquetes de los años 70, dejaron claro que en algunos

casos la pérdida de paquetes no podía ser corregida por TCP, y la aplicación debería

encargarse de ella. Esto llevó a reorganizar el TCP original en dos protocolos, el IP

simple, que solo dirigía y reenviaba paquetes individuales, y el TCP por separado, que

se ocupaba de funciones del servicio como el control de flujos y la recuperación de

paquetes perdidos. Para las aplicaciones que no querían los servicios de TCP, se añadió una

alternativa llamada Protocolo de datagramas de usuario (UDP) para ofrecer acceso directo a

Page 15: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

15

los servicios básicos de IP.

Una de las principales motivaciones iniciales de ARPANET e Internet era compartir

recursos, por ejemplo, permitir a los usuarios de las redes de radiopaquetes acceder a

sistemas de tiempo compartido conectados a ARPANET. Conectar ambos era mucho más

económico que duplicar estos ordenadores tan caros. Sin embargo, aunque la transferencia

de archivos y el inicio de sesión remoto (Telnet) eran aplicaciones muy importantes, el

correo electrónico ha sido, probablemente, la innovación de aquella época con mayor

impacto. El correo electrónico ofreció un nuevo modelo de comunicación entre las

personas, y cambió la naturaleza de la colaboración, primero en la creación de la propia

Internet (como se comenta a continuación) y después para gran parte de la sociedad.

Se propusieron otras aplicaciones en los primeros tiempos de Internet, incluyendo la

comunicación de voz basada en paquetes (el precursor de la telefonía por Internet), varios

modelos para compartir archivos y discos y los primeros programas “gusano” que

mostraron el concepto de agentes (y, por supuesto, virus). Un concepto clave de Internet es

que no se había diseñado solo para una aplicación, sino como una infraestructura general en

la que se podían concebir nuevas aplicaciones, como se ilustró más adelante con la

aparición de la World Wide Web. Es la naturaleza generalista del servicio que ofrecen TCP

e IP la que lo hace posible.

Demostrando las ideas

DARPA firmó tres contratos con Stanford (Cerf), BBN (Ray Tomlinson) y UCL (Peter

Page 16: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

16

Kirstein) para implementar TCP/IP (en el artículo de Cerf y Kahn se llamaba simplemente

TCP, pero contenía ambos componentes). El equipo de Stanford, liderado por Cerf, produjo

la especificación detallada y, en un año aproximadamente, se realizaron tres

implementaciones independientes de TCP que podían interoperar.

Este fue el principio de una experimentación y desarrollo a largo plazo para perfeccionar y

madurar los conceptos y la tecnología de Internet. Empezando con las tres primeras redes

(ARPANET, red de radiopaquetes y red satélite de paquetes) y sus primeras comunidades

de investigación, el entorno experimental incorpora ya prácticamente cualquier forma de

red y una comunidad de investigación y desarrollo con una base muy amplia. [REK78] Con

cada expansión se han presentado nuevos desafíos.

Las primeras implementaciones de TCP se hicieron con grandes sistemas de tiempo

compartido como Tenex y TOPS 20. Cuando aparecieron los ordenadores de sobremesa por

primera vez, algunos pensaron que TCP era demasiado grande y complejo para ejecutarse

en un ordenador personal. David Clark y su grupo de investigación del MIT se propusieron

demostrar que se podía hacer una implementación compacta y sencilla de TCP. Produjeron

una implementación, primero para el Xerox Alto (la primera estación de trabajo personal

desarrollada por Xerox PARC) y después para el IBM PC. La implementación era

completamente interoperable con otros TCP, pero se adaptó al conjunto de aplicaciones y

los objetivos de rendimiento de los ordenadores personales, y demostró que las estaciones

de trabajo, además de grandes sistemas de tiempo compartido, podían ser parte de Internet.

En 1976, Kleinrock publicó el primer libro sobre ARPANET. Destacaba la complejidad de

los protocolos y las dificultades que a menudo introducían. Este libro fue influyente a la

Page 17: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

17

hora de difundir el conocimiento sobre las redes de conmutación de paquetes entre una

comunidad muy amplia.

El amplio desarrollo de LAN, PC y estaciones de trabajo en los años 80 permitió florecer a

la incipiente Internet. La tecnología de Ethernet, desarrollada por Bob Metacalfe en Xerox

PARC en 1973, es ahora probablemente la tecnología de redes dominante en Internet, y los

PC y las estaciones de trabajo son los ordenadores dominantes. Este cambio entre tener

unas cuantas redes con un número modesto de hosts de tiempo compartido (el modelo

original de ARPANET) y tener muchas redes ha originado una serie de conceptos nuevos y

cambios en la tecnología subyacente. Primero, tuvo como resultado la definición de tres

clases de redes (A, B y C) para acomodar todas las redes. La clase A representaba las

grandes redes a escala nacional (un pequeño número de redes con gran número de hosts); la

clase B representaba las redes a escala regional, y la clase C representaba las redes de área

local (un gran número de redes con relativamente pocos hosts).

Hubo un gran cambio como resultado del aumento de la escala de Internet y sus problemas

de gestión asociados. Para que la gente encontrase fácil el uso de la red, se asignaron

nombres a los hosts, de modo que no era necesario recordar las direcciones numéricas.

Originalmente, había un número bastante limitado de hosts, de modo que era factible

mantener una sola tabla con todos los hosts y sus

nombres y direcciones asociados. El cambio de tener un gran número de redes gestionadas

de manera independiente (por ejemplo, LAN) significaba que tener una sola tabla de hosts

ya no era factible, y Paul Mockapetris, de USC/ISI, inventó el sistema de nombres de

dominio (DNS). El DNS permitía un mecanismo escalable distribuido para resolver

Page 18: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

18

nombres de hosts jerárquicos (por ejemplo, www.acm.org) en una dirección de Internet.

El aumento de tamaño de Internet también desafiaba las capacidades de los enrutadores.

Originalmente, existía un solo algoritmo distribuido para enrutar que se implementaba de

manera uniforme en todos los enrutadores de Internet. Cuando aumentó tanto el número de

redes en Internet, su diseño inicial no se pudo ampliar lo suficiente, de modo que se

reemplazó por un modelo de enrutamiento jerárquico, con un Protocolo de puerta de enlace

interna (IGP) que se usaba dentro de cada región de Internet, y un Protocolo de puerta de

enlace externa (EGP) que se usaba para unir las regiones. Este diseño permitió que las

diferentes regiones usasen un IGP diferente, de modo que se podían cumplir diferentes

requisitos de coste, velocidad de reconfiguración, robustez y escala. No solo el algoritmo de

enrutamiento, sino también el tamaño de las tablas de direccionamiento suponía un reto

para la capacidad de los enrutadores. Nuevos enfoques para la agregación de direcciones,

en particular el enrutamiento entre dominios sin clases (CIDR), se han introducido

recientemente para controlar el tamaño de las tablas de los enrutadores.

Conforme evolucionó Internet, uno de los principales desafíos fue cómo propagar los

cambios al software, en particular al software de host. DARPA apoyó a UC Berkeley para

investigar modificaciones del sistema operativo Unix, incluyendo la incorporación de

TCP/IP, desarrollado en BBN. A pesar de que Berkeley reescribió después el código de

BBN para que encajase de una forma más eficiente en el sistema y kernel de Unix, la

incorporación de TCP/IP en el sistema Unix BSD demostró ser un elemento fundamental

para la difusión de los protocolos entre la comunidad investigadora. Gran parte de la

comunidad investigadora informática empezó a usar Unix BSD en su entorno informático

Page 19: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

19

diario. Echando la vista atrás, vemos que la estrategia de incorporar protocolos de Internet

en un sistema operativo compatible para la comunidad investigadora fue uno de los

elementos clave para el éxito de Internet.

Uno de los retos más interesantes fue la transición del protocolo de host de ARPANET de

NCP a TCP/IP el 1 de enero de 1983. Fue una transición “histórica”, que exigió que todos

los hosts se convirtiesen simultáneamente para no tener que comunicarse a través de

mecanismos especiales. Esta transición se planificó cuidadosamente en la comunidad

durante años antes de llevarse a cabo realmente, y fue sorprendentemente bien (pero dio

como resultado que se distribuyeran chapas con las palabras “Yo sobreviví a la transición a

TCP/IP”).

TCP/IP se había adoptado como estándar en Defensa tres años antes, en 1980. Esto permitió

a Defensa empezar a compartir en la base de tecnología de Internet de DARPA, y llevó

directamente a la división de las comunidades militar y no militar. En 1983, ARPANET la

usaba un número significativo de organizaciones operativas y de I+D de Defensa. La

transición de ARPANET de NCP a TCP/IP le permitió dividirse en MILNET, que cumplía

requisitos operativos, y ARPANET, que cubría las necesidades de investigación.

Así pues, para 1985 Internet ya estaba bien establecida como tecnología que daba cobertura

a una amplia comunidad de investigadores y desarrolladores, y empezaba a ser usada por

otras comunidades para comunicaciones informáticas diarias. El correo electrónico se usaba

ampliamente entre varias comunidades, a menudo con diferentes sistemas, pero la

interconexión entre diferentes sistemas de correo demostraba lo útil que era una amplia

Page 20: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

20

comunicación electrónica entre la gente.

Transición a una infraestructura muy difundida

A la vez que la tecnología de Internet se estaba validando experimentalmente y usando

ampliamente entre un subconjunto de investigadores informáticos, se estaban buscando

otras redes y tecnologías de red. La utilidad de las redes de ordenadores (en especial en lo

que se refiere al correo electrónico) demostrada por DARPA y las personas al servicio del

Ministerio de Defensa en ARPANET, no pasó desapercibida para otras comunidades y

disciplinas, de modo que a mediados de los años 70 habían empezado a aparecer redes de

ordenadores donde lo permitía la financiación disponible. El Ministerio de Energía (DoE)

de EE.UU. creó MFENet para sus investigadores en energía de fusión magnética, y los

físicos de altas energías del DoE respondieron creando HEPNet. Los físicos espaciales de la

NASA fueron los siguientes, con SPAN, y Rick Adrion, David Farber y Larry Landweber

crearon CSNET para la comunidad informática (académica e industrial) con una beca

inicial de la National Science Foundation (NSF) de EE.UU. La amplia difusión por parte de

AT&T del sistema operativo UNIX creó USENET, basado en los protocolos de

comunicaciones UUCP integrados en UNIX, y en 1981 Ira Fuchs y Greydon Freeman

crearon BITNET, que

conectaba mainframes de la universidad en un paradigma de “correo electrónico como

imágenes de tarjetas”.

Con la excepción de BITNET y USENET, estas primeras redes (incluyendo ARPANET) se

crearon con un objetivo, es decir, estaban dirigidas, y muy restringidas, a comunidades

Page 21: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

21

cerradas de eruditos; por lo tanto, había poca presión para que las redes individuales fuesen

compatibles y, de hecho, la mayoría no lo eran. Además, empezaron a emprenderse

tecnologías alternativas en el sector comercial, incluyendo XNS de Xerox, DECNet y SNA

de IBM.8 El programa británico JANET (1984) y el estadounidense NSFNET (1985)

anunciaron explícitamente que tenían la intención de dar servicio a toda la comunidad de la

educación superior, sin importar la disciplina. De hecho, una condición para que una

universidad estadounidense recibiera financiación de la NSF para contar con una conexión

a Internet era: "... la conexión debe estar disponible para TODOS los usuarios cualificados

del campus”.

En 1985, Dennis Jennings llegó desde Irlanda para pasar un año en la NSF, liderando el

programa NSFNET. Trabajó con la comunidad para ayudar a la NSF a tomar una decisión

muy importante: que TCP/IP fuese obligatorio para el programa NSFNET. Cuando Steve

Wolff asumió la responsabilidad del programa NSFNET en 1986, reconoció la necesidad

de una infraestructura de red de área amplia para dar cobertura a toda la comunidad

académica e investigadora, además de la necesidad de desarrollar una estrategia para

establecer esa infraestructura de manera que, en último término, fuese independiente de la

financiación federal directa. Se adoptaron políticas y estrategias (ver a continuación) para

conseguir ese fin.

La NSF también eligió respaldar la infraestructura organizativa de Internet que existía en

DARPA, organizada jerárquicamente a las órdenes de la (entonces) Internet Activities

Board (IAB). La declaración pública de esta elección fue realizada conjuntamente por las

Internet Engineering and Architecture Task Forces de la IAB y el Network Technical

Page 22: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

22

Advisory Group of RFC 985 (Requirements for Internet Gateways ) de la NSF, que

aseguraron formalmente la interoperabilidad entre la Internet de DARPA y la de la NSF.

Además de seleccionar TCP/IP para el programa NSFNET, las agencias federales tomaron

e implementaron otras decisiones políticas que formaron la Internet de hoy en día.

Las agencias federales compartieron el coste de una

infraestructura común, como los circuitos transoceánicos. También

se encargaron conjuntamente de los “puntos gestionados de interconexión” para el

tráfico entre agencias; los Federal Internet Exchanges (FIX-E y FIX-W) creados con

este fin sirvieron como modelos para los puntos de acceso a la red y las

instalaciones “*IX”, que son características fundamentales de la arquitectura actual

de Internet.

Para coordinar esta distribución, se formó el Federal Networking Council 9. El FNC

también cooperaba con otras organizaciones internacionales, como RARE en

Europa, a través del Coordinating Committee on Intercontinental Research

Networking (CCIRN), para coordinar la cobertura en Internet de la comunidad

investigadora de todo el mundo.

Esta forma de compartir y cooperar entre agencias en temas relacionados con

Internet tenía una larga historia. Un acuerdo sin precedentes que se produjo en 1981

entre Farber, en nombre de CSNET y la NSF, y Kahn, en nombre de DARPA,

permitió que el tráfico de CSNET compartiese la infraestructura de ARPANET

basándose en estadísticas y sin cifras previas.

Después, y de manera similar, la NSF alentó a sus redes regionales (inicialmente

Page 23: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

23

académicas) de NSFNET a buscar clientes comerciales, no académicos, a ampliar

sus instalaciones para darles servicios y a utilizar el dinero resultante para reducir

los costes de abono a todo el mundo.

En la red troncal de NSFET (el segmento a escala nacional de NSFET), la NSF

impuso una “Directiva de uso aceptable” (AUP) que prohibía el uso de la red

troncal para fines “ajenos a la investigación y la educación”. El resultado predecible

(y buscado) de alentar el tráfico de redes comerciales a nivel local y regional,

mientras se negaba el acceso al transporte a escala nacional, era estimular la

aparición y crecimiento de redes “privadas”, competitivas y de largo alcance, como

PSI, UUNET, ANS CO+RE y (más adelante) otras. Este proceso de aumento

financiado por empresas privadas para usos comerciales fue muy criticado desde

1988 en una serie de conferencias iniciadas por la NSF en la Escuela de Gobierno

Kennedy de Harvard acerca de “La comercialización y privatización de Internet”, y

en la propia lista de la red “com-priv”.

En 1988, un comité del Consejo Nacional de Investigaciones, presidido por

Kleinrock y con Kahn y Clark como miembros, presentó un informe encargado por

la NSF titulado “Hacia una red de investigación nacional”. Este informe influyó en

el entonces senador Al Gore, y marcó el comienzo de las redes de alta velocidad que

fueron la base de la futura autopista de la información.

En 1994, se publicó un informe del Consejo Nacional de Investigaciones, presidido

de nuevo por Kleinrock (y con Kahn y Clark como miembros una vez más), titulado

“Haciendo realidad el futuro de la información: Internet y después”. Este informe,

encargado por la NSF, fue el documento en el que se articuló el programa para la

Page 24: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

24

evolución de la autopista de la información, y que ha tenido un efecto duradero en la

manera en que se concibe su evolución. Anticipó los problemas fundamentales de

derechos de propiedad intelectual, ética, precios, educación, arquitectura y

regulación de Internet.

La política de privatización de la NSF culminó en abril de 1995, con la eliminación

de la financiación de la red troncal de NSFNET. Los fondos así recuperados se

redistribuyeron (competitivamente) entre redes regionales para adquirir

conectividad a Internet a escala nacional de las entonces numerosas redes privadas

de largo alcance.

La red troncal había hecho la transición de una red construida a partir de enrutadores de la

comunidad investigadora (los enrutadores “Fuzzball” de David Mills) a los equipos

comerciales. En su vida de 8 años y medio, la red troncal había pasado de seis nodos con

enlaces a 56 kbps a 21 nodos con múltiples enlaces a 45 Mbps. Había visto cómo Internet

pasaba a tener más de 50.000 redes en los siete continentes y el espacio exterior, con

aproximadamente 29.000 redes en Estados Unidos.

Tal era el peso del ecumenismo y la financiación del programa NSFNET (200.000 millones

de dólares desde 1986 hasta 1995) (y de la calidad de los propios protocolos), que en 1990,

cuando finalmente se retiró del servicio ARPANET 10, , TCP/IP había suplantado o

marginado a la mayoría de los demás protocolos de red de área amplia, e IP se estaba

convirtiendo a pasos agigantados en EL servicio portador de la infraestructura global de

información.

Page 25: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

25

El papel de la documentación

Una clave para el rápido crecimiento de Internet ha sido el acceso abierto y gratuito a los

documentos básicos, en especial las especificaciones de los protocolos.

Los principios de ARPANET e Internet en la comunidad investigadora universitaria

promovieron la tradición académica de publicar ideas y resultados de forma abierta. Sin

embargo, el ciclo normal de las publicaciones académicas tradicionales era demasiado

formal y demasiado lento para el intercambio dinámico de ideas esencial para la creación

de redes.

En 1969, S. Crocker (en UCLA en aquel momento) dio un paso esencial al establecer las

series de notas Petición de comentarios (o RFC). La idea de estos memorandos era que

fuesen una forma de distribución informal y rápida para compartir ideas con otros

investigadores de la red. Al principio, las RFC se imprimían en papel y se distribuían a

través del correo ordinario. Cuando se empezó a usar el Protocolo de Transferencia de

Archivos (FTP), las RFC se preparaban como archivos en línea y se accedía a ellas a través

de FTP. Hoy en día, por supuesto, se accede a las RFC fácilmente a través de la World

Wide Web en numerosos sitios de todo el mundo. El SRI, en su papel de Centro de

Información de Redes, mantenía los directorios en línea. Jon Postel fue editor de RFC

además de gestionar la administración centralizada de las asignaciones necesarias de

números de protocolo, trabajos que ejerció hasta su muerte, el 16 de octubre de 1998.

El efecto de las RFC fue crear un bucle de comentarios positivos, en el que las ideas y

propuestas presentadas en una RFC desencadenaban otra RFC con ideas adicionales, y así

sucesivamente. Cuando se conseguía un consenso (o al menos un conjunto coherente de

ideas), se preparaba un documento de especificaciones. Después, varios equipos de

Page 26: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

26

investigación usaban esas especificaciones como base para las implementaciones.

Con el tiempo, las RFC se han ido centrando más en los estándares de los protocolos (las

especificaciones “oficiales”), aunque siguen existiendo RFC informativas que describen

enfoques alternativos, u ofrecen información sobre los antecedentes de los protocolos y los

problemas de ingeniería. Hoy en día, las RFC se conciben como “documentos oficiales” en

la comunidad de ingeniería y estándares de Internet.

El acceso abierto a las RFC (gratuito, si tiene cualquier tipo de conexión a Internet)

promueve el crecimiento de Internet porque permite usar las especificaciones reales como

ejemplos en clases y entre los emprendedores que desarrollan nuevos sistemas.

El correo electrónico ha sido un factor significativo en todas las áreas de Internet, y eso es

especialmente cierto en el desarrollo de especificaciones de protocolos y estándares

técnicos y en la ingeniería de Internet. Las primeras RFC solían presentar un conjunto de

idas desarrolladas por un determinado grupo de investigadores, ubicado en un punto

concreto, que las presentaban al resto de la comunidad.

Cuando se empezó a usar el correo electrónico, el patrón de autoría cambió: las RFC eran

presentadas por varios autores con una visión común, independientemente de su ubicación.

El uso de listas de correo electrónico especializadas se ha usado desde hace tiempo en el

desarrollo de especificaciones de protocolos, y sigue siendo una herramienta importante.

Ahora la IETF consta de más de 75 grupos de trabajo, cada uno trabajando en un aspecto

diferente de la ingeniería de Internet. Cada uno de esos grupos de trabajo tiene una lista de

correo electrónico para discutir uno o más borradores en vías de desarrollo. Cuando se

Page 27: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

27

alcanza el consenso sobre un borrador, se puede distribuir como RFC.

Como la actual y rápida expansión de Internet está impulsada por la conciencia de su

capacidad para compartir información, deberíamos entender que el primer papel de la red a

la hora de compartir información fue compartir la información relativa a su propio diseño y

funcionamiento a través de las RFC. Este método único de desarrollar nuevas funciones en

la red seguirá teniendo una importancia fundamental en la evolución futura de Internet.

Formación de una comunidad amplia

Internet es tanto una colección de comunidades como una colección de tecnologías, y

su éxito se puede atribuir en gran medida a la satisfacción de necesidades básicas de las

comunidades y a usar la comunidad de manera efectiva para hacer avanzar la

infraestructura. Este espíritu comunitario tiene una larga historia, que comienza con

ARPANET. Los primeros investigadores de ARPANET trabajaron como una comunidad

muy unida para conseguir las primeras demostraciones de la tecnología de conmutación de

paquetes ya descrita. Del mismo modo, la red satélite de paquetes, de radiopaquetes y otros

programas de investigación informática de DARPA eran actividades en las que colaboraban

varias personas, que usaban con profusión cualquier mecanismo disponible para coordinar

sus esfuerzos, empezando por el correo electrónico y siguiendo por la posibilidad de

compartir archivos, el acceso remoto y, finalmente, las funciones de la World Wide Web.

Cada uno de esos programas formó un grupo de trabajo, empezando por el ARPANET

Network Working Group. Debido al papel único que desempeñó ARPANET como

infraestructura que respaldaba los distintos programas de investigación, cuando Internet

Page 28: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

28

empezó a evolucionar, el Network Working Group se convirtió en el Internet Working

Group.

A finales de la década de 1970, reconociendo que el crecimiento de Internet iba

acompañado de un crecimiento del interés de la comunidad de investigación, y, por lo

tanto, de un incremento de la necesidad de mecanismos de coordinación, Vint Cerf, gerente

por entonces del Programa de Internet en DARPA, formó varios organismos de

coordinación, una Junta de Cooperación Internacional (ICB), presidida por Peter Kirstein

de UCL, para coordinar las actividades con algunos países cooperantes centrados en la

investigación de la red satélite de paquetes, un Grupo de Investigación de Internet que se

trataba de un grupo abierto que proporcionaba un entorno de intercambio de información

general, y una Junta de Configuración de Internet (ICCB), presidida por Clark. La ICCB

era un organismo en el que solo podía participarse por invitación, creado para ayudar a Cerf

en la gestión de la creciente actividad de Internet.

En 1983, cuando Barry Leiner asumió la responsabilidad de la gestión del programa de

investigación de Internet en DARPA, él y Clark se dieron cuenta de que el crecimiento

continuado de la comunidad de Internet exigía una reestructuración de los mecanismos de

coordinación. La ICCB se disolvió y en su lugar se formó una estructura de Fuerzas de

tareas, cada una de ellas centrada en un área en particular de la tecnología (por ejemplo,

enrutadores, protocolos de extremo a extremo, etc.) Se formó la Internet Activities Board

(IAB), creada por los presidentes de las Fuerzas de tareas.

Por supuesto, fue una mera coincidencia que los presidentes de las Fuerzas de tareas fuesen

Page 29: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

29

las mismas personas que los miembros de la antigua ICCB, y Dave Clark continuó

actuando como presidente. Tras algunos cambios entre los miembros de la IAB, Phill Gross

se convirtió en presidente de una revitalizada Fuerza de Tareas de Ingeniería de Internet

(IETF), que en aquella época era simplemente una de las Fuerzas de tareas de la IAB.

Como se ha visto antes, en 1985 existía un tremendo crecimiento en la parte más práctica y

de ingeniería de Internet. Este crecimiento tuvo como resultado una explosión en la

asistencia a las reuniones de IETF y Gross se vio obligado a crear una subestructura de la

IETF con grupos de trabajo.

Este crecimiento se vio complementado por una gran expansión de la comunidad. DARPA

ya no era el único que jugaba un papel importante en la financiación de Internet. Además

de NSFNet y diversas actividades financiadas por el gobierno de EE.UU. y por gobiernos

internacionales, empezaba a crecer el interés en el sector comercial. También en 1985, tanto

Kahn como Leiner abandonaron DARPA, con lo que hubo una disminución en la

actividad de Internet de DARPA. Como resultado, la

IAB se quedó sin su patrocinador primario y asumió cada vez la responsabilidad del

liderazgo.

El crecimiento continuó, lo que resultó en la creación de más subestructuras dentro de la

IAB e IETF. La IETF combinó los grupos de trabajo en áreas y designó directores de áreas.

Un Grupo de Dirección de Ingeniería de Internet (IESG) se formó a partir de los directores

de área. La IAB reconoció la creciente importancia de la IETF, y reestructuró el proceso de

estándares para reconocer explícitamente IESG como el principal cuerpo de revisión de

estándares. La IAB también reestructuró el resto de la Fuerzas de tareas (excepto la IETF) y

Page 30: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

30

las combinó en una Fuerza de Tareas de Investigación de Internet (IRTF) presidida por

Postel, renombrando las antiguas fuerzas de tareas como grupos de investigación.

El crecimiento en el sector comercial trajo una mayor preocupación en el proceso de

estándares en sí. Desde principios de los 80 y hasta hoy en día, Internet creció más allá de

sus principales raíces de investigación para incluir una amplia comunidad de usuarios y un

aumento en las actividades comerciales. Se prestó mayor atención a que el proceso fuese

justo y abierto. Esto, junto con una necesidad reconocida de tener apoyo comunitario en

Internet, llevó, con el tiempo, a la formación de Internet Society en 1991, bajo los auspicios

de la Corporation for National Research Initiatives (CNRI) de Kahn y el liderazgo de Cerf,

entonces en la CNRI.

En 1992, se hizo otra reorganización. En 1992, el Consejo de actividades de Internet se

reorganizó y se renombró Consejo de arquitectura de Internet y operaba bajo los auspicios

de Internet Society. Se definió una relación más de “pares” entre la nueva IAB con IESG,

con una toma de mayor responsabilidad de la IETF y el IESG para la aprobación de

estándares. Finalmente, se formó una relación cooperativa y de apoyo mutuo entre la IAB,

IETF e Internet Society, con Internet Society cuyo objetivo era proveer servicios y otras

medias que facilitarían la labor de la IETF.

Los recientes desarrollos y el despliegue generalizado de la World Wide Web han aportado

una nueva comunidad, ya que mucha de la gente que trabaja en WWW no se consideran

primariamente investigadores de redes y desarrolladores. Se formó un nuevo grupo de

organización el Word Wide Web Consortium (W3C). Liderado al principio desde el

Page 31: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

31

laboratorio de informática de MIT por Tim Berners-Lee (el inventor de WWW) y Al

Vezza, W3C ha tomado la responsabilidad de evolucionar algunos protocolos y estándares

asociados con la Web.

Así pues, en dos décadas de actividad de Internet hemos visto una evolución continuada en

las estructuras organizativas diseñadas para soportar y facilitar la siempre creciente

comunidad que trabaja colaborativamente en temas de Internet.

Comercialización de la tecnología

La comercialización de Internet no solo implicó el desarrollo de servicios de redes

competitivos y privados sino también el desarrollo de productos comerciales para

implementar la tecnología de Internet. A principios de los 80, docenas de vendedores

estaban incorporando TCP/IP en sus productos porque veían compradores para este tipo de

enfoque a la interconexión. Desafortunadamente, no tenían información real sobre cómo se

suponía que funcionaba la tecnología y cómo planeaban los clientes usar este enfoque a la

interconexión. Muchos lo veían como un complemento incordioso que se tenía que pegar a

sus propias soluciones propietarias de interconexión: SNA, DECNet, Netware, NetBios.

DoD había obligado a usar TCP/IP en muchas de sus compras pero no ayudaba a los

vendedores a construir productos TCP/IP útiles.

En 1985, reconociendo esta falta de disponibilidad de información y entrenamiento

apropiado, Dan Lynch en cooperación con la IAB organizó un taller de tres días para que

Page 32: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

32

TODOS los vendedores aprendiesen cómo TCP/IP funcionaba y lo que aún no podía hacer

bien. Los conferenciantes provenían casi todos de la comunidad de investigación de

DARPA, gente que había desarrollado esos protocolos y los usaba diariamente. Unos 250

vendedores fueron a escuchar a 50 inventores y experimentadores. Los resultados fueron

sorpresas en ambas partes: los vendedores se sorprendieron al darse cuenta que los

inventores eran tan abiertos sobre el funcionamiento de las cosas (y sobre lo que aún no

funcionaba) y a los inventores les gustó escuchar sobre nuevos problemas que no habían

considerado, pero que los vendedores de campo estaban descubriendo. De modo que se

formó una discusión a dos vías que ha durado más de una década.

Después de dos años de conferencias, tutoriales, reuniones de diseño y talleres, se organizó

un evento especial y se invitó a los vendedores cuyos productos ejecutaban TCP/IP bien

para que se juntasen en una sala durante tres días para demostrar lo bien que trabajaban

todos juntos con Internet. En septiembre de 1988 nació la primera feria de muestras Interop.

50 compañías consiguieron asistir. 5.000 ingenieros de organizaciones de clientes

potenciales fueron a ver si funcionaba como prometían. Funcionaba. ¿Por qué? Porque los

vendedores

trabajaron duro para asegurarse que todos los productos interoperaban con el resto de los

productos; incluso con los productos de los competidores. La feria de muestras Interop ha

crecido muchísimo desde entonces y hoy en día se celebra en 7 ubicaciones en todo el

mundo durante el año, y más de 250.000 personas vienen a aprender sobre qué productos

funcionan con que productos sin problemas, aprender más sobre los últimos productos y

discutir la tecnología más puntera.

Page 33: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

33

En paralelo con los esfuerzos de comercialización que se resaltaban en las actividades de

Interop, los vendedores empezaron a asistir a las reuniones de la IETF, que se celebraban 3

o 4 veces al año para discutir nuevas ideas sobre ampliaciones del conjunto de protocolos

TCP/IP. Empezando con unos pocos cientos de asistentes, mayoritariamente de académicos

y pagados por el gobierno, hoy en día, estas reuniones tienen una asistencia de miles de

personas, mayoritariamente de la comunidad de vendedores y pagados por los asistentes

mismo. Este grupo autoseleccionado evoluciona el conjunto TCP/IP de manera cooperativa.

La razón por la que es tan útil es porque está compuesto por todos los interesados:

investigadores, usuarios finales y vendedores.

La gestión de redes da un ejemplo de la interacción entre las comunidades de investigación

y de venta. En el principio de Internet, el énfasis se ponía en definir e implementar

protocolos que consiguiesen la interoperación.

Conforme se hizo más grande la red, quedó claro que los procedimientos ad hoc usados

para gestionar la red no escalarían. La configuración manual de las tablas fue sustituida por

algoritmos automáticos distribuidos, y se diseñaron mejores herramientas para aislar fallos.

En 1987, quedó claro que era necesario un protocolo que permitiese gestionar los elementos

de una red, como los enrutadores, remotamente de manera uniforme. Se propusieron varios

protocolos con este objetivo, incluyendo el Protocolo Simple de Administración de Red o

SNMP (diseñado, como sugiere su nombre, para ser sencillo, y derivado de una propuesta

anterior llamada SGMP), HEMS (un diseño más complejo de la comunidad investigadora)

y CMIP (de la comunidad OSI). Tras una serie de reuniones se decidió retirar HEMS como

candidato para la estandarización, para ayudar a resolver la contención, pero que se

Page 34: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

34

continuaría trabajando en SNMP y CMIP, con la idea que SNMP sería una solución a corto

plazo y CMIP una solución a largo plazo. El mercado podía elegir el que le pareciese más

adecuado. Hoy en día se usa SNMP casi universalmente para la gestión basada en la red.

En los últimos años, hemos visto una nueva fase de comercialización. Originalmente, los

esfuerzos de comercialización comprendían principalmente vendedores ofreciendo los

productos básicos de redes y los proveedores de servicios ofreciendo los servicios de

conectividad y básicos de Internet. Internet casi se ha convertido en un servicio de

“mercancías”, y se ha prestado mucha atención en esta infraestructura global de

información para soportar otros servicios comerciales. Esto se ha visto acelerado

increíblemente por la adopción generalizada y rápida de navegadores y la tecnología World

Wide Web, lo que permite a los usuarios tener un fácil acceso a la información enlazada de

todo el mundo. Hay productos disponibles para facilitar el aprovisionamiento de esta

información y muchos de los últimos desarrollos en la tecnología se han centrado en

proveer servicios de información cada vez más sofisticados por encima de los servicios de

comunicación básicos de datos de Internet.

Historia del futuro

El 24 de octubre de 1995, FNC pasó una resolución unánime para definir el término

Internet. Esta definición se desarrolló consultando a los miembros de las comunidades de

Internet y propiedad intelectual. RESOLUCIÓN: El Consejo federal de redes (FNC)

acuerda que la siguiente descripción refleja nuestra definición del término "Internet".

"Internet" se refiere al sistema de información global que: (i) esta enlazado lógicamente a

Page 35: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

35

un espacio global de direcciones únicas basadas en el Protocolo de Internet (IP) o sus

subsecuentes extensiones/añadidos; (ii) puede soportar la comunicación usando el conjunto

Protocolo de control de transmisión/Protocolo de Internet (TCP/IP) o sus subsecuentes

extensiones/añadido y otros protocolos compatibles con IP; y (iii) provee, usa o da

accesibilidad, ya sea de manera pública o privada a servicios de alto nivel superpuestos en

las comunicaciones y las infraestructuras relacionas ya descritas.

Internet ha cambiado mucho en las dos décadas desde que nació. Se concibió en la época de

tiempo compartido, pero ha sobrevivido a la época de los ordenadores personales, la

informática cliente-servidor y par a par y la informática de redes. Se diseñó antes que

existiesen las LAN, pero ha acomodado a esa tecnología nueva, además de los recientes

cajeros y servicios de intercambio de marcos. Se concibió para soportar un rango de

funciones tales como compartir archivos y acceso remota a distribución de recursos y

colaboración, y ha creado el correo electrónico y más recientemente la World Wide Web.

Pero lo más importante, empezó como la creación de un pequeño grupo de

investigadores dedicados y ha crecido para convertirse en un éxito comercial con miles de

millones de dólares en inversiones anuales.

No se debería concluir que Internet ha dejado de cambiar ahora. Internet, a pesar de ser una

red con nombre y geografía, es una criatura de los ordenadores, no las redes tradicionales

de teléfono y televisión. Seguirá, y debe, cambiando y evolucionando a la velocidad de la

industria informática si quiere seguir siendo relevante. En estos momentos está cambiando

para ofrecer nuevos servicios como transporte en tiempo real, para soportar, por ejemplo,

de stream de audio y vídeo.

Page 36: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

36

La disponibilidad de una red dominante (es decir, Internet) junto con ordenadores potentes

baratos y comunicaciones en dispositivos portátiles (es decir, portátiles, mensáfonos, PDA,

teléfonos móviles) hace posible un nuevo paradigma de informática y comunicaciones

nómadas. Esta evolución nos traerá nuevas aplicaciones; el teléfono de Internet y, en el

futuro, la televisión de Internet. Está evolucionando para permitir formas más sofisticadas

de poner precios y recuperar costes, un requisito doloroso en este mundo comercial. Está

cambiando para acomodar otra generación de nuevas tecnologías subyacentes con

diferentes características y requisitos, por ejemplo, acceso residencial a banda ancha y

satélites. Nuevos modos de acceso y nuevas formas de servicio generarán nuevas

aplicaciones, que en su lugar impulsarán la evolución de la red.

La pregunta más acuciante del futuro de Internet no es cómo la tecnología cambiará, sino

cómo se gestionará el proceso de cambio y evolución. Como describe este artículo, la

arquitectura de Internet siempre ha sido impulsada por un grupo de diseñadores, pero la

forma del grupo ha cambiado conforme crecía el número de partes interesadas. Con el éxito

de Internet ha habido una proliferación de interesados: interesados que ahora invierten

dinero además de invertir ideas en la red.

Ahora vemos, en los debates sobre el control del espacio de nombres de dominio y la forma

de la próxima generación de direcciones de IP, una lucha para encontrar la próxima

estructura social que guiará Internet en el futuro. La forma de estructura será más difícil de

encontrar teniendo en cuenta el número de interesados. La industria, a su vez, lucha por

encontrar la razón económica para la gran inversión necesaria para el crecimiento futuro,

Page 37: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

37

por ejemplo para mejorar el acceso residencial a una tecnología más adecuada. Si Internet

tropieza no será porque nos falta

tecnología, visión o motivación. Será porque no podemos determinar una dirección y

caminar juntos hacia el futuro.

EVOLUCION DEL INTERNET EN VENEZUELA

En Venezuela, los primeros intentos de conexión a Internet, se remontan a 1980

cuando la Universidad Simón Bolívar estaba perfectamente familiarizada con la

interconexión de máquinas bajo UUCP, luego de la instalación en 1970 de la primera

máquina operando bajo el sistema operativo UNIX -basamento de las redes pioneras-. En

pleno desarrollo del TCP/IP, el primer enlace con el exterior se establece a través de la

plataforma X25 suministrada por CANTV, aunque, para entonces, problemas de

facturación impedían la continuidad de este servicio que proveía FTP, Telnet y correo

electrónico a unos 300 usuarios, con un computador Prime como primer servidor:

Velocidad de enlace 300 bits por segundo, suficiente para el uso racional de la herramienta.

Fue la Dirección de Información Científica y Tecnológica del Conicit la organización que

lideraba los esfuerzos para concretar un proyecto de automatización y concibe el Saicyt o

Servicio Automatizado de Información Científica y Tecnológica, que toma el control de la

conexión.

El segundo hito importante corresponde al año 1989, cuando se decide desarrollar

los servicios sobre una plataforma TCP/IP, es decir, sobre el conjunto de tecnologías que

hoy son la base de Internet. Corresponde a Emsca, empresa especializada la primera

Page 38: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

38

máquina SUN SPARC que asume el rol de servidor bajo el nombre de "DINO".

Posteriormente Pebbles y Ban-Ban sirvieron de nombres para otros servidores. En ese

tiempo, la oferta estaba limitada, se hacían charlas de sensibilización para convencer al

grueso de la calidad académica de las bondades del servicio ofrecido. Las cuentas eran

asignadas siguiendo un listado, en parte para justificar la inversión que se estaba haciendo.

Dino se conecta al backbone o espina dorsal de la NSFNET desarrollada en 1986 en

Estados Unidos, con una capacidad de 56K bps. En Venezuela se usaba la conexión de

Saicyt para accesos a base de datos privados como Dialog, las cuales requerían suscripción.

En el año 1992, se realiza la primera conexión de Venezuela a Internet, con un enlace de

19,200 bps que conectaba al Conicit con el JVNC, surgiendo la idea de desarrollar un

proyecto nacional que integrara los esfuerzos de interconexión de las Universidades y

Centros de Investigación entre sí con el exterior. Después que el marco regulatorio lo

permite, a partir de 1994 comienza la explotación comercial del acceso a Internet en

Venezuela.

La utilización de Internet se ha propagado lentamente, ofreciendo servicios de correo-e

desde y hacia Internet, ftp y telnet, y luego el acceso a Internet y a Compuserve en una sola

sesión. De 300 usuarios a principios de los 80, se estima actualmente un aproximado de 120

mil usuarios conectados en la red. Hoy existen proveedores con más de 6 Mbps de ancho de

banda y el perfil del usuario de Internet ha cambiado considerablemente, así como sus

hábitos de conexión, debido a lo costoso del servicio. No obstante, se espera un crecimiento

de más de medio millón de personas a fines del año, lo cual evidencia la importancia que

tiene como medio masivo de comunicación e información.

Desde hace varios años Internet se ha convertido en una alternativa donde personas

Page 39: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

39

y empresas de todo el mundo pueden accesar una gran variedad de información y recursos,

comunicarse y conducir sus negocios. Con mayor frecuencia las personas utilizan

herramientas como el correo electrónico y las páginas Web para llevar a cabo procesos de

mercadeo, compra y venta de productos.

Estudios recientes indican que en Venezuela existen 120 mil usuarios de Internet,

pertenecientes en su mayoría a las clases socioeconómicas A, B y C y la tasa de

crecimiento semanal es del 2%. El perfil del usuario promedio de Internet es el siguiente

(Fuente: PC News- Mayo 1997):

83% Hombres, 56% entre 26 y 45 años, 75% profesionales 70%

localizado en Caracas y Zona Metropolitana

50% se conecta al menos una vez al día, 48% desde su casa, 38% desde casa y oficina.

El tiempo de conexión promedio es de 22 horas mensuales.

Otros estudios señalan que en Venezuela el usuario de Internet se divide en dos

grupos: el académico, que ha trabajado por 10 años con Internet y aquel que llega después

de la apertura comercial del medio (4 años), y pertenece a un grupo que tiene poder

adquisitivo, posee tarjetas de crédito e ingresos apetecibles para que los anunciantes les

muestren sus productos. Por esto es importante que el comercio en línea se realice con

productos asequibles al target que navega en la red.

Page 40: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

40

TERMINOS BASICOS UTILIZADOS EN INTERNET PARA SU COMPRENSIÒN

Y UTILIZACIÒN

ANCHO DE BANDA: (Bandwith) Término técnico que determina el volumen de

información que puede circular por un medio físico de comunicación de datos, es decir, la

capacidad de una conexión. A mayor ancho de banda, mejor velocidad de acceso; más

personas pueden utilizar el mismo medio simultáneamente. Se mide en Hertz o bps (bits

por segundo), por ejemplo 32 kbps, 64 kbps, 1Mbps, etc.

ANSI: (American National Standars Institute, Instituto Americano de Normas)

Organización que desarrolla y aprueba normas de los Estados Unidos. Participó en la

creación de gran parte de los estándares actualmente en uso en Internet.

AOL: America On Line. Uno de los principales proveedores de acceso a Internet. Cuenta

con varios millones de usuarios.

APPLET: (Programa) Pequeño programa hecho en lenguaje Java.

ARPANET: Red de la Agencia de Investigación de Proyectos Avanzados, precursora en los

años 60 de lo que hoy conocemos como Internet.

ASCII: código de caracteres utilizado por los ordenadores, en el que cada letra, dígito y

símbolo (¨? ",...) es representado por un número del 0 al 255.

ARCHIE: Herramienta que permite localizar archivos en Internet, creada en Montreal por

la Universidad de McGill. Un server de Archie (hay muchos distribuidos en Internet)

mantiene una base de datos con la ubicación de varios miles de archivos en la Red.

Actualmente el sistema sigue la pista a cerca de 1,5 millón de archivos en 900 lugares de

Page 41: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

41

almacenamiento. En desuso a partir de la aparición de World Wide Web.

ATTACHMENT :(Adjunto) Se llama así a un archivo de datos (por ejemplo una planilla de

cálculo o una carta de procesador de textos) que se envía junto con un mensaje de correo

electrónico. Para que el documento pueda viajar, debe ser codificado de alguna manera, ya

que el e-mail sólo puede transportar códigos ASCII. Entre los formatos de codificación más

difundidos están el UUENCODE, MIME y BinHex.

AUTHORING: Actividad de crear contenido para la Web en HTML. El Webmaster, o

administrador de un sitio Web, es en general el responsable de la autoría de su contenido.

AVATAR: Originariamente figura humana de un dios en la mitología hindú. Identidad

ficticia, representación física (cara y cuerpo) de una persona conectada al mundo virtual de

Internet. Muchas personas construyen su personalidad digital y luego se encuentran en

servers determinados (por ejemplo, en Chats) para jugar o charlar con otros.

BANNER: Aviso publicitario que ocupa parte de una página Web, en general ubicada en la

parte superior al centro. Haciendo un click sobre él, se puede llegar

al sitio del anunciante. De este modo, los banners en general se cobran en base a los click-

throughs que se obtienen.

BINHEX: método de codificación para enviar ficheros binarios como textos. Se usa para

enviar este tipo de ficheros por correo, bien a otros usuarios, a una lista o a grupos de news.

Para poder convertirlo de nuevo a un fichero binario hace falta decodificarlo. Algunos

programas lectores de correo o de news incorporan un decodificador.

BOMBER: Persona que envía correos electrónicos (como bombardeo), siendo estos un

numero ilimitado con el objeto de saturar o bloquear cuantas de E. Mail con cualquier tipo

Page 42: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

42

de mensaje.

BOOKMARK: (Señalador o favoritos) La sección de menú de un navegador donde se

pueden almacenar los sitios preferidos, para luego volver a ellos simplemente eligiéndolos

con un simple click desde un menú.

BROWSER: (Web Browser, Navegador o visualizador) Programa que permite leer

documentos en la Web y seguir enlaces (links) de documento en documento de hipertexto.

Los Navegadores hacen pedidos de archivos (páginas y otros) a los servers de Web según la

elección del usuario y luego muestran en el monitor el resultado del pedido en forma

multimedial. Entre los más conocidos se encuentran el Netscape de Navigator, Microsoft

Explorer y Mosaic. El primer navegador se llamó Line Mode Browser, pero el primer

navegador en cuanto a difusión fue Mosaic. Usualmente, a los navegadores se les agrega

plug-ins (agregados) para aumentar sus capacidades.

BUSCADOR: (Search) Herramienta que permite ubicar contenidos en la Red, buscando en

forma booleana a través de palabras clave. Se organizan en buscadores por palabra o

índices (como Lycos o Infoseek) y buscadores temáticos o Directories (como Yahoo!).

Dentro de estas dos categorías básicas existen cientos de buscadores diferentes, cada uno

con distintas habilidades o entornos de búsqueda (por ejemplo, sólo para médicos, para

fanáticos de las mascotas o para libros y revistas).

CACHE: Almacenamiento intermedio o temporario de información. Por ejemplo, un

navegador posee un cache donde almacena las últimas páginas visitadas por el usuario y, si

alguna se solicita nuevamente, el navegador mostrará la que tiene acumulada en lugar de

volver a buscarla en Internet. El término se utiliza para denominar todo depósito intermedio

de datos solicitados con mayor frecuencia.

Page 43: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

43

CGI: (Common Gateway Interface, Interfaz Común de Intercomunicación) Conjunto de

medios y formatos para permitir y unificar la comunicación entre la Web y otros sistemas

externos, como las bases de datos. Similar al ActieX.

CHAT: Sistema de conversación en línea que permite que varias personas de todo el mundo

conversen en tiempo real a través de sus teclados. Existen varios sistemas de chat, uno de

los más difundidos es el IRC.

CIBERNAUTA: dícese del navegante del ciberespacio.

CIBERESPACIO: término abstracto que se usa para referirse al "lugar" en que nos

situamos al entrar en un espacio virtual, como al conectar con Internet o usar un casco de

realidad virtual. El término procede de Neuromante, novela de William Gibson que todo

buen cibernauta debería leer.

CGI: Common Gateway Interface. Método para pasar parámetros desde una página Web a

un programa en el servidor, que realizará diversas acciones con los mismos, generando una

salida que normalmente es una nueva página Web.

CLIENTE: en una estructura cliente-servidor, se llama cliente al programa utilizado para

acceder a los servicios de un programa servidor. Por ejemplo, usted está utilizando un

cliente Web para ver estás páginas, que le son ofrecidas por un servidor Web.

COOKIES :(Galletitas) Pequeños archivos con datos que algunos sitios Web depositan en

forma automática en las computadoras de los visitantes. Lo hacen con el objetivo de

almacenar allí información sobre las personas y sus preferencias. Por ejemplo, la primera

Page 44: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

44

vez que un navegante visita un site y completa un formulario con sus datos y perfil, el

sistema podrá enviarle una cookie al asignarle una identificación. Cuando el usuario

retorne, el sitio Web pedirá a la computadora cliente la cookie y, a través de ella, lo

reconocerá.

COUNTER: Generalmente es el contador de accesos de los Home Pages.

CRACKER: Persona que se especializa en violar medidas de seguridad de una computadora

o red de computadoras, venciendo claves de acceso y defensas para obtener información que

cree valiosa. El cracker es considerado un personaje ruin y sin honor, a diferencia del

hacker.

DEFAULT: Opción que un programa asume si no se especifica lo contrario. También

llamado "valores predeterminados").

DIRECCION ELECTRONICA: Serie de caracteres que identifican unívocamente un

servidor (por ejemplo, www.supernet.com.mx) una persona

([email protected]) o un recurso (un sitio web como

http://www.supernet.com.mx/info.html) en Internet. Se componen de varias partes de

longitud variable. Las direcciones son convertidas por los DNS en los números IP

correspondientes para que puedan viajar por la Red.

DIRECCION IP: la dirección IP de una máquina conectada a Internet es un número que

identifica unívocamente a esa máquina (es decir, tan sólo esa máquina tiene ese número).

Las direcciones IP constan de cuatro números que van del 0 al 255, y que se representan

por dígitos decimales separados por puntos, como 123.456.1.1 Como estos números son

difíciles de recordar, a cada máquina se le asigna también un nombre, su nombre de

Page 45: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

45

dominio.

DIAL UP: Se le llama Dial Up, al servicio que proporciona algún provedor de acceso a

Internet.

DNS: (Domain Name System/Server, Servidor de nombres de dominios) Sistema de

computadoras que se encarga de convertir (resolver) las direcciones electrónicas de Internet

(como www.supernet.com.mx ) en la dirección IP correspondiente y viceversa. Componen

la base del funcionamiento de las direcciones electrónicas en Internet y están organizados

jerárquicamente.

DOMINIO: El dominio, o más propiamente nombre de dominio, es uno de los conceptos

básicos de Internet. Está muy relacionado con las direcciones IP, y su función es identificar

unívocamente cada máquina conectada a Internet con un nombre qu e sea más fácil de

recordar (para un humano) que una dirección IP. Un nombre de dominio está compuesto de

varias partes que suelen dar una idea de la localización física de la máquina.

DOWNLOAD: Es el proceso de bajar (traer) un archivo desde algún lugar en la Red a la

computadora de un usuario. (Up-load, el proceso inverso).

DYNAMIC IP: Se dice así cuando el número IP de una computadora conectada a un

proveedor de servicio vía dial-in (módem) es otorgado en el momento de la conexión en

lugar de ser un número fijo.

E-MAIL: Servicio de Internet que permite el envío de mensajes privados (semejantes al

correo común) entre usuarios. Basado en el SMTP. Más rápido, económico y versátil que

ningún otro medio de comunicación actual. También utilizado como medio de debate

grupal en las mailing lists.

Page 46: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

46

EMOTICON: este término se ha ido imponiendo como el equivalente en castellano de

smiley, que son esos extraños símbolos, como :-), usados para añadir

emociones y sentimientos a los mensajes de correo electrónico. Hay varios cientos de ellos,

que expresan alegría, tristeza, enfado, e incluso describen físicamente al interlocutor. Para

apreciarlos, gire la cabeza como si fuese a apoyarla en su hombro izquierdo.

ENLACES: (Links) Conexiones que posee un documento de la Web (escrito en HTML).

Un enlace puede apuntar a referencias en el mismo documento, en otro documento en el

mismo site; también a otro site, a un gráfico, video o sonido.

EXTRANET: Utilización de la tecnología de Internet para conectar la red local (LAN) de

una organización con otras redes (por ejemplo, proveedores y clientes).

FINGER: Comando que permite obtener información sobre una persona en la Red (por

ejemplo, dirección de E-mail, dirección postal, hobbies), buscando ciertos datos que ésta

pudo dejar en un formulario de consulta.

FAQ: Frequently Asked Questions. Preguntas frecuentemente realizadas. Son documentos

de Usenet en los que se recogen las respuestas a las preguntas más comunes de cada uno de

los grupos. Dada la diversidad de temas tratados en las news, son muy útiles, no solo para

moverse por la Red, sino para disponer de información detallada de casi cualquier tema.

FIREWALL: (pared a prueba de fuego) Conjunto de programas de protección y

dispositivos especiales que ponen barreras al acceso exterior a una determinada red privada.

Es utilizado para proteger los recursos de una organización de consultas externas no

autorizadas.

FLAME: mensajes de correo insultantes, en los que se ataca más a la persona a la que se

Page 47: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

47

intenta responder que a los argumentos que esta ha expuesto. Por lo general son de carácter

personal (aunque no son raros los dirigidos a grupos étnicos), a pesar de lo cual son

enviados a grupos de noticias o listas de correo.

FLAME WAR: intercambio de flames entre dos o mas personas, generalmente en una lista

donde al resto de los usuarios no les interesan en absoluto.

FORMATOS: Se les llama formatos generalmente a cada tipo de archivo, por ejemplo a los

de gráficos como ".jpg, .gif, etc, etc.

FRAME: (Cuadros) Instrucciones en el lenguaje HTML (utilizado para diseñar las páginas

Web); una forma de dividir la pantalla del navegante en varias zonas, cada una con

autonomía de movimiento. Por ejemplo, se puede dividir una pantalla de modo que haya un

frame vertical que ocupe el lado izquierdo de la

pantalla durante toda la navegación que contenga el menú de un sitio Web. Los frames son

un agregado al HTML estándar inventado por la empresa Netscape y luego adoptados como

norma.

FRAME-RELAY: Tecnología de transporte de datos por paquetes muy utilizada en las

conexiones por líneas dedicadas.

FREEWARE: Política de distribución gratuita de programas. Utilizada para gran parte del

software de Internet. En general, estos programas son creados por un estudiante o alguna

organización (usualmente una Universidad) con el único objetivo de que mucha gente en el

mundo pueda disfrutarlos. No son necesariamente sencillos: muchos de ellos son complejos

Page 48: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

48

y han llevado ciento de horas de desarrollo. Ejemplos de freeware son el sistema operativo

Linux (un Unix) o el PGP (Pretty Good Privacy, un software de encriptación), que se

distribuyen de este modo.

FTP: (File Transfer Protocol, Protocolo de Transferencia de Archivos) Es un servicio de

Internet que permite transferir archivos (upload y download) entre computadoras

conectadas a Internet. Método por el cual la mayoría del software de Internet es distribuido.

FULL DUPLEX: Característica de un medio de comunicación por el que se pueden enviar

y recibir datos simultáneamente.

FYI: For Your Information. Ficheros de texto con diferente información sobre Internet.

Similares a los RFC, los FYI no tienen carácter "oficial", siendo meramente informativos.

A menudo se usan como borradores de RFCs, o como textos complementarios a estos.

GATEWAY: Dispositivo de comunicación entre dos o más redes locales (LANs) y

remotas, usualmente capaz de convertir distintos protocolos, actuando de traductor para

permitir la comunicación. Como término genérico, es utilizado para denominar a todo

instrumento capaz de convertir o transformar datos que circulan entre dos medios

tecnológicos.

GOPHER: Servicio de Internet que organiza la información y permite acceder a ella en

forma sencilla. Es precursora de la Web y actualmente esta cayendo en desuso. Creada en

la Universidad de Minessotta, su nombre hace referencia a la mascota del lugar, que es un

topo. Otros sugieren que es una deformación de la frase goes-fer ("busca"). El Gopher

resolvió el problema de cómo ubicar recursos en Internet, reduciendo todas las búsquedas a

menúes y submenúes.

Page 49: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

49

GURÚ: persona que domina absolutamente todos los aspectos de una determinada

disciplina. Es un término muy usado en Internet, aunque se refiera a otros campos (p. e. "es

un gurú del Unix").

HACKER: Experto técnico en algún tema relacionado con comunicaciones o seguridad; de

alguna manera es también un gurú. Los hackers suelen dedicarse a violar claves de acceso

por pura diversión, o para demostrar falencias en los sistemas de protección de una red de

computadoras. Los Hackers son muy respetados por la comunidad técnica de Internet, a

diferencia de los Crackers.

HIPERMEDIA: Combinación de hipertexto y multimedia. Uno de los grandes atractivos de

la Web.

HIPERTEXTO: Concepto y termino inventado por Ted Nelson en 1969. Nelson era un

famoso visionario de la informática que investigo durante 25 años, las posibilidades de

interacción entre las computadoras y la literatura. Uno de los conceptos básicos para el

desarrollo de la WWW. El hipertexto es una forma diferente de organizar información. En

lugar de leer un texto en forma continua, ciertos términos están unidos a otros mediante

relaciones (enlaces o links) que tienen entre ellos. El hipertexto permite saltar de un punto a

otro en un texto, y a través de los enlaces (con un simple click sobre las palabras

subrayadas y en negrita), permite que los navegantes busquen información de su interés en

la Red, guiándose por un camino distinto de razonamiento. Algunos programas muy

difundidos, como la Ayuda de Windows o las enciclopedias en CD-ROOM, están

organizadas como hipertextos.

HIT: (Acceso o pedido) Unidad de medición de accesos a determinado recurso. Forma de

registrar cada pedido de información que un usuario efectúa a un server. Por ejemplo, en el

Page 50: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

50

caso de un sitio Web, la solicitud de cada imagen, página y frame genera un hit. Por lo

tanto, para conocer en realidad cuántos accesos hubo, debe dividirse la cantidad de objetos

independientes (texto, frames e imágenes) que una página contiene, o usar un contador de

accesos.

HOME PAGE: (Página principal o de entrada) Página de información de la Web, escrita en

HTML. En general, el término hace referencia a la página principal o de acceso inicial de

un site.

HOST: Actualmente, sinónimo de SERVIDOR, y también se le conoce a los servidores que

albergan como "HOST" a una o varias Páginas, pudiendo tener estas un nombre de dominio

distinto a la del HOST en que se encuentren.

HOSTNAME: Denominación otorgada por el administrador a una computadora. El

hostname es parte de la dirección electrónica de esa computadora, y debe ser único para

cada maquina conectada a Internet. Por ejemplo "supernet"

HTML: (Hypertext Markup Language, Lenguaje de Marcado de Hipertextos) Lenguaje que

define textos, subgrupo del SGML, destinado a simplificar la escritura de documentos

estándar. Es la base estructural en la que están diseñadas las páginas de la World Wide

Web. Su definición está a cargo del Web Consortium

HTTP: (Hypertext Transfer Protocol, Protocolo de Transferencia de Hipertexto) Es el

mecanismo de intercambio de información que constituye la base funcional de la World

Wide Web.

HIPERDOCUMENTOS: Documento que tiene estructura de hipertexto, pero contiene

además referencias a objetos multimediales (como sonidos, imágenes, videos).

Page 51: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

51

HIPERLINK: Enlace entre dos nodos de un hipertexto.

IANA: (Internet Assigned Numbers Authory) Organismo que asigna los números IP a las

instituciones que desean participar de Internet. Actualmente funciona junto a Internic.

INTERFACE: Cara visible de los programas. Interactúa con los usuarios. La interface

abarca las pantallas y su diseño, el lenguaje usado, los botones y los mensajes de error,

entre otros aspectos de la comunicación computadora/persona.

INTERNET ADRESS: Sinónimo de número IP. Número asignado que identifica a un

server en Internet. Está compuesto por dos o tres partes: número de red, número opcional

de sub-red y número de host.

INTERNETS: La Red de computadoras más extensa del planeta, que conecta y comunica a

más de 50 millones de personas. Nació a fines de los años sesenta como ARPANET y se

convirtió en un revolucionario medio de comunicación. Su estructura técnica se basa en

millones de computadoras que ofrecen todo tipo de información. Estas computadoras,

encendidas las 24 horas, se llaman servidores y están interconectadas entre sí en todo el

mundo a través de diferentes mecanismos de líneas dedicadas. Sin importar que tipo de

computadoras son, para intercomunicarse utilizan el protocolo TCP/IP. Las computadoras

que utilizan las personas para conectarse y consultar los datos de los servidores se llaman

clientes, y acceden en general a través de un tipo de conexión llamado dial-in, utilizando un

módem y una línea telefónica.

INTERNET: Denomina a un grupo interconectado de redes locales, que utilizan un mismo

protocolo de comunicación.

Page 52: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

52

INTERNIC: (Internet Network Information Centre) Centro de información que almacena

documentos de Internet: RFCs y borradores de documentos. Organismo que se ocupa de

otorgar grupos de números IP y direcciones electrónicas a cada organización que desee

conectarse a Internet, garantizando que sean únicas.

INTRANET: Utilización de la tecnología de Internet dentro de la red local (LAN) y/o red

de área amplia (WAN) de una organización. Permite crear un sitio público donde se

centraliza el acceso a la información de la compañía. Bien utilizada, una Intranet permite

optimizar el acceso a los recursos de una organización, organizar los datos existentes en las

PCs de cada individuo y extender la tarea colaborativa entre los miembros de equipos de

trabajo. Cuando una Intranet extiende sus fronteras más alla de los limites de la

organización, para permitir la intercomunicación con los sistemas de otras compañías, se

llama Extranet.

IP: (Internet Protocol) Protocolo de Internet definido en el RFC 791. Confirma la base del

estándar de comunicaciones de Internet. El IP provee un método para fragmentar (deshacer

en pequeños paquetes) y rutear (llevar desde el origen al destino) la información. Es

inseguro, ya que no verifica que todos los fragmentos del mensaje lleguen a su destino sin

perderse por el camino. Por eso se complementa con el TCP.

IRC: (Internet Relay Chat) Uno de los sistemas más populares de charlas interactivas

(chats) de múltiples usuarios vía Internet. Permite que miles de personas de todo el mundo

se reúnan a "conversar" simultáneamente en forma escrita.

ISDN: (Integrated Services Data Networks) Tecnología rápida de conexión para líneas

dedicadas y transmisión de datos. Se utiliza para tener acceso a Internet o a una

videoconferencia. Si bien esta tecnología existe hace varios años, aún se encuentra poco

Page 53: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

53

difundida.

ISP: (Internet Service Povider, Proveedor de servicios de Internet)

JAVA: Lenguaje de programación creado por Sun Microsystems. Desde su aparición, java

se perfila como un probable revolucionario de la Red. Como lenguaje es simple, orientado a

objetos, distribuido, interpretado, robusto, seguro, neutral con respecto a la arquitectura,

portable, de alta perfomance, multithreaded y dinámico. Java es un lenguaje de

programación, un subset de C++. Susbset, porque algunas instrucciones (como las que

tienen que ver con la administración de memoria) no se pueden usar. Seguro, porque agrega

características de seguridad a los programas. Un applet de Java se baja automáticamente

con la página Web y es compilado y ejecutado en la máquina local. Permite, entre otras

cosas, agregar animación e interactividad a una página Web, pero su característica más

importante es que un programa escrito en Java puede correr en cualquier computadora.

JAVASCRIPT: Lenguaje de Scripts para utilizar en páginas Web desarrollado por

Netscape. Permite aumentar la interactividad y la personalización de un sitio.

LAN: (Local Area Network, Red de Area Local) Red de computadoras interconectadas,

distribuida en la superficie de una sola oficina o edificio. También llamadas redes privadas

de datos. Su principal característica es la velocidad de conexión.

LINEA DEDICADA: Forma de conexión a Internet (con acceso las 24 horas) a través de

un cable hasta un proveedor de Internet. Esta conexión puede ser utilizada por varias

personas en forma simultánea.

LINK: Enlace.

Page 54: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

54

LISTAS DE INTERES: Mailing List

LISTSERV: uno de los más populares y extendidos programas servidores de listas de

correo.

LOG: Archivo que registra movimientos y actividades de un determinado programa (log

file). Utilizado como mecanismo de control y estadística.

LOGIN : Proceso de seguridad que exige que un usuario se identifique con un nombre

(user-ID o nombre de usuario) y una clave (password o contraseña), para poder acceder a

una computadora o recurso.

LINX: Browser de Web en modo texto, que no permite ver imágenes. Aún es ampliamente

utilizado por quienes navegan desde estaciones Unix.

MAILING LISTS: (Lista de interés) Modo de distribución de e-mail grupal. Mecanismos

de debate grupales entre distintas personas interesadas en un determinado tema. Similares

en concepto a los NewsGroups, pero no es necesario utilizar un servidor especial ya que los

mensajes son recibidos por el usuario como correo electrónico.

MIME: (Internet Mail Extensions, extensiones Multipropósito para e-mail) Formato

especifico de codificación para la transferencia de correo electrónico y attachments entre

dos computadoras; contiene cualquier tipo de datos. Más moderno que el UUEncoding.

MODEM: Dispositivo que se utiliza para transferir datos entre computadoras a través de

una línea telefónica. Unifica la información para que pueda ser transmitida entre dos

medios distintos como un teléfono y una computadora. La velocidad del módem se mide en

Page 55: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

55

una unidad llamada baudios (bits por segundo), por ejemplo 56.600 baudios. Cuanto más

rápido es el módem, más datos pueden viajar por el en menos tiempo.

MUD: MultiUser Dungeon. Juegos de rol a través del ordenador, generalmente a través de

textos, en los que el usuario adopta un personaje con ciertas características que interactúa

con otros usuarios en un mundo imaginario.

MULTIMEDIA: Combinación de varias tecnologías de presentación de información

(imágenes, sonido, animación, video, texto) con la intención de captar tantos sentidos

humanos como sea posible. Previamente a la existencia de la multimedia, el intercambio de

información con las computadoras estaba limitado al texto. Luego, con el nacimiento de las

interfaces de usuario gráficas y los desarrollos en video y sonido, la multimedia permitió

convertir el modo de comunicación entre personas y dispositivos aumentando la variedad

de información disponible. El uso de la multimedia fue la razón principal por la que la

World Wide Web facilitó la difusión masiva de Internet.

NETIQUETTE: la etiqueta de la Red. Conjunto de normas de buena educación dentro de

Internet, asumidas y creadas por los propios usuarios. Seguirlas hace que los servicios de

Internet sean mucho más útiles y eficientes.

NEWBIE: novato. Nuevo en la Red.

NODO: cualquier servidor conectado a Internet.

PÁGINA WEB: es la unidad mínima de información en el WWW. Cada vez que pulsa un

enlace o especifica una dirección, se carga un fichero que se le muestra en pantalla. Este

fichero, llamado página, puede contener imágenes, enlaces a otras páginas, textos... puede

Page 56: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

56

ser tan pequeño como unas pocas líneas, o tan grande como esta (y más).

PASARELA: ordenadores que conectan a dos o más sistemas que usan diferentes

protocolos para comunicarse, y que actúan como traductores de las comunicaciones entre

esos sistemas.

POSTMASTER: persona encargada del mantenimiento de los servicios de correo

electrónico en un nodo.

PPP: Point to Point Protocol. Protocolo Punto a Punto. Al igual que SLIP, es un protocolo

usado para realizar conexiones a Internet desde un ordenador personal por medio de una

línea telefónica. Ambos protocolos soportan mensajes TCP/IP, lo que significa que

permiten la ejecución de aplicaciones para acceder a servicios como gopher y WWW, a

diferencia de los programas de comunicaciones tradicionales, que sólo permitían la

transmisión de caracteres de texto. La mayor diferencia entrelos programas de

comunicaciones tradicionales y los basados en SLIP/PPP es que los primeros simplemente

hacen de "puente" entre el ordenador personal y el ordenador desde el que se accede a

Internet, ejecutándose los programas necesarios en este último. Con una conexión

SLIP/PPP, es el ordenador del proveedor el que hace de puente, y los programas se ejecutan

en nuestro propio ordenador. El protocolo PPP es más eficiente que el SLIP, por lo cual

está logrando una mayor popularidad.

PROTOCOLO: conjunto de normas que definen las características del formato que deben

tener las comunicaciones entre dos sistemas para poder entenderse entre sí.

RFC: Request For Comments. Son los documentos que han construido Internet. Definen

entre otras cosas los protocolos y servicios usados en la Red, desde los más básicos hasta

Page 57: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

57

los mínimos detalles. Un RFC es lanzado como una propuesta (una "llamada a discusión"),

y a partir de los comentarios que surgen, y que pueden provenir de cualquier persona

(relativamente, ya que su nivel técnico es muy alto), se van construyendo y adoptando los

diversos protocolos y acuerdos de funcionamiento que posteriormente serán

implementados.

RTFM: Read The Fucked Manual. Lee el j***** manual. Es la respuesta habitual cuando

se hacen preguntas muy básicas en algunas listas o grupos de noticias.

SERVIDOR: en una estructura cliente-servidor, se llama servidor a un programa que ofrece

una serie de servicios, a los cuales se suele acceder por medio de programas especiales

llamados clientes. Por ejemplo, a un servidor FTP, situado en un ordenador en cualquier

lugar de la red se accede mediante programas FTP clientes, que son los que disponemos en

nuestro ordenador. Por extensión, se suele llamar servidor también al ordenador en el que

están situados estos programas.

SERVIDOR DE NOMBRES: es la máquina que traduce las direcciones de Internet en

forma de texto a direcciones IP.

SLIP: Serial Line Internet Protocol. Es uno de los protocolos usados para la conexión a

Internet por medio de líneas telefónicas.

SMILEY: ver emoticón.

SMTP: Simple Mail Transfer Protocol. Protocolo usado para la transmisión de correo

electrónico a través de Internet.

SNAIL MAIL: Correo caracol. Alusión irónica al correo "de toda la vida", en referencia a

su lentitud frente al correo electrónico.

Page 58: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

58

SPAMMING: se llama así al envio masivo de mensajes de correo no solicitados, por lo

general de carácter comercial, a varias listas de correos, grupos de noticias, o a listas de

usuarios que pueden alcanzar miles de personas. La expresión proviene de una película de

los Monthy Pyton.

SUBJECT: asunto o título de un mensaje de correo electrónico. Es una pequeña frase que

describe el contenido del mensaje.

TAG: se llama así a cada uno de los elementos del lenguaje HTML.

TCP/IP: Tranfer Control Protocol / Internetworking Protocol. Es el protocolo básico de

Internet, a partir del cual se construyen todos los demás servicios. Define como se dividen

los mensajes, como se dirigen al receptor, y una vez que han llegado, como se

reconstruyen.

TLA: Three Letter Acronym. Acrónimo de tres letras.

URL: Uniform Resource Location. Estandard de identificación de un recurso de cualquier

tipo (ftp, web, telnet, news...) en Internet. Consta de un identificador de recurso, una

dirección y el recurso en sí: directorio en que está, grupo de news, fichero... Por ejemplo:

http://www.xe1rcs.org.mx/index.html identifica un recurso HTML (http://) situado en la

dirección www.xe1rcs.org.mx, que es el fichero index.html, correspondiente a la homepage

del proveedor xe1rcs.

USENET: una de las principales redes dentro de Internet. Muy popular ya que dentro de

ella se originó el concepto de news.

UUcode: método de codificación para enviar ficheros binarios como textos. Se usa para

enviar este tipo de ficheros por correo, bien a otros usuarios, a una lista o a grupos de news.

Page 59: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

59

Para poder convertirlo de nuevo a un fichero binario hace falta decodificarlo. Algunos

programas lectores de correo o de news incorporan un decodificador. A los procesos de

codificar y descodificar este tipo de mensajes, así como a los programas que realizan las

conversiones, se les conoce por sus nombres en inglés: uuencode y uudecode.

VRML: Virtual Reality Modeling Language. Lenguaje similar al HTML usado para crear

mundos virtuales y animaciones en 3D, que pueden ser visualizadas con los navegadores

adecuados.

WAIS: Wide Area Information Server. Servicio que indexa un conjunto de documentos y

que permite realizar búsquedas por claves de los mismos.

WEBMASTER: Suele llamarse así al administrador de sistema de un sitio o servidor, el

cual es el encargado y responsable del mismo, además de ser en muchos casos el que de

formato y mantenimiento a las paginas contenidas en el.

WWW: World Wide Web. También conocido simplemente como el Web, es uno de los

servicios más populares de Internet. Combina texto con gráficos, imágenes, animaciones e

incluso música, enlazados entre sí de tal manera que facilita la navegación por la

información dispersa en todo Internet. Se basa en el protocolo HTTP.

X. 0: base de datos distribuida que permite conocer datos tales como nombres,

direcciones y teléfonos de personas u organizaciones en todo el mundo.

VENTAJAS Y DESVENTAJAS DEL INTERNET

La evolución y el acceso al internet en estos últimos tiempos ha crecido

enormemente y hoy hay mucha gente, especialmente las nuevas generaciones ya nacieron

Page 60: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

60

con esto, por lo que dentro de un tiempo ya el internet será algo intrínseco en nuestras

vidas, y su crecimiento no lo podremos detener.

Ahora bien, similar a la dependencia del teléfono celular, el internet ha hecho que

muchas cosas se mejoren, haciendo procesos más eficientes, búsquedas de información

mucho más sencilla, comunicación a distancia a tiempo real, y especialmente que ha

economizado mucho los costos de los envíos de mensajes que anteriormente solo se daba

por correspondencia.

Pero también ha traído muchas cosas malas, como toda tecnología lo hace, y es

hacer que las personas sean mucho más cómodas, trabajen menos, y accesibles a otro tipo

de información desagradable.

Por lo que vale la pena listar algunas ventajas y desventajas del internet en estos últimos

tiempos:

Ventajas

Hace la comunicación mucho más sencilla.

Es posible conocer e interactuar con muchas personas de todas partes del mundo.

La búsqueda de información se vuelve mucho más sencilla, sin tener que ir

forzadamente a las bibliotecas tradicionales.

Es posible encontrar muchos puntos de vista diferente sobre alguna noticia.

Es posible la creación y descarga de software libre, por sus herramientas

colaborativas.

La computadora se actualiza periódicamente más fácil que si no tuviéramos internet.

Page 61: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

61

Es posible encontrar soporte técnico de toda clase sobre alguna

herramienta o proceso.

El seguimiento de la información a tiempo real es posible a través del Internet.

Es posible comprar fácilmente a otras tiendas de otros

Y es posible compartir muchas cosas personales o conocimientos que a otro le

puede servir, y de esa manera, se vuelve bien provechoso.

Desventajas

Así como es de fácil encontrar información buena, es posible encontrar de la misma forma

información mala, desagradable (pornografía, violencia explícita, terrorismo) que puede

afectar especialmente a los menores.

Te genera una gran dependencia o vicio del internet, descuidandote de muchas cosas

personales o laborales.

Hace que los estudiantes se esfuercen menos en hacer sus tareas, debido a la mala

práctica del copia y pega.

El principal puente de la piratería es el internet

Distrae a los empleados en su trabajo.

Dependencia de procesos. Si hay un corte de internet, hay muchos procesos que se

quedan varados por esa dependencia.

Dependencia de energía eléctrica. Si hay un corte de energía en la casa, adios

internet (no es el caso de la telefonía convencional).

Hace que nazcan otros males tales como el spam, el malware, la proliferación de los

Page 62: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

62

virus, el phising, etc.

Hay que saber equilibrar nuestro uso del internet para que sea provechoso en

nuestras vidas.

Page 63: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

63

CONCLUSIÓN

Internet se ha convertido en un nuevo medio de comunicación y que día con día ha

tomado una fuerza e importancia en todas las áreas de nuestras vida. En un mundo invadido

por la información, Internet ha venido a darle mayor proyección y facilidad para que un

gran número de gente este informada, y pueda tener la oportunidad de desarrollarse y

comunicarse de una mejor manera.

Este nuevo medio de comunicación no puede ser visto de otra manera ya que lo que

conforma precisamente a la red de redes es precisamente la gran cantidad de información

que circula alrededor del mundo; llevando y trayendo datos de un lado al otro del planeta y

por lo mismo convirtiéndose en un medio que acerca continentes de una manera que hace

una década atrás lo veíamos como historia de ciencia ficción.

El gran avance tecnológico que hemos tenido en menos de diez años en cuanto a la

convergencia de voz, datos e imagen, por medio de los programas de computación nos ha

abierto la puerta para entrar en la llamada superautopista de la información y de la

comunicación. Podemos ver como Internet desde que se volcó hacia el exterior se ha ido

colocando rápidamente como un medio más de comunicación que además de ser un sistema

independiente para su transmisión como el que tiene la radio, la T. V. La prensa, también

cuenta con la capacidad de ser parte de cada uno de estos medios.

Internet juega un papel muy importante como medio de comunicación, no solo para

apoyar a los otros medios sino independientemente en diferentes áreas de la vida cotidiana,

en diversas profesiones y niveles educativos. Internet es utilizado desde las grandes

empresas para agilizar su producción y actualizar datos, hasta en el hogar para obtener la

Page 64: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

64

información de alguna tarea escolar, alguna duda sobre el conocimiento, así como un medio

de entretenimiento y de socialización manteniendo contacto con otra cultura ya sea por

medio del correo electrónico o de los chats y las videoconferencias.

Internet reúne las características esenciales de un medio de comunicación,

cumpliendo el esquema más sencillo que propicia la comunicación, " emisor – mensaje –

receptor " y la "retroalimentación".

Page 65: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

65

REFERENCIAS

P. Baran, "Acerca de las comunicaciones de redes distribuidas", IEEE Trans. Comm..

Systems, marzo de 1964.

V. G. Cerf y R. E. Kahn, "Un protocolo para la interconexión de paquetes de red", IEEE

Trans. Comm. Tech. , vol. COM-22, V 5, págs. 627-641, mayo de

1974.

S. Crocker, RFC001 Host software, 7 de abril de 1969.

R. Kahn, Principios de comunicación para sistemas operativos. Memorando interno

de BBN, enero 1972. Procedimientos de IEEE, edición especial sobre la las redes

de paquetes de comunicación, volumen 66, nº 11, noviembre de 1978. (Editor invitado:

Robert Kahn, editores invitados asociados: Keith Uncapher y Harry van

Trees)

L. Kleinrock, "Flujo de información en grandes redes de comunicación", informe

trimestral de progreso RLE, julio de 1961.

L. Kleinrock, Redes de comunicación: flujo y retraso estocástico de mensajes,

Mcgraw-Hill (Nueva York), 1964.

L. Kleinrock, Sistemas de cola: volumen II, aplicaciones informáticas, John Wiley

and Sons (Nueva York), 1976

J.C.R. Licklider y W. Clark, "Comunicación en línea entre el hombre y el ordenador",

agosto de 1962.

L. Roberts y T. Merrill, "Hacia una red cooperativa en ordenadores de tiempo compartido",

Conferencia AFIPS de otoño, octubre de 1966.

L. Roberts, "Múltiples redes informáticas y comunicación entre ordenadores", Conferencia

Page 66: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

66

ACM Gatlinburg, octubre de 1967.

Autores

Barry M. Leiner fue director del Instituto de investigación para informática avanzada.

Falleció en abril de 2003. Vinton G. Cerf es vicepresidente y director

evangelista de Internet en Google.

David D. Clark investigador sénior en el Laboratorio de informática de MIT.

Robert E. Kahn es presidente de Corporation for National Research Initiatives.

Leonard Kleinrock es profesor de informática en la universidad de California, Los Ángeles,

y es presidente y fundador de Nomadix. Daniel C. Lynch es el fundador de CyberCash

Inc. y de la feria de muestras y conferencia Interop.

Jon Postel sirvió como director de la división de redes informáticas del Instituto de ciencias

de la información de la universidad de Southern California hasta su muerte el 16 de

octubre de 1998. Dr. Lawrence G. Roberts es director ejecutivo y presidente de

Anagran, Inc. Stephen Wolff trabaja con Cisco Systems, Inc.

Page 67: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

67

ANEXOS

Page 68: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

68

Page 69: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

69

Page 70: kathlenpereirablog.files.wordpress.com · Author: KAT Created Date: 12/10/2017 4:09:39 PM

70