463
1 1. Fundamentos de Sistemas Operativos Descripción general Las primeras computadoras personales (PCs) fueron diseñadas como sistemas de escritorio autónomos. El software sistema operativo (OS) permitía a un usuario a la vez acceder a archivos de acceso y recursos del sistema. El usuario tenía acceso físico a la PC. A medida que las redes de computadoras basadas en PC ganaban popularidad en el lugar de trabajo, las compañías de software desarrollaban sistemas operativos de red (NOSs) especializados. Los desarrolladores diseñaron los NOSs para proporcionar seguridad a los archivos, privilegios del usuario, y recursos compartidos entre múltiples usuarios. El crecimiento explosivo de Internet obligó a los desarrolladores a construir los NOSs de hoy en día en torno a tecnologías y servicios relacionados con Internet, como la World Wide Web (WWW). Dentro de una década, el networking se ha convertido en algo de una importancia central para la informática de escritorio. La distinción entre sistemas operativos de escritorio, ahora cargados con funciones y servicios de networking, y sus contrapartes NOSs se ha ido borrando. Ahora, la mayoría de los sistemas operativos populares como Microsoft Windows 2000 y Linux se encuentra en los servidores de red de gran potencia y en los escritorios de los usuarios finales. Este curso examina los componentes de los sistemas operativos de networking más populares en operación hoy en día, incluyendo Windows 2000 y Linux. En este módulo, se repasarán los sistemas operativos de escritorio, incluyendo sus componentes, limitaciones y su relación con los sistemas operativos de red. Este módulo proporciona una descripción general de las PCs incluyendo el OS y las redes de computadoras. Microsoft Windows se detalla desde los inicios de MS-DOS hasta el último Windows XP. También los sistemas operativos UNIX y Linux se detallan desde sus orígenes hasta las configuraciones actuales. La mayoría de las aplicaciones de redes, incluyendo Internet, se construyen alrededor de una relación cliente/servidor. El alumno comprenderá como funciona esta relación con los componentes y configuraciones del NOS. 1.1 Conceptos Básicos sobre Sistemas Operativos 1.1.1 Descripción General de los Sistemas Operativos de PC Las microcomputadoras de escritorio se popularizaron y extendieron a principios de los '80. Los usuarios de estas primeras PCs de escritorio ponían a sus sistemas a trabajar en una variedad de tareas. Estas tareas incluían el procesamiento de texto, la contabilidad casera y los juegos de computadora. Las PCs de escritorio también aparecieron en el lugar de trabajo, pero su productividad era limitada por su incapacidad de compartir información fácilmente con otros sistemas. La Figura muestra cómo estas primeras PCs de escritorio eran islas electrónicas, incapaces de comunicarse eficientemente con otras PCs y los potentes mainframes y minicomputadoras que albergaban datos críticos. En su mayor parte, los sistemas operativos de estas primeras PCs de escritorio estaban diseñados para el sistema autónomo. Estos sistemas operativos suponían que sólo un usuario accedería a los recursos del sistema en un momento determinado. Los conceptos de seguridad de archivos y privilegios del usuario no estaban necesariamente incluidos en los sistemas operativos de escritorio, ya que sólo un único usuario podía acceder al sistema por vez, y dicho usuario tenía que estar físicamente presente en el teclado.

Documento de Apoyo No. 4 Cisco It Essentials II

Embed Size (px)

Citation preview

Page 1: Documento de Apoyo No. 4 Cisco It Essentials II

1

1. Fundamentos de Sistemas Operativos Descripción general

Las primeras computadoras personales (PCs) fueron diseñadas como sistemas de escritorio autónomos. El software sistema operativo (OS) permitía a un usuario a la vez acceder a archivos de acceso y recursos del sistema. El usuario tenía acceso físico a la PC.

A medida que las redes de computadoras basadas en PC ganaban popularidad en el lugar de trabajo, las compañías de software desarrollaban sistemas operativos de red (NOSs) especializados. Los desarrolladores diseñaron los NOSs para proporcionar seguridad a los archivos, privilegios del usuario, y recursos compartidos entre múltiples usuarios. El crecimiento explosivo de Internet obligó a los desarrolladores a construir los NOSs de hoy en día en torno a tecnologías y servicios relacionados con Internet, como la World Wide Web (WWW).

Dentro de una década, el networking se ha convertido en algo de una importancia central para la informática de escritorio. La distinción entre sistemas operativos de escritorio, ahora cargados con funciones y servicios de networking, y sus contrapartes NOSs se ha ido borrando. Ahora, la mayoría de los sistemas operativos populares como Microsoft Windows 2000 y Linux se encuentra en los servidores de red de gran potencia y en los escritorios de los usuarios finales.

Este curso examina los componentes de los sistemas operativos de networking más populares en operación hoy en día, incluyendo Windows 2000 y Linux. En este módulo, se repasarán los sistemas operativos de escritorio, incluyendo sus componentes, limitaciones y su relación con los sistemas operativos de red.

Este módulo proporciona una descripción general de las PCs incluyendo el OS y las redes de computadoras. Microsoft Windows se detalla desde los inicios de MS-DOS hasta el último Windows XP. También los sistemas operativos UNIX y Linux se detallan desde sus orígenes hasta las configuraciones actuales. La mayoría de las aplicaciones de redes, incluyendo Internet, se construyen alrededor de una relación cliente/servidor. El alumno comprenderá como funciona esta relación con los componentes y configuraciones del NOS.

1.1 Conceptos Básicos sobre Sistemas Operativos

1.1.1 Descripción General de los Sistemas Operativos de PC

Las microcomputadoras de escritorio se popularizaron y extendieron a principios de los '80. Los usuarios de estas primeras PCs de escritorio ponían a sus sistemas a trabajar en una variedad de tareas. Estas tareas incluían el procesamiento de texto, la contabilidad casera y los juegos de computadora.

Las PCs de escritorio también aparecieron en el lugar de trabajo, pero su productividad era limitada por su incapacidad de compartir información fácilmente con otros sistemas. La Figura muestra cómo estas primeras PCs de escritorio eran islas electrónicas, incapaces de comunicarse eficientemente con otras PCs y los potentes mainframes y minicomputadoras que albergaban datos críticos.

En su mayor parte, los sistemas operativos de estas primeras PCs de escritorio estaban diseñados para el sistema autónomo. Estos sistemas operativos suponían que sólo un usuario accedería a los recursos del sistema en un momento determinado. Los conceptos de seguridad de archivos y privilegios del usuario no estaban necesariamente incluidos en los sistemas operativos de escritorio, ya que sólo un único usuario podía acceder al sistema por vez, y dicho usuario tenía que estar físicamente presente en el teclado.

Page 2: Documento de Apoyo No. 4 Cisco It Essentials II

2

Figura 1

1.1 Conceptos Básicos sobre Sistemas Operativos

1.1.2 Las PCs y las redes informáticas

A medida que la informática de escritorio maduraba en el lugar de trabajo, las compañías instalaban redes de área local (LANs) para conectar las PCs de escritorio de modo tal que las PCs pudieran compartir datos y periféricos, como impresoras. Instalar placas adaptadoras de red en las PCs y luego conectar los adaptadores utilizando alambre de cobre creó las LANs. Conectando las computadoras en red, el problema de una comunicación eficiente quedó resuelto, pero aparecieron nuevos.

Las primeras LANs basadas en PC necesitaban una forma de proporcionar seguridad a los archivos, acceso multiusuario a los recursos, y privilegios de usuarios. Las LANs basadas en PC también necesitaban una forma de comunicarse con los mainframes que aún eran el punto focal de los entornos informáticos corporativos.

Un enfoque para resolver estos problemas era desarrollar sistemas operativos especializados en funcionar en un entorno en red. Estos mal llamados sistemas operativos de red (NOSs) requerían más potencia informática que sus contrapartes de escritorio. Una nueva raza de PCs potentes se vio obligada a entrar en servicio como servidores de red. Estas computadoras corrían NOSs y se convirtieron en el punto focal de la LAN basada en PCs. En una red basada en el servidor, las máquinas clientes se conectan a y acceden a recursos en el servidor. Estas máquinas cliente pueden ejecutar sistemas operativos de escritorio, mientras que los servidores más potentes utilizan un sistema operativo de redes. Compañías de software como Novell y Microsoft diseñaron sus sistemas operativos de red para controlar entornos de red basados en PCs.

A medida que los servidores de red se hacían más poderosos, comenzaban a adoptar las funciones una vez manejadas por los mainframes y minicomputadoras. Compañías tales como Sun Microsystems y Hewlett Packard (HP) modificaron el sistema operativo UNIX para que corra en servidores extremadamente potentes. En el pasado, sólo los caros mainframes y minicomputadoras eran responsables de las aplicaciones y el almacenamiento de datos críticos. Pero al igual que los NOSs Novell y Microsoft, UNIX podía correr en microcomputadoras. Hoy, virtualmente todas las organizaciones se basan (al menos en parte) en microcomputadoras para almacenar datos críticos y proporcionar aplicaciones y servicios clave.

El networking informático no se confina al lugar de trabajo. La mayoría de los usuarios hogareños

Page 3: Documento de Apoyo No. 4 Cisco It Essentials II

3

esperan conectarse a la red más grande del mundo, Internet. La navegación por la web, el correo electrónico (e-mail), y otras aplicaciones relacionadas con Internet son ahora el centro de la informática en el hogar. Para proporcionar estas tecnologías de Internet, compañías tales como Microsoft han reconstruido sus sistemas operativos de escritorio. El OS de escritorio incluye ahora muchas de las funcionalidades y servicios que antes se reservaban a los NOSs.

Las Figuras y muestran la evolución del networking.

1.1 Conceptos Básicos sobre Sistemas Operativos

1.1.3 El kernel

Ya sea que esté diseñado para una computadora autónoma de escritorio o un servidor de red multiusuario, todo el software de los sistemas operativos incluye los siguientes componentes:

· Kernel · Interfaz del Usuario · Sistema de Archivos

Kernel es el término más común para el núcleo del sistema operativo. El kernel es una porción relativamente pequeña de código que se carga en la memoria cuando la computadora arranca. Este código informático contiene instrucciones que permiten al kernel administrar dispositivos de hardware, tales como unidades de disco. El kernel también administra y controla la adjudicación de la memoria, los procesos del sistema, y otros programas. El software de aplicaciones y otras partes del sistema operativo se basan en el kernel para proporcionar servicios básicos de cronogramas y acceso al hardware y a los periféricos de la computadora.

Al utilizar un sistema UNIX o Linux, puede estar presente un archivo llamado "kernel". En algunos casos, el código del kernel puede tener que ser personalizado y compilado. Si este archivo se volviera corrupto, el sistema ya no funcionaría.

En un sistema Windows, pueden verse nombres de archivos que incluyen la palabra "kernel" o "kern", por ejemplo "kernel32.dll". Estos son archivos críticos que son utilizados por el núcleo del sistema operativo. La Figura muestra el archivo kernel32.dll y dónde está ubicado dentro de los archivos del sistema central de Windows.

Page 4: Documento de Apoyo No. 4 Cisco It Essentials II

4

1.1 Conceptos Básicos sobre Sistemas Operativos

1.1.4 La interfaz del usuario

La interfaz del usuario (UI) es la parte más visible del sistema operativo de una computadora. La UI es el componente del OS con el cual interactúa el usuario. Actúa como puente entre el usuario y el kernel. La UI es como un intérprete, traduciendo las teclas que presiona el usuario, los clics del mouse, u otras entradas para los programas apropiados. La salida del programa puede ser organizada y mostrada por la UI. En un sistema UNIX o Linux, una UI se denomina por lo general shell.

Las interfaces del usuario recaen en dos categorías generales:

· La Figura muestra un ejemplo de la interfaz de línea de comandos (CLI) de Windows · La Figura muestra un ejemplo de la interfaz gráfica del usuario (GUI) de Windows

Los primeros sistemas operativos de PC utilizaban exclusivamente CLIs. La CLI proporciona al usuario un prompt visual, y el usuario introduce los comandos tipeándolos. La computadora da como resultado

Page 5: Documento de Apoyo No. 4 Cisco It Essentials II

5

la salida de los datos a la pantalla tipográficamente. En otras palabras, un entorno CLI se basa completamente en texto y el usuario sólo puede hacer las cosas introduciendo comandos mediante el teclado.

Los usuarios de UNIX y Linux pueden elegir a partir de una variedad de CLIs, o shells, como el shell Bourne y el shell Korn. Los shells UNIX se tratan posteriormente en este módulo.

Hoy, todos los OSs de escritorio populares soportan GUIs. Una GUI permite al usuario manipular el software utilizando objetos visuales tales como ventanas, menúes desplegables, punteros e íconos. La GUI permite al usuario introducir comandos mediante un mouse u otro dispositivo de apuntar y hacer clic. Los usuarios finales prefieren una interfaz gráfica porque hace que operar la computadora sea fácil e intuitivo. Un usuario puede llevar a cabo operaciones simples utilizando una GUI sin siquiera saber leer.

El inconveniente de simplificar la interfaz del usuario se da en el desempeño. Algunos software de GUI pueden consumir más de cien veces el espacio de almacenamiento que consume el software CLI. Puesto que las GUIs son más complicadas que las CLIs, el software GUI requiere significativamente más memoria y tiempo de la CPU.

Puesto que el usuario final promedio prefiere y espera una interfaz gráfica cuando utiliza una computadora, las GUIs se consideran ahora un requisito para los OSs de escritorio. No obstante, los sistemas operativos de red no han, tradicionalmente, asistido las necesidades de los usuarios inexpertos. Varios NOSs no soportan completamente GUIs. Hoy la mayoría de los NOSs soportan GUIs como módulos separados, que pueden cargarse y usarse como cualquier otro programa que se ejecute en el sistema. La mayoría no requiere que estos módulos GUI funcionen, no obstante resultan más fáciles y atractivos al usuario inexperto y más disponibles al público.

Los administradores de sistemas por lo general están cómodos trabajando en entornos CLI, porque pueden elegir preservar recursos del servidor no cargando el software GUI. Por ejemplo, tanto UNIX como Linux soportan GUIs, pero cuando se los implementa como NOSs, UNIX y Linux a menudo se configuran sin componentes GUI. En contraste, los servidores Windows siempre incluyen la GUI y por lo tanto demandan más a los recursos del sistema.

1.1 Conceptos Básicos sobre Sistemas Operativos

1.1.5 El sistema de archivos

El sistema de archivos de un OS determina la forma en la cual los archivos se nombran y cómo y dónde se colocan en los dispositivos de almacenamiento, como los discos rígidos. Los OSs Windows, Macintosh, UNIX y Linux emplean todos ellos sistemas de archivos que utilizan una estructura jerárquica.

En un sistema de archivos jerárquico, los archivos se colocan en contenedores lógicos que se disponen en una estructura de árbol invertido, como lo muestra la Figura . El sistema de archivos comienza en la raíz del árbol. UNIX y Linux llaman a un contenedor que reside en el nivel superior de un árbol, "directorio". Los contenedores dentro de cada directorio se llaman "subdirectorios". Los OSs Windows y Macintosh utilizan los términos "carpeta" y "subcarpeta" para describir a los directorios y subdirectorios.

Page 6: Documento de Apoyo No. 4 Cisco It Essentials II

6

El sistema de archivos de un OS determina más que tan sólo cómo se organizan lógicamente los archivos y carpetas. El tipo de sistema de archivos utilizado por la computadora determina si los archivos pueden o no asegurarse respecto a otros usuarios o programas. El sistema de archivos también define cómo se disponen físicamente los datos en el medio de almacenamiento, tal como un disco rígido. Algunos sistemas de archivos utilizan el espacio en disco más eficientemente que otros.

Un tipo común de sistema de archivos se denomina Tabla de Adjudicación de Archivos (FAT). Los sistemas de archivos FAT son mantenidos en el disco por el sistema operativo. La tabla contiene un mapa de archivos y dónde se almacenan en el disco. La FAT hace referencia a clusters de disco, que son la unidad básica de almacenamiento lógico en el disco. Un archivo determinado puede almacenarse en varios clusters, pero un cluster puede contener datos de sólo un archivo. Estos clusters pueden, o no estar uno junto a otro. El OS utiliza la FAT para hallar todos los clusters de disco donde un archivo está almacenado.

Existen tres tipos de sistemas de archivos FAT. Existe el sistema de archivos FAT original, al cual se denomina "FAT" y los dos otros tipos son FAT16 y FAT32, que son versiones avanzadas y mejoradas del sistema de archivos FAT original. Éste se utilizaba en las primeras versiones de DOS, no obstante, no podía ser utilizado con los discos rígidos más grandes y con sistemas operativos más avanzados como Windows 3.1, Windows 95 y Windows 98. El sistema FAT original estaba limitado en varios sentidos, como por ejemplo siendo sólo capaz de reconocer nombres de archivos de hasta ocho caracteres de largo. Otras limitaciones del FAT era que no podía ser una opción viable a utilizar en los discos rígidos más grandes y en los más avanzados sistemas operativos que rápidamente se estaban desarrollando. El sistema de archivos FAT original no podía apropiadamente hacer un uso eficiente del espacio en estas unidades de disco rígido más grandes. Esto uso ineficiente del espacio era el mismo problema que enfrentó FAT16, y un motivo principal para el desarrollo de FAT32. FAT16 fue creado para su uso en particiones más grandes de hasta 4 gigabytes (GB). Aunque los discos más grandes pueden formatearse en FAT16, hacerlo resulta en un uso ineficiente de espacio en disco porque en los sistemas FAT, particiones más grandes resultan en tamaños de cluster más grandes. Por ejemplo, con una partición de 512 megabytes (MB), el tamaño de los clusters, o unidades básicas de almacenamiento, es de 8 KB. Esto significa que si un archivo tiene un tamaño de sólo 1 KB, utiliza 8 kilobytes (KB) de espacio a causa de que más de un archivo no puede almacenarse en un cluster, los 7 KB extra se desperdician. Para superar este problema, se desarrolló FAT32. Este sistema de archivos de 32 bits utiliza tamaños de cluster más pequeños en los discos grandes. Soporta particiones de un tamaño de hasta 2 terabytes (TB).

La Figura muestra los sistemas de archivos de los sistemas operativos.

Page 7: Documento de Apoyo No. 4 Cisco It Essentials II

7

Sistemas operativos diferentes utilizan sistemas de archivos diferentes, y algunos sistemas operativos pueden utilizar más de un sistema de archivos. Por ejemplo, aunque Windows 3.x puede utilizar sólo el sistema de archivos FAT16, Windows 2000 puede usar FAT16, FAT32, o el New Technology File System (NTFS).

El sistema de archivos determina las convenciones de nombrado de archivos y el formato para especificar un camino, o ruta, hasta la ubicación del archivo. Estas reglas para nombrar archivos varían dependiendo del sistema de archivos e incluyen varios temas:

· Cantidad máxima de caracteres permitida en un nombre de archivo · Longitud máxima de las extensiones o sufijos de los archivos · Si se permiten espacios entre palabras en un nombre de archivo · Si los nombres de archivos son sensibles al uso de mayúsculas y minúsculas · Qué caracteres son legales para su uso en nombres de archivo · El formato para especificar la ruta

Page 8: Documento de Apoyo No. 4 Cisco It Essentials II

8

1.1 Conceptos Básicos sobre Sistemas Operativos

1.1.6 Sistemas operativos de escritorio comunes

Durante los últimos veinte años, los sistemas operativos de escritorio han evolucionado para incluir GUIs sofisticadas y potentes componentes de networking como se muestra en la Figura .

· Microsoft Disk Operating System (MS-DOS) es un OS obsoleto que todavía se utiliza para soportar aplicaciones de negocios heredadas. Las versiones de Windows anteriores a Windows 95 eran esencialmente interfaces del usuario para DOS.

· Microsoft Windows incluye Windows 95, 98, ME, NT, 2000 y XP. · Apple Macintosh OS (Mac OS) incluye OS 8, OS 9 y OS X (OS 10). · Linux incluye distribuciones de varias compañías y grupos, como por ejemplo Red Hat,

Caldera, Santa Cruz Operation (SCO), SuSE, Slackware, Debian y otros. · UNIX incluye HP-UX, Sun Solaris, Berkeley System Distribution (BSD), y otros.

Hoy, los desarrolladores y usuarios de OS por igual reconocen a Internet como centro de la informática. Puesto que el networking e Internet se han convertido en parte tan integral del uso de una computadora, el sistema operativo de escritorio converge rápidamente con el sistema operativo de red.

Microsoft Windows y Mac OS pueden remontar sus raíces a las primeras PCs de escritorio. Las últimas versiones de estos OSs tienen potentes componentes NOS en su núcleo. Windows XP está armado sobre tecnología NOS de Microsoft (NT y 2000), mientras que Mac OS está armado en torno a UNIX. UNIX es considerado el primer NOS. Y al igual que a UNIX, la industria de la Tecnología de la Información (IT) siempre ha considerado a Linux antes como a un NOS, y en segundo lugar como a un sistema operativo de escritorio.

¿Son Windows, Linux y UNIX software de escritorio o software de servidor de red? La respuesta a esa pregunta depende de varios factores, incluyendo la versión específica del OS, los componentes instalados, y la configuración del sistema. En las secciones que siguen, Microsoft Windows y Linux se tratan como sistemas operativos de escritorio. Windows 2000 y Linux se tratan en términos de sistemas operativos de red posteriormente en este curso.

1.2 Microsoft Windows

1.2.1 MS-DOS

Microsoft lanzó su primer producto Windows, Windows 1.0, en 1985. Un ejemplo de qué aspecto tenía la interfaz del usuario en esta primera versión de Windows se muestra en la Figura . Windows 2.0 se lanzó en 1987. Las primeras versiones de Windows funcionaban como interfaces gráficas del usuario (GUIs) que se ejecutaban "encima" del OS nativo, que se denominaba Sistema Operativo de Disco

Page 9: Documento de Apoyo No. 4 Cisco It Essentials II

9

(DOS). Windows era un shell que permitía al usuario administrar el software DOS subyacente.

La versión de Microsoft del DOS (MS-DOS) se diseñó sobre un OS llamado 86-DOS o Quick and Dirty Operating System (QDOS). Seattle Computer Products escribió QDOS para que se ejecute en el procesador Intel 8086. IBM utilizaba el procesador 8088; una versión menos cara de su nueva línea de PCs. Microsoft compró los derechos de QDOS y lanzó MS-DOS en 1981. La Figura muestra un ejemplo de la interfaz del usuario de MS-DOS.

MS-DOS comenzó como un sistema operativo simple con una CLI basada en texto. Diseñado para ejecutarse en el procesador Intel 8088 de 16 bits (8 bits de bus de datos), MS-DOS era un sistema operativo de 16 bits, que podía manejar el procesamiento sólo de a 16 bits por vez.

MS-DOS y el procesamiento de 16 bits son obsoletos en los entornos de escritorio basados en Internet y gráficamente orientados de hoy en día. Hoy, los sistemas operativos de 32 bits son estándar, y un puñado de sistemas operativos de 64 bits están disponibles para los sistemas que tienen procesadores de 64 bits. No obstante, muchas corporaciones y pequeños negocios continúan basándose en MS-DOS para ejecutar aplicaciones de negocios heredadas en el lugar de trabajo. Una "aplicación heredada" es software desactualizado que sigue utilizándose debido a una inversión previa. Algunas compañías han efectuado una considerable inversión en hardware, software y capacitación informática, y encuentran que MS-DOS y sus aplicaciones relacionadas todavía sirven para hacer el trabajo.

Page 10: Documento de Apoyo No. 4 Cisco It Essentials II

10

Existen varias razones para usar MS-DOS:

· MS-DOS es un sistema operativo simple, de baja sobrecarga. Los requisitos de memoria y procesador son muy bajos. DOS se ejecuta sin esfuerzo en hardware desactualizado.

· MS-DOS no es caro. No sólo el sistema operativo en sí no es caro, el costo del hardware compatible, como se mencionó anteriormente, también es bajo.

· MS-DOS es estable y confiable. Puesto que no es un sistema operativo multitasking (es decir, ejecuta un único programa a la vez), no es necesario preocuparse por los conflictos y cuelgues ocasionados por direcciones de memoria compartidas.

· MS-DOS es fácil de aprender y utilizar. Aunque no es tan intuitivo como un sistema operativo basado en GUI, una vez que el usuario domina la sintaxis de comandos, DOS es relativamente fácil de usar.

Se dispone de muchos programas para MS-DOS. Puesto que fue estándar durante muchos años, se escribió una gran cantidad de programas para ejecutarse en DOS. Algunas compañías continúan ejecutando el sistema operativo porque los programas propietarios, escritos personalizadamente para su negocio para que se ejecuten en MS-DOS, no funcionan bien en los sistemas operativos más nuevos.

No obstante, continuar utilizando este sistema operativo antiguo tiene muchas desventajas. MS-DOS no puede ejecutar los sofisticados programas gráficos escritos para los modernos sistemas operativos Windows de 32 bits. El sistema de archivos FAT de MS-DOS es inseguro y funciona mal para los entornos conscientes de la seguridad y multiusuario de hoy.

El networking con clientes MS-DOS es problemático. En algunos casos, un usuario MS-DOS podría ser incapaz de conectarse a recursos de red que utilizan nombres de archivo largos (más de ocho caracteres).

Y finalmente, la más obvia desventaja del MS-DOS es su CLI intimidante. A medida que la PC de escritorio evolucionaba, Microsoft se propuso tratar las limitaciones de MS-DOS, particularmente la interfaz del usuario. Windows 1.0 y 2.0 fueron el primer paso hacia este objetivo.

1.2 Microsoft Windows

1.2.2 Microsoft Windows 3.1

No fue hasta que Windows 3.0 se lanzó en 1990 que Microsoft estableció su interfaz del usuario como fuerza importante en la industria. En 1992, Microsoft lanzó una actualización a 3.0 denominada Windows 3.1. Muy poco después, Microsoft puso en circulación una actualización gratuita a Windows 3.1, denominada Windows 3.11. Esta familia de productos se conoce colectivamente como Windows 3.x. La Figura muestra la pantalla inicial que se muestra cuando Windows 3.1 y Windows 3.11 bootean.

Page 11: Documento de Apoyo No. 4 Cisco It Essentials II

11

Ejecutar MS-DOS con Windows 3.x resolverá muchas de las desventajas de MS-DOS. El shell Windows 3.x proporciona una GUI y soporta multitasking cooperativo, que permite a los usuario ejecutar más de un programa simultáneamente.

No obstante, Windows 3.x aún tiene desventajas. Mientras que multitasking es algo bueno, el multitasking cooperativo no es la mejor manera de implementarlo. Además, Windows 3.x es un sistema operativo de 16 bits que no proporciona la seguridad de archivos y soporte de networking incorporado que ahora demandan los usuarios.

Multitasking Cooperativo y Preferencial El multitasking cooperativo es un entorno en el cual los programas comparten direcciones de memoria e intercambian información. En un entorno multitasking, las aplicaciones comparten el uso del procesador por medio de un método conocido como "time slicing". Los programas de aplicaciones se escriben de modo tal que abandonen el procesador después de una cantidad estipulada de tiempo de modo tal que otros programas que se están ejecutando simultáneamente puedan utilizarlo. Si el programa está mal escrito, podría monopolizar el procesador. Si un programa se cuelga, podría hacer que también lo hagan otros programas.

Una forma más eficiente de multitasking utilizada por primera vez en Windows 9x se denomina multitasking preferencial, que ahora es utilizada también por versiones más nuevas de Windows. El sistema operativo controla la adjudicación del tiempo del procesador, y los programas de 32 bits se ejecutan en sus espacios de direcciones propios y separados. Con el multitasking preferencial, un programa que funcione mal no puede hacer colgar todo el sistema, y si un programa se cuelga, no afecta a los otros. Un ejemplo de multitasking Preferencial puede apreciarse en la Figura que muestra el Administrador de Tareas de Windows 2000. Los usuarios pueden ver cómo todos los procesos y programas que se ejecutan en el sistema tienen su propio número de ID de Proceso (PID), que el sistema operativo utiliza para distinguir entre procesos en ejecución.

Page 12: Documento de Apoyo No. 4 Cisco It Essentials II

12

Networking con Windows 3.x MS-DOS y Windows 3.1 requieren la instalación de software cliente adicional para conectarse a una red. Windows para Grupos de Trabajo 3.1 (lanzado en 1992) fue el primer sistema operativo de Microsoft con componentes de networking incorporados. Microsoft lanzó Windows para Grupos de Trabajo 3.11 en 1993.

Windows para Grupos de Trabajo fue diseñado para permitir a los usuarios compartir archivos con otras PCs de escritorio de su grupo de trabajo. La Figura muestra la pantalla de configuración de la red, que se utiliza para configurar un sistema Windows 3.11 para acceso a la red. Este tipo de networking, donde cada computadora juega un papel igual en la red, se denomina networking peer-to-peer. El networking incorporado y las capacidades peer-to-peer fueron importantes adiciones a Windows, pero otros sistemas operativos, como Apple Macintosh OS, proporcionaban networking peer-to-peer mucho antes que Windows para Grupos de Trabajo.

Hoy, Windows 3.x se considera obsoleto. Versiones más recientes de Windows ofrecen ventajas significativas, incluyendo un networking mejorado. Windows 3.x y MS-DOS puede utilizarse para conectarse a una red Windows NT o Windows 2000 moderna, pero en tales casos, es probable que los clientes Windows 3.x reciban servicios limitados.

Page 13: Documento de Apoyo No. 4 Cisco It Essentials II

13

1.2 Microsoft Windows

1.2.3 Windows 9x

Microsoft Windows 95 fue diseñado para un fácil manejo de la red, y la tradición se continuó y mejoró en Windows 98. Estos sistemas operativos se denominan colectivamente Windows 9x. La Figura muestra un ejemplo del escritorio de Windows 9x con la barra de tareas, que fue una nueva función que se agregó a la familia de sistemas operativos Windows 9x. Algunas de las otras nuevas características que se agregaron a los sistemas operativos Windows 9x incluyen los siguientes productos mostrados en la Figura :

· Windows 95a La versión original del primer sistema operativo de escritorio de 32 bits de Microsoft.

· Windows 95b También llamado OSR2. Incluía mejoras tales como soporte a FAT32 pero sólo estuvo disponible para Fabricantes de Equipamiento Original (OEM) para la instalación en las computadoras que vendían.

· Windows 98 Una actualización de Windows 95 que agregaba la tecnología Active Desktop, la Advanced Configuration and Power Interface (ACPI), soporte para el Bus Serie Universal (USB) y placas sintonizadoras de televisión, y mejoras de configuración y mantenimiento.

· Windows 98 Second Edition (SE) Proporcionaba el navegador web Internet Explorer 5.0, cifrado más fuerte para el networking por conexión telefónica, y soporte extra para la Conexión Compartida a Internet (ICS).

· Windows Millennium Edition (Windows ME) OS dirigido específicamente a usuarios hogareños. Puesto que está armado sobre el código Windows 9x, Windows ME se reconoce en general como parte de la familia 9x. Windows ME incluye las siguientes características:

· Soporte multimedia mejorado, haciendo que sea fácil trabajar con películas y fotos digitales.

· Funciones incorporadas de recuperación de desastres que permiten al usuario restaurar el sistema a un estado predeterminado.

· Simplificación de la configuración requerida para redes peer-to-peer simples. · Arranque y apagado más rápido (cuando se utiliza nuevo hardware que soporte la

tecnología FastBoot)

Networking con Windows 9x Los sistemas operativos Windows 9x incluyen software cliente de networking especializado. El software cliente permite al OS participar en redes basadas en servidores. Los clientes aprovechan servicios ofrecidos por sistemas que ejecutan software NOS, como Windows NT o Novell NetWare. Estos servicios incluyen la autenticación, archivos compartidos, impresoras compartidas, servicios de directorio/nombrado, servicio de correo, y servicios de web.

Page 14: Documento de Apoyo No. 4 Cisco It Essentials II

14

Windows 9x incluye software cliente para una variedad de redes. A causa de sus funciones de conectividad, Windows 9x es uno de los sistemas operativos cliente más populares del mundo de los negocios. Durante varios años, ha sido el sistema operativo de escritorio elegido por compañías tanto pequeñas como grandes, para redes peer-to-peer, y para uso como cliente para servidores Microsoft NT, NetWare, y UNIX.

Procesamiento de 32 bits y Multitasking Preferencial Windows 9x soporta aplicaciones de 32 bits, pero también incluye código de 16 bits para que resulte compatible con programas DOS y Windows 3.x. Utiliza una Tabla de Adjudicación de Archivos Virtual (VFAT) para soporte de nombres de archivos largos, y Windows 95b y 98 pueden utilizar FAT32 para un uso más eficiente del disco. Algunas ventajas de Windows 9x como sistema operativo de escritorio y cliente de red incluyen las siguientes:

· Es menos caro que Windows NT y Windows 2000. · Ejecuta una amplia variedad de aplicaciones DOS y Windows de 16 bits y 32 bits. · Su interfaz es familiar para la mayoría de los usuarios de computadora. · Se dispone de software cliente para que Windows 9x se conecte a la mayor parte de tipos de

NOS, como Windows, NetWare, UNIX, y Linux.

1.2 Microsoft Windows

1.2.4 Windows NT y Windows 2000

Durante los '90, Microsoft comenzó a desarrollar un sistema operativo que cumpliera con las necesidades de un entorno en red moderno. El resultado fue Windows NT. NT significaba Nueva Tecnología. Microsoft lanzó NT como versión 3.0 en 1993. Windows NT 4.0 se lanzó en 1996.

Windows NT se ejecutaba sobre un kernel enteramente nuevo. No se basaba en el antiguo código relacionado con el DOS sobre el cual se habían armado otras versiones de Windows. El software Windows NT contaba con seguridad de archivos mejorada, estabilidad, networking y soporte a 32 bits. Con ese propósito, Windows NT soportaba un nuevo sistema de archivos llamado NTFS.

Desde el principio, Microsoft posicionó a Windows NT como sistema operativo para servidores de alta potencia y power-users. Windows NT fue el primer sistema operativo de redes de Microsoft.

A causa de las características superiores de NT, Microsoft planeó unir su OS de escritorio (Windows 9x) con su NOS (NT) como nueva familia de productos llamada Windows NT 5.0. El proyecto NT 5.0 fue eventualmente llamado Windows 2000 por el año en que fue lanzado finalmente. A pesar de la intención original de Microsoft de lanzar una versión hogareña del software, Windows 2000 quedó como OS para power users, escritorios corporativos, y servidores de alta potencia. La Figura muestra una línea de tiempo de los sistemas operativos Windows desde NT 3.1 hasta el lanzamiento de Windows 2000.

Page 15: Documento de Apoyo No. 4 Cisco It Essentials II

15

1.2 Microsoft Windows

1.2.5 Windows XP

Windows XP fue lanzado en 2001 y representa al primer OS armado sobre NT directamente dirigido a escritorios tanto para el hogar como corporativos. La familia Windows XP está formada por:

· Windows XP Home Edition Dirigido a usuarios hogareños · Windows XP Professional Dirigido a power users y el escritorio corporativo · Windows .NET server Dirigido a servidores como NOS

Aunque Windows XP y XP Professional comparten muchos componentes con sus ancestros NT/2000, aún son considerados sistemas operativos de escritorio. A pesar de esta distinción semántica, Windows XP y XP Professional ofrecen muchas de las funciones clave asociadas a un NOS, incluyendo una sofisticada seguridad de archivos y recursos compartidos, soporte para múltiples cuentas de usuarios, administración remota, y numerosos componentes y servicios de networking. Tanto Windows XP Home Edition como XP Professional soportan múltiples cuentas de usuarios pero sólo Windows XP Professional soporta acceso remoto.

Las Figuras - muestran cuán diferente es la GUI de Windows XP de la de Windows 2000.

Page 16: Documento de Apoyo No. 4 Cisco It Essentials II

16

1.2 Microsoft Windows

1.2.6 GUI de Windows

La GUI de Windows es tal vez la interfaz del usuario más reconocible del mundo. Los sistemas operativos Windows 9x, NT, 2000, y XP comparten todos elementos comunes en sus GUIs. La Figura

señala muchas de estas características similares que todas estas versiones de Windows tienen en común.

· Escritorio · Barra de Tareas de Windows · Menú Inicio · Ícono Mi PC · Entorno de Red (también denominado Mis Lugares en la Red) · Papelera de Reciclaje

Al utilizar la GUI de Windows, hacer clic con el botón derecho sobre el ícono Mi PC, y seleccionando Propiedades desde el menú desplegable verificará qué versión de Windows está actualmente instalada en el sistema. La versión del software del OS se mostrará en la Solapa General de la ventana Propiedades del Sistema. La Figura muestra un ejemplo de cómo verificar la versión de Windows.

Page 17: Documento de Apoyo No. 4 Cisco It Essentials II

17

1.2 Microsoft Windows

1.2.7 CLI de Windows

Todos los sistemas operativos Windows incluyen un entorno de línea de comandos que permite al usuario introducir comandos MS-DOS comunes. La Figura muestra un ejemplo de la interfaz CLI MS-DOS.

Para acceder a la línea de comandos en Windows 9x, seleccione Ejecutar desde el menú Inicio e introduzca la palabra command en el recuadro de diálogo Ejecutar. Esto abrirá una ventana comúnmente denominada "Prompt de Comandos". En el prompt, introduzca comandos basados en texto y ejecute programas. La salida en el recuadro DOS también está basada en texto.

La Figura enumera algunos comandos CLI de Windows comunes.

Page 18: Documento de Apoyo No. 4 Cisco It Essentials II

18

1.2 Microsoft Windows

1.2.8 Panel de Control de Windows

La GUI Windows incluye una importante herramienta de configuración denominada Panel de Control. El Panel de Control de Windows es un punto central para efectuar cambios en la configuración del sistema. La Figura muestra un ejemplo de las diversas herramientas de configuración disponibles en el panel de control.

Desde el Panel de Control, un usuario puede llevar a cabo las siguientes tareas clave:

· Instalar y quitar controladores de hardware · Instalar y quitar aplicaciones de software y otros componentes · Agregar, modificar y borrar cuentas del usuario · Configurar una conexión de Internet · Configurar configuraciones de dispositivos periféricos (módem, mouse, impresora, etc.)

Page 19: Documento de Apoyo No. 4 Cisco It Essentials II

19

1.3 Unix y Linux en el Escritorio

1.3.1 Orígenes de Unix

UNIX es el nombre de un grupo de sistemas operativos cuyo origen se remonta a 1969 en los Laboratorios Bell. Desde su concepción, UNIX fue diseñado para soportar múltiples usuarios y multitasking. UNIX también fue uno de los primeros sistemas operativos en incluir soporte para protocolos de networking para Internet. La historia de UNIX, que ahora comprende más de 30 años, es complicada puesto que muchas compañías y organizaciones han contribuido a su desarrollo.

Durante los 1970, UNIX evolucionó a través del trabajo de desarrollo de los programadores de los Laboratorios Bell y de varias universidades, notablemente la Universidad de California, en Berkeley. Cuando UNIX comenzó a comercializarse en los 1980, se lo utilizaba para correr poderosos servidores en red, no computadoras de escritorio.

Hoy, existen docenas de versiones diferentes de UNIX, incluyendo las siguientes:

· HP-UX (Hewlett Packard UNIX) · Berkeley Software Design, Inc, (BSD UNIX, que ha dado origen a derivados tales como

FreeBSD) · Santa Cruz Operation (SCO) UNIX · Sun Solaris · AIX (UNIX de IBM)

A pesar de la popularidad de Microsoft Windows en las LANs corporativas, gran parte de la Internet corre en potentes sistemas UNIX. Aunque UNIX se asocia por lo general a hardware caro y se considera poco amigable con el usuario, recientes desarrollos, incluyendo la creación de Linux (que se describe en la siguiente sección), han cambiado esa imagen. La Figura muestra algunos de los diversos tipos de servidores para los cuales se utilizan los sistemas UNIX y Linux.

Page 20: Documento de Apoyo No. 4 Cisco It Essentials II

20

1.3 Unix y Linux en el Escritorio

1.3.2 Orígenes de Linux

En 1991, un estudiante finlandés de nombre Linus Torvalds comenzó a trabajar en un sistema operativo para una computadora basada en Intel 80386. Frustrado con el estado de los sistemas operativos de escritorio como el DOS, y el gasto de los problemas de licencia asociados con el UNIX comercial, Torvalds se propuso desarrollar un sistema operativo que fuera "UNIX" en su operación pero que utilizara código de software abierto y completamente gratuito.

Aunque no era su intención original, el trabajo de Torvalds condujo a un esfuerzo de colaboración mundial para desarrollar Linux, un sistema operativo de fuente abierta que tiene el aspecto de UNIX. A fines de los '90, Linux se había convertido en una alternativa viable a UNIX en los servidores y a Windows en el escritorio. La Figura muestra una línea de tiempo de los desarrollos más importantes del sistema operativo Linux. La popularidad de Linux en las PCs de escritorio también contribuyó al interés en el uso de las distribuciones de UNIX, tales como FreeBSD y Sun Solaris, en el escritorio. Las versiones de Linux pueden ejecutarse ahora en casi cualquier procesador de 32 bits, incluyendo los chips Intel 80386, Motorola 68000, Alpha, y PowerPC.

Al igual que en el caso de UNIX, existen numerosas versiones de Linux. Algunas son descargas gratuitas de la WWW, y otras se distribuyen comercialmente. Las siguientes son algunas de las más populares:

· RedHat Linux, distribuida por RedHat Software · OpenLinux, distribuida por Caldera · Corel Linux · Slackware · Debian GNU/Linux · SuSE Linux

Linux es uno de los sistemas operativos más potentes y confiables del mundo hoy. A causa de esto, Linux ya ha trazado entradas como plataforma para power users y en el campo de los servidores empresariales. Es implementado menos a menudo como sistema operativo de escritorio corporativo. Aunque se dispone de interfaces GUI para hacerlo amigable con el usuario, la mayoría de los usuarios primerizos encuentran a Linux más difícil de utilizar que Mac OS o Windows. Actualmente, muchas compañías (como RedHat, SuSE, Corel, y Caldera) están haciendo esfuerzos para que Linux sea un sistema operativo viable para el escritorio.

El soporte a las aplicaciones debe considerarse cuando Linux se implementa en un sistema de escritorio. La cantidad de aplicaciones de productividad para los negocios es limitada cuando se lo compara con Windows. No obstante, algunos fabricantes proporcionan software de emulación de Windows (como WABI y WINE) que permite que muchas aplicaciones Windows se ejecuten sobre Linux. Además, compañías tales como Corel están creando versiones para Linux de sus suites de oficina y otros paquetes de software populares.

Networking con Linux Distribuciones recientes de Linux tienen componentes de networking incorporados para conectarse a una LAN, establecer una conexión dialup a Internet, u otras redes remotas. De hecho, el Protocolo de Control de Transmisión/Protocolo Internet (TCP/IP) está integrado al kernel de Linux en lugar de ser implementado como subsistema separado.

Algunas ventajas de Linux como sistema operativo de escritorio y cliente de red incluyen las siguientes:

· Es un auténtico sistema operativo de 32 bits. · Soporta multitasking preferencial y memoria virtual. · El código es de fuente abierta y por lo tanto disponible para que cualquiera pueda mejorarlo.

Page 21: Documento de Apoyo No. 4 Cisco It Essentials II

21

NOTA:

Aunque UNIX se implementa más a menudo como sistema operativo de servidores, las máquinas UNIX pueden funcionar como clientes de red. En muchos casos, la configuración y los comandos para UNIX son los mismos que en los sistemas Linux. No obstante, puesto que tanto UNIX como Linux vienen en muchas versiones diferentes, las instrucciones de las siguientes secciones podrían no aplicarse a cada distribución de UNIX o Linux. En general, utilice el comando man para acceder al manual para la versión específica que se está utilizando.

En este módulo, UNIX y Linux se tratan juntos a causa de sus similitudes superficiales. En módulos posteriores, se explicarán las diferencias entre estos dos sistemas operativos.

1.3 Unix y Linux en el Escritorio

1.3.3 GUI Linux/Unix

Tanto UNIX como Linux son capaces de ejecutar GUIs. Puesto que existen tantas versiones diferentes tanto de UNIX como de Linux, existen literalmente docenas de interfaces gráficas populares de las cuales elegir.

Por ejemplo, la instalación por defecto de Red Hat 7.x instala el Entorno de Escritorio GNOME y utiliza GNOME como GUI por defecto para todos los usuarios (ver Figura ).

Page 22: Documento de Apoyo No. 4 Cisco It Essentials II

22

Aunque otros entornos de escritorio, como el Entorno de Escritorio K (KDE) pueden configurarse y utilizarse con Linux (ver Figura ), GNOME está obteniendo rápidamente aceptación en la industria como GUI UNIX y Linux "estándar".

Tanto UNIX como Linux se basan en el X-Windows System para mostrar la GUI. El X-Windows System es software que funciona con el hardware del sistema y las aplicaciones gráficas incluyendo el "Window Manager". El Window Manager es el software responsable de establecer el tamaño, la posición y de crear las ventanas gráficas en las que se ejecutan los programas.

Las ventanas incluyen bordes que pueden arrastrarse para cambiar su tamaño, y botones gráficos sobre los que puede hacerse clic para minimizar, maximizar, restaurar y cerrar la ventana. Puesto que Linux soporta docenas de window managers, y cada window manager puede personalizarse, no hay una forma única en que una ventana aparezca o actúe. La Figura muestra algunos botones de ventana comunes y sus funciones.

Page 23: Documento de Apoyo No. 4 Cisco It Essentials II

23

NOTA:

GNOME significa "GNU Network Object Model Environment" [Entorno de Modelo de Objeto de Red GNU] y se pronuncia "go-NOM". GNU significa "GNUs No UNIX". GNU es un proyecto de software dedicado a producir software gratuito, de fuente abierta para Linux. GNU se pronuncia "go-NIU", por lo cual GNOME se pronuncia con un sonido "g". A pesar de esto, es aceptable pronunciar GNOME como "NOM".

GNOME no es un window manager. De hecho, GNOME puede funcionar con varios tipos diferentes de window managers. GNOME es un entorno de escritorio. Un entorno de escritorio es una combinación de programas, aplicaciones, y applets que componen parte de la GUI.

GNOME proporciona:

· Paneles gráficos que pueden utilizarse para arrancar aplicaciones o mostrar estado · Un escritorio gráfico que puede utilizarse para colocar aplicaciones, archivos y menúes · Un conjunto estándar de herramientas y aplicaciones de escritorio · Un conjunto de convenciones que permite a las aplicaciones funcionar juntas

1.3 UNIX y Linux en el Escritorio

1.3.4 Orígenes de UNIX

UNIX y Linux fueron diseñados para ser extremadamente flexibles y adaptables. Como resultado de esto, UNIX y Linux soportan docenas de interfaces de usuario. Las más comunes son las interfaces basadas en texto llamadas shells.

Los usuarios tipean comandos que son interpretados por el shell, y este, a su vez, transmite las instrucciones al sistema operativo y a otros programas. Los shells de UNIX ( y Linux) son difíciles de aprender porque dependen de abreviaturas y una compleja sintaxis de comandos. Los shells más frecuentemente utilizados incluyen los siguientes:

· Bourne shell · Korn shell · Bash shell · C shell · TC shell

Page 24: Documento de Apoyo No. 4 Cisco It Essentials II

24

La distribución y configuración de una PC que corre bajo UNIX o Linux determinará los shells que estarán disponibles para los usuarios. Aunque hay docenas de GUIs disponibles para UNIX y Linux, el entorno CLI es la única interface de usuario disponible en varios sistemas. Si una GUI de UNIX o Linux está siendo utilizada, puede haber diversas maneras de acceder al shell de CLI, tales como abrir una ventana Terminal o "term".

Ingrese el comando UNIX, uname, en la mayoría de los sistemas para encontrar la versión UNIX o Linux que la computadora está corriendo.

1.3 Unix y Linux en el Escritorio

1.3.5 Orígenes de UNIX

Las diversas versiones de UNIX y Linux ofrecen una variedad de herramientas de configuración similares al Panel de Control de Windows. Algunas de estas herramientas se basan en texto, para entornos CLI. Algunas otras, como linuxconf para Linux o admintool para Solaris, pueden usarse en la GUI. Las Figuras – muestran ejemplos de dos herramientas de configuración principales de la GUI que se utilizan con Linux y UNIX.

Utilizando estas utilidades de configuración, pueden llevarse a cabo las siguientes tareas principales:

· Agregar, modificar y borrar cuentas de usuario · Configurar una conexión a Internet y servicios de red · Configurar dispositivos periféricos (módem, mouse, impresora, etcétera)

Page 25: Documento de Apoyo No. 4 Cisco It Essentials II

25

1.4 Descripción General de los Sistemas Operativos de Red

1.4.1 Sistemas operativos de red comunes

Las limitaciones de los primeros OSs de escritorio y la creciente demanda de PCs de escritorio condujo al desarrollo de software NOS más potente. En contraste con el primer software de PC de escritorio, los NOSs proporcionan componentes de networking incorporados y servicios de red, capacidad multiusuario, y sofisticadas tecnologías de seguridad de archivos y de archivos compartidos.

Los NOSs deben tener un kernel robusto para evitar cuelgues y tiempo de inactividad. Es especialmente importante que el kernel del NOS cronograme y administre múltiples procesos de modo tal que se evite que cada programa entre en conflicto con otras partes del sistema.

Puesto que los NOSs son administrados por administradores especializados, no necesariamente requieren interfaces gráficas, grandes consumidoras de recursos. Los NOSs han ofrecido históricamente interfaces menos que amistosas, especialmente en comparación con sus contrapartes de escritorio. No obstante, tanto Windows 2000 como Linux soportan GUIs completas e incluso controles basados en la web.

Finalmente, un NOS requiere un sistema de archivos sofisticado que permita un almacenamiento eficiente y máxima seguridad. En lugar de FAT, un NOS emplea por lo general NTFS, UFS (UNIX file system, vale decir el sistema de archivos de UNIX), u otro sistema de archivos igualmente robusto.

Novell NetWare fue el primer NOS en cumplir con estos requisitos y contar con una amplia implementación en las LANs basadas en PCs durante los años '80. Desde ese tiempo, el software Novell ha perdido su posición como el principal NOS basado en PC.

Los NOSs comunes en uso hoy incluyen:

· Microsoft Windows Los sistemas operativos de red ofrecidos por Windows son NT 3.51, NT 4.0, 2000, XP, y .NET. Tenga en cuenta que NT 3.51 y NT 4.0 están siendo desplazados como resultado de los superiores Windows 2000, XP y .Net. La Figura y la Figura muestran los sistemas operativos Windows XP y 2000.

· Novell NetWare La línea de sistemas operativos de Novell, que incluían NetWare 3.12, IntraNetWare 4.11, NetWare 5.0 and 5.1. La Figura y la Figura muestran ejemplos del sistema operativo Novell.

· Linux Los sistemas operativos Linux incluyendo Red Hat, Caldera, SuSE, Debian, and Slackware. La Figura y la Figura muestran los sistemas operativos Linux de Red Hat y Caldera.

· UNIX Diversos sistemas operativos ofrecían UNIX, como HP-UX, Sun Solaris, BSD, SCO, y AIX. La Figura muestra Sun Solaris.

Aunque el foco de este módulo está sobre Linux y Windows 2000, muchos de los mismos principios y directrices de configuración pueden aplicarse también a otros sistemas operativos de red. La Figura es una actividad de arrastrar y colocar en populares versiones de NOS.

Page 26: Documento de Apoyo No. 4 Cisco It Essentials II

26

Page 27: Documento de Apoyo No. 4 Cisco It Essentials II

27

1.4 Descripción General de Sistemas Operativos de Red

1.4.2 Comparación entre los NOS Windows y Linux

En el pasado, los sistemas operativos Windows y Linux ofrecían a los clientes y usuarios finales una clara elección y comparación. Por ejemplo, desde el principio, Windows ha sido comercializado como un sistema operativo de escritorio amigable con el usuario con interfaz gráfica (GUI). Desde ese punto, Windows se ha desplazado al entorno de los servidores y también ofrece ahora una amplia variedad de sistemas operativos estables para servidores a nivel empresarial. Linux, por otro lado, empezó del lado opuesto a Microsoft Windows. Como usted ya debe saber, las raíces de Linux comenzaron con UNIX y con ello el diseño modular hizo a Linux una opción muy popular entre los administradores de sistemas para correr en sus servidores. El diseño modular significa que Linux soporta un enfoque de mezclar y combinar que permite adaptar el sistema operativo para un servidor en particular simplemente seleccionando y combinando los módulos que implementan la funcionalidad requerida. Este diseño por módulos es lo que proporcionó a Linux y UNIX un factor de estabilidad y confiabilidad que cementó su crecimiento en servidores, en oposición a los escritorios. Otros factores que separarían el entorno Linux del entorno Windows es el hecho de que durante mucho tiempo, el Kernel Linux, el código fuente y el sistema operativo ha sido gratuitamente distribuido en la comunidad de fuente abierta. Esto representa un obvio contraste con Windows. El atractivo de la fuente abierta hizo popular a Linux entre los programadores también, ya que ellos estaban en libertad de personalizar el Kernel Linux y el código fuente. Éste sigue siendo el caso de la mayoría de las distribuciones de Linux hoy, siendo la excepción Red Hat Linux. Hoy, Red Hat ya no ofrece su característica distribución "Red Hat" en el mercado de fuente abierta. En cambio ofrece soluciones Red Hat de manera muy similar a como Microsoft Windows ofrece su sistema operativo. Red Hat Linux ofrece una versión para escritorio, un servidor de rango medio, y ediciones para servidores a nivel empresarial. Red Hat sí ofrece una opción de fuente abierta llamada Fedora, que se distribuye gratuitamente en la comunidad de fuente abierta. Técnicamente, Fedora no es oficialmente un producto soportado por Red Hat.

Recientemente, la comparación entre Windows y Linux ya no es tan distintiva. Linux ha ganado mucho promoviendo su viabilidad en el mercado como competidor y alternativa a Windows. Con esto en mente, aún hay diferencias notables que claramente separan a los dos. Estas diferencias incluyen, primero, el aspecto modular, que todavía es un componente fundamental de Linux, la funcionalidad de interfaz en modo texto, el costo, la obtención del OS, la capacidad de ejecutarse desde un CD, software de aplicaciones disponibles y obtención de software de aplicaciones, vulnerabilidad a los virus, funciones de seguridad y soporte de múltiples usuarios.

Interfaz en Modo Texto Linux proporciona una ventana terminal en modo GUI así como la capacidad para ser ejecutado en modo texto con una GUI también. Desde la interfaz en modo texto, también conocida como línea de comandos Linux, el usuario tiene la capacidad de configurar Linux completamente de cualquier manera que necesite. Esto es muy útil para los usuarios de Linux ya que la mayoría de las configuraciones se hacen abriendo una ventana config en modo texto y editándola. Windows ofrece también una interfaz de línea de comandos, no obstante, la línea de comandos Windows ya no proporciona una funcionalidad DOS real. La GUI Linux es opcional, mientras que la GUI Windows es un componente integral del OS. Ejecutar un OS GUI disminuye la eficiencia y confiabilidad de un servidor a causa del incremento en la carga que coloca sobre los recursos del servidor. Al tratar servidores y computadoras de escritorio, la eficiencia y confiabilidad son primera prioridad. La eficiencia y confiabilidad de un servidor Linux se ven incrementadas ejecutando una instancia de servidor de Linux sin una GUI, algo que las versiones de servidor de Windows no pueden hacer.

Costo Para uso en el escritorio o el hogar, Linux es muy barato o incluso gratuito, Windows es caro. Para uso en servidores, Linux es muy barato comparado con Windows. Microsoft permite el uso de una única copia de Windows en una única computadora. A partir de Windows XP, utilizan software para obligar a cumplir esta regla. Por el contrario, una vez que se ha adquirido Linux, se lo puede correr en cualquier cantidad de computadoras sin cargo adicional.

Obtención del Sistema Operativo

Page 28: Documento de Apoyo No. 4 Cisco It Essentials II

28

Es difícil comprar una nueva computadora con Linux pre-instalado. Los fabricantes de PC más importantes venden sólo computadoras basadas en Windows para uso en el hogar (las máquinas basadas en Linux que venden son servidores). En agosto de 2004 HP afirmó que ofrecería una computadora notebook para negocios, la Compaq nx5000, con SUSE Linux pre-instalado. Un modelo de baja potencia, se espera que se venda por menos que un modelo comparable que corra Windows XP. HP también tenía programado vender PCs Linux en Asia para junio del 2004.

Capacidad para Ejecutarse desde un CD Linux puede ejecutarse desde un CD, Windows no. Para ejecutar Windows, primero debe instalarse en su disco rígido. Normalmente esto ocurre también con Linux, pero existen unas pocas versiones de Linux que se ejecutan completamente desde un CD sin tener que estar instalado en un disco rígido. Ésta es una excelente forma para los usuarios de Windows de experimentar Linux por primera vez. Entre las distribuciones de Linux que tienen una versión sólo CD están Knoppix, SuSE (llamada Live-Eval), FreeBSD (llamada LiveCD), Lindows y Slackware.

Software de Aplicaciones Disponible y Obtención del Software de Aplicaciones Existe más software de aplicaciones disponible para Windows, no obstante gran parte del software y aplicaciones Linux que están disponible para Linux es gratuito. Si usted compra una copia de Windows, no obtiene software de aplicaciones con ella. Si compra una copia de Linux, ésta viene con dos o tres CDs de software de aplicaciones gratuito. Cada distribución de Linux viene en múltiples "sabores", las versiones más caras vienen con más software de aplicaciones.

Vulnerabilidad a los Virus y Funciones de Seguridad En comparación con Windows, Linux está libre de virus. Muchos más virus se ejecutan en Windows que en Linux. Por defecto, los usuarios deben proporcionar un nombre de usuario y contraseña para abrir sesión en un sistema Linux. Con Windows, éste no es el caso. Requerir a los usuarios que utilicen un nombre de usuario y contraseña es una función que debe configurarse durante la instalación de Windows o después de ella. Generalizando, los usuarios no experimentados de Windows no sabrán que esta función existe o no sabrán cómo configurarla. Esto presenta una importante vulnerabilidad a la seguridad en Windows. Linux también proporciona una cantidad de funciones de seguridad con todas las aplicaciones del servidor principal que permiten al administrador controlar completamente casi cada aspecto de vulnerabilidad y seguridad. La seguridad de Windows es generalmente unidimensional, en la cual se proporcionan simples funciones de seguridad "activada/desactivada" que no ofrecen el nivel de seguridad que se pretende para material sensible. La mayoría de las funciones de seguridad para Windows deben adquirirse a través de fabricantes de software de terceros, lo cual es muy costoso.

Soporte a Múltiples Usuarios Linux es un sistema multiusuario, Windows no. Windows está diseñado para ser utilizado por una persona a la vez. Las bases de datos que se ejecutan bajo Windows permiten un acceso concurrente de parte de múltiples usuarios, pero el Sistema Operativo en sí está diseñado para tratar con un único ser humano a la vez. Linux está diseñado para manejar a múltiples usuarios concurrentes. Windows puede ejecutar muchos programas concurrentemente, al igual que Linux. Existe una versión multiusuario de Windows llamada Terminal Server pero no es la versión de Windows pre-instalada disponible en las computadoras personales

Page 29: Documento de Apoyo No. 4 Cisco It Essentials II

29

1.4 Descripción General de los Sistemas Operativos de Red

1.4.3 El modelo cliente-servidor

La mayoría de las aplicaciones de red, incluyendo las aplicaciones relacionadas con Internet como la World Wide Web (WWW) y el e-mail, están armados en base a una relación cliente/servidor.

Un programa especializado llamado servidor ofrece servicios de red, como e-mail, a otros programas llamados clientes. (Los programas servidores se denominan comúnmente "daemons" en la comunidad UNIX). Una vez habilitado, un programa servidor espera a recibir solicitudes de los programas clientes. Si se recibe una solicitud legítima, el servidor responde enviando la información apropiada nuevamente al cliente. La Figura demuestra cómo funciona esta interacción.

Por ejemplo, una vez que un programa servidor de la web se está ejecutando, espera solicitudes de clientes. Un navegador de la web es un ejemplo de programa cliente. Los navegadores de la web envían solicitudes a los servidores web. Cuando el navegador solicita datos al servidor, el servidor responde, y el programa navegador recibe una respuesta del servidor web. El navegador muestra entonces en su ventana los datos del Protocolo de Transferencia de Hipertexto (HTTP) que recibió.

Page 30: Documento de Apoyo No. 4 Cisco It Essentials II

30

En teoría, cualquier computadora puede actuar como servidor mientras esté conectada a la red y esté configurada con el software apropiado. En la práctica, la mayoría de las organizaciones colocan todos sus servicios de red clave en computadoras de elevado desempeño llamadas servidores que ejecutan NOSs optimizados para servir a clientes remotos. La Figura muestra una disposición lógica típica de cómo los servidores serían colocados en una red.

Un servidor típico que ejecute un NOS puede configurarse para ofrecer literalmente cientos de servicios a clientes. Más aún, la mayoría de los NOSs pueden comunicarse con diversos tipos de plataformas cliente siguiendo un conjunto universalmente comprendido de reglas, o protocolos.

Internet se construye en torno a un conjunto de reglas denominadas colectivamente Protocolo de Control de Transmisión/Protocolo Internet (TCP/IP). A causa de la importancia de Internet, la mayoría de servicios de red y programas cliente utilizan TCP/IP para intercambiar datos.

No obstante, otros protocolos, como el Novell Internet Packet Exchange (IPX), Apple AppleTalk, y la Arquitectura de Red de Sistemas (SNA) de IBM, aún se usan hoy en día. La mayoría de los NOSs pueden configurarse para que se comuniquen usando uno o más de estos protocolos así como TCP/IP.

Un único servidor ejecutando un NOS puede funcionar bien sirviendo sólo a un puñado de clientes. Pero la mayoría de las organizaciones descubren que deben implementar varios servidores para lograr un desempeño aceptable. Un diseño típico separa servicios de modo tal que uno o dos servidores sean responsables del e-mail, otro servidor sea responsable de compartir archivos, etcétera.

Los servidores de elevada potencia que ejecutan un NOS son comúnmente configurados para que utilicen la familia de protocolos de Internet, TCP/IP, y ofrecen uno o más servicios TCP/IP. Los servidores que ejecutan un NOS también se utilizan para autenticar usuarios y proporcionar acceso a recursos compartidos.

1.4 Descripción General de Sistemas Operativos de Red

1.4.4 Evaluación de los recursos y requisitos de los clientes

Una de las primeras cosas que deben tenerse en cuenta al comprar o armar una nueva computadora son los requisitos necesarios para permitir al sistema proporcionar eficientemente el servicio. Determinar los recursos del cliente ayudará también a decidir qué tipo de sistema armar o comprar para el cliente.

La mayoría de las computadoras que se venden no están diseñadas para que Linux corra sobre ellas. Por lo

Page 31: Documento de Apoyo No. 4 Cisco It Essentials II

31

tanto, evaluar determinados requisitos tales como el hardware y el software ayudará en cada paso al configurar Linux para el sistema. Otros requisitos, como determinar si el sistema va a ser una estación de trabajo, servidor o aparato dedicado también ayudará en pasos subsecuentes de configuración de Linux en el sistema. Una planificación cuidadosa de este paso ayudará a decidir otros temas tales como la instalación, configuración y administración, que se tratarán posteriormente en este curso.

Estaciones de Trabajo Una estación de trabajo Linux, también conocida como computadora de escritorio, es un sistema que comúnmente es una computadora autónoma que consiste en un monitor, teclado y mouse. Más a menudo una estación de trabajo se configurará con una conexión de red también, pero éste no es un requisito para una estación de trabajo o computadora de escritorio. La Figura muestra un ejemplo de una estación de trabajo típica sobre la que puede correr Linux.

Al evaluar los requisitos apropiados para una estación de trabajo Linux, es importante tener en cuenta que el usuario requrirá hardware y software específico instalados en el sistema. Por ejemplo, los requisitos para un sistema de baja potencia, que una persona podría necesitar para tareas simples como procesamiento de texto, no será un sistema con una unidad central de procesamiento (CPU) muy rápida o grandes cantidades de memoria y espacio en el disco duro. No obstante, estos requisitos para un sistema de alto desempeño para una persona que necesita hacer tareas más complejas, como edición de video o simulaciones científicas de alto consumo de recursos, serán mayores. Este sistema de alto desempeño tendrá de hecho un procesador muy rápido así como grandes cantidades de memoria rápida y espacio en el disco rígido.

Otros requisitos de hardware que se hallarán comúnmente en las estaciones de trabajo son hardware de audio, como una placa de sonido, parlantes y en algunos casos un micrófono podría también ser necesario. En una estación de trabajo un usuario también podría necesitar tener algunas unidades de medios removibles de alta capacidad. Estas unidades pueden ser unidades Zip, grabadoras CD-R o CD-RW, y en algunos casos también una unidad de DVD-ROM.

Servidores Los requisitos para un servidor van a ser muy diferentes que los de una estación de trabajo. La Figura muestra un ejemplo de qué aspecto puede tener un típico servidor Linux. Como se muestra en la Figura , los servidores generalmente tienen un aspecto muy diferente que los sistemas de estaciones de trabajo. Los servidores no tienen realmente necesidad de las características orientadas al usuario, como grandes monitores, parlantes o placas de sonido. Por otro lado, los servidores necesitarán consistir en cosas como discos rígidos muy confiables y tolerantes a fallos. Por esta razón, los servidores tendrán discos rígidos grandes, de elevado desempeño, como discos Small Computer System Interface (SCSI) en oposición a los discos IDE Extendido (EIDE) que se instalarían en una estación de trabajo. Esto se debe a que la mayoría de los servidores hacen un gran uso de su disco rígido y por lo tanto requieren discos que se desempeñen mejor. Los discos SCSI proporcionarán estas funciones y son de especial utilidad cuando el usuario tiene múltiples discos instalados en un único servidor.

Page 32: Documento de Apoyo No. 4 Cisco It Essentials II

32

El tamaño de la red a la que estará soportando el servidor ayudará a determinar los requisitos de CPU y memoria para un servidor. Por ejemplo, si un usuario de un entorno de red grande que estará manipulando muchas solicitudes y servicios, que tenga un sistema con una CPU rápida y una gran cantidad de memoria de acceso aleatorio (RAM) será una necesidad. Éste no será el caso de un servidor que se encuentre en una pequeña oficina y sólo maneje solicitudes de unos pocos usuarios. En un servidor Linux, tener grandes cantidades de RAM puede ser más importante porque tiene una funcionalidad que automáticamente almacena recientes accesos al disco rígido en la memoria. Linux puede leer entonces directamente de la memoria en lugar de volver al disco rígido cuando entra una solicitud subsecuente. Esto se denomina accesos al disco de buffering. Por lo tanto, un servidor Linux con mucha RAM puede desempeñarse mejor que un servidor con la misma configuración y menos RAM.

Otro aspecto a considerar al determinar requisitos es qué tipo de servidor va a ser este sistema. ¿Se tratará de un servidor web o del Protocolo de Transferencia de Archivos (FTP), un servidor de noticias Usenet, un servidor de base de datos, o un servidor de tiempo? Todas estas preguntas necesitarán indagarse. Por ejemplo, si el servidor va a manejar un sitio web al que se va a acceder numerosas veces y proporcionar muchos servicios, entonces el usuario necesitaría diseñar un servidor muy potente. En algunos casos, el usuario podría necesitar tener más de un servidor proporcionando los Servicios Web.

Aparatos Dedicados Puede resultar difícil hacer cualquier requisito sugerido para que un sistema Linux se ejecute como aparato dedicado. Un aparato dedicado puede ser un sistema Linux ejecutándose como router, servidor de impresión o firewall, por ejemplo. Las Figuras y muestran ejemplos de cómo un servidor Linux podría ser usado como firewall o servidor de impresión. Al armar un sistema que se utilizará como aparato dedicado, el usuario a menudo puede utilizar hardware reciclado que de otro modo sería inutilizable. En algunos casos, estos aparatos dedicados pueden requerir hardware muy especializado, como motherboards personalizados o dispositivos de entrada de pantalla de contacto.

Page 33: Documento de Apoyo No. 4 Cisco It Essentials II

33

Recursos del Cliente Determinar los recursos del cliente es un paso muy importante para evaluar los requisitos necesarios, así como identificar cualquier recurso existente. Éstos pueden incluir cualquier hardware existente que pueda utilizarse, límites en el presupuesto, y tener disponible la pericia apropiada.

Linux proporciona un medio excelente para reutilizar hardware existente y extender la vida de sistemas antiguos y de otro modo inutilizables. Una razón para esto es el hecho de que Linux tiene la capacidad de ejecutarse sin una GUI que pueda consumir todos los recursos del sistema. Esto es de especial ayuda si un usuario deseara que un sistema actuara como firewall para una red de tamaño pequeño o mediano. Para este firewall, el usuario podría instalar Linux en uno de los primeros Pentium o un sistema 486. Un sistema Linux que se ejecute como firewall no requeriría mucha potencia en la CPU ni memoria, así como una mínima cantidad de espacio de disco. Este tipo de sistema también podría utilizarse como servidor de impresión o servidor de archivos si una pequeña cantidad de RAM se agregara. Otra instancia donde un sistema como éste podría utilizarse es como terminal e incluso una terminal gráfica X para otras computadoras Linux o UNIX.

Las restricciones de presupuesto son cosas que siempre se cuestionan al adquirir nuevas computadoras o hardware. Una manera de tratar con estas restricciones es decidir apropiadamente el hardware apropiado que se necesita y qué necesitará el usuario para lograr el trabajo. Por ejemplo, el espacio en el disco rígido siempre puede agregarse después. Podría ser una buena idea comenzar con un disco rígido de tamaño adecuado, que sea eficaz en materia de costos. Más discos rígidos pueden siempre agregarse después según sea necesario. Otra área donde una cuidadosa evaluación y planificación puede ayudar a cumplir con un presupuesto es en velocidades de la CPU. Hoy, las CPUs más sofisticadas son muy agradables pero eso no significa que sean necesarias para las necesidades de un usuario. Por ejemplo, sería una pérdida de dinero instalar un procesador Pentium 4 de 2,4 gigahertz (GHz) en un sistema que se utilizará principalmente para procesamiento de texto.

Otro factor que debe considerarse al manejar restricciones de presupuesto es que una vez que el usuario ha instalado las computadoras o el nuevo hardware, será necesario que una persona con la pericia apropiada proporcione soporte y capacitación para las personas que usen el nuevo hardware y software. Por ejemplo, si un sistema está integrado a una red existente, los usuarios podrían necesitar una capacitación especial para acceder a los recursos a través de la red. Otros temas incluyen el acceso a medios de almacenamiento. En Linux, acceder a la disquetera o a la unidad de CD-ROM es diferente que como se hace utilizando Windows.

Resumen

Este módulo trató los conceptos fundamentales acerca de la PC. Algunos de los conceptos importantes a retener de este módulo incluyen los siguientes:

Page 34: Documento de Apoyo No. 4 Cisco It Essentials II

34

· El NOS proporciona componentes de networking incorporados y servicios de red, capacidad multiusuario y sofisticada seguridad de archivos y tecnologías de archivos compartidos.

· Kernel es el término más común para el núcleo del sistema operativo. Este código informático contiene instrucciones que administran dispositivos de hardware, como unidades de disco. El kernel también administra y controla la adjudicación de la memoria, procesos del sistema, y otros programas.

· La UI actúa como puente entre el usuario y el kernel. Es el intérprete. Traduce el presionar de teclas, el hacer clic en el mouse u otras entradas para los programas apropiados. La salida de los programas puede ser organizada y mostrada por la UI. En un sistema UNIX o Linux, una UI se denomina comúnmente shell. Las interfaces del usuario recaen en dos categorías generales. Éstas son CLI y GUI.

· El sistema de archivos de un OS determina si los archivos pueden o no asegurarse de otros usuarios o programas. El sistema de archivos también define cómo se disponen físicamente los datos en el medio de almacenamiento (como una unidad de disco rígido). Un sistema de archivos común se denomina FAT.

· Internet se construye en torno a un conjunto de reglas o protocolos colectivamente denominados TCP/IP. La mayoría de servicios de red y programas cliente utilizan TCP/IP para intercambiar datos.

El siguiente módulo es una introducción al networking. El alumno aprenderá los tipos de redes, la importancia del modelo OSI, y los protocolos de red.

2. Introducción al Networking Descripción general

Este capítulo comienza con una descripción general del networking. El alumno aprenderá acerca de los tipos de redes en uso hoy, incluyendo LAN, WAN, peer-to-peer y cliente/servidor. Se tratan los beneficios de un sistema abierto en oposición a un sistema propietario. El modelo OSI representa un sistema abierto. Como se trata en este capítulo, el modelo de referencia OSI divide las funciones de la red en siete capas que permiten la comunicación. El alumno obtendrá una comprensión de las suites de protocolos incluyendo protocolos específicos usados en TCP/IP, IPX/SPX, y AppleTalk. Este capítulo también explicará la arquitectura LAN, Ethernet, Token Ring y FDDI.

2.1 Beneficios del Networking

2.1.1 Servicios de archivos, impresión y aplicación

Las computadoras pueden almacenar, procesar, manipular y mostrar grandes cantidades de información más rápida y eficientemente que cualquier tecnología anterior. Porque son programables, las computadoras pueden asumir muchas tareas diferentes. Son máquinas multipropósito. El trabajo logrado con las computadoras es de alto valor para usuarios y organizaciones. El deseo de compartir la valiosa información fue una de las fuerzas impulsoras detrás del desarrollo de las redes de computadoras. La Figura muestra cómo el desarrollo de las redes permitió que varias computadoras se conectaran juntas para compartir archivos y comunicarse mediante el correo electrónico (e-mail). La Figura también muestra cómo los dispositivos de red como impresoras pudieron conectarse a la red de modo tal que varios usuarios pudieran compartir todos una única impresora.

Page 35: Documento de Apoyo No. 4 Cisco It Essentials II

35

Aunque las tecnologías informáticas continúan volviéndose más eficientes y menos caras, todavía hay una inversión sustancial de parte de usuarios y organizaciones. Junto con el hecho de compartir información importante, las redes permiten compartir dispositivos de alto costo. En lugar de conectar una impresora a cada computadora, una red puede permitir el acceso compartido de parte de muchos sistemas concurrentemente.

2.1 Beneficios del Networking

2.1.2 Servicios de correo

Desde los primeros días, las redes informáticas han permitido a los usuarios comunicarse por correo electrónico. Los servicios de e-mail funcionan como el sistema postal, con algunas computadoras asumiendo la función de la oficina de correos. La cuenta de e-mail de un usuario opera como una casilla de correo donde se guarda el correo para el usuario hasta que es recogido por la red por medio de un programa cliente de e-mail que se ejecuta en el sistema del usuario. El e-mail continúa siendo el beneficio más ampliamente usado de las redes de computadoras.

El e-mail funciona como una aplicación de "almacenamiento y recuperación". Los mensajes de correo (y la información identificatoria como el emisor, el receptor y la marca temporal) se almacenan en un servidor de e-mail hasta que el destinatario recupera el e-mail. Cuando se crea una cuenta de e-mail para un usuario en el servidor de e-mail también habrá una casilla de correo creada para el usuario. Cuando se reciben mensajes de e-mail, el servidor de e-mail redireccionará los mensajes a la casilla de correo donde el mensaje de e-mail permanecerá hasta que el usuario lo recupere. Por lo común, los mensajes de e-mail son comunicaciones breves. Los sistemas de e-mail actuales también permiten a los usuarios adjuntar archivos más largos de muchos tipos diferentes (documentos, imágenes, películas) a sus mensajes. Estos adjuntos pueden recuperarse o descargarse junto con el mensaje de e-mail. De esta manera, los servicios de e-mail se funden con los servicios de transferencia de archivos en la red.

Aunque los sistemas de e-mail han evolucionado junto con la tecnología de networking, el rápido crecimiento de Internet ha permitido que más y más gente se conecte online. Esto permite la comunicación inmediata entre usuarios de la red. La naturaleza de almacenamiento y recuperación de los sistemas de e-mail no requiere que el destinatario esté conectado cuando se envía el e-mail. Puede recogerse o recuperarse en un momento posterior. Además del e-mail, Internet ha dado origen a una variedad de sistemas de mensajería instantánea que permiten a los usuarios de la red "chatear" con casi ninguna demora en mal llamado "tiempo real", mientras se esté conectado a la red al mismo tiempo. La Figura muestra un ejemplo del proceso de almacenamiento y recuperación cuando se envía un e-mail. La Figura es un ejemplo del cliente de e-mail de Microsoft que viene con su software de suite de oficina. Este cliente de e-mail puede usarse para recuperar e-mail desde la casilla de correo

Page 36: Documento de Apoyo No. 4 Cisco It Essentials II

36

en el servidor de e-mail.

La Figura muestra un cliente de e-mail para Linux.

2.1 Beneficios del Networking

2.1.3 Directorios y servicios de nombre

Otro importante beneficio de las redes tiene que ver con la capacidad de encontrar recursos y dispositivos donde quiera que estén ubicados. Para permitir a los usuarios y sistemas de la red encontrar los servicios que requieren, las redes de computadoras hacen uso de directorios y servicios de nombre (ver Figura ). Funcionando como la guía telefónica, la red asigna un nombre a usuarios, servicios y dispositivos para que puedan identificarse y accederse a ellos. Conocer el nombre de un servicio en la red permite a los usuarios contactarse con ese servicio sin tener que conocer su ubicación física. De hecho, su ubicación física puede cambiar y los usuarios aún pueden encontrar el servicio o dispositivo si conocen su nombre.

Page 37: Documento de Apoyo No. 4 Cisco It Essentials II

37

Los directorios y servicios de nombre hacen que la red sea más fácil de usar para la gente. La gente trabaja más fácilmente con nombres para servicios y otras entidades. Pueden confiar en un directorio de red y servicios de nombre para traducir esos nombres en direcciones usadas para comunicarse con el servicio deseado. Después de la configuración inicial del directorio o servicio de nombre, esta traducción tiene lugar detrás de escena, o transparentemente (ver Figura ). Además de la facilidad de uso, esto hace a la red más flexible. Diseñadores de red y administradores pueden localizar o mover servicios de archivos, impresión y otros con la seguridad de que los usuarios aún puedan localizarlos por su nombre. Las ventajas de los directorios y servicios de nombre son las siguientes:

· Un medio normalizado de nombrar y ubicar recursos en una red · Los nombres de texto son más fáciles de recordar que las direcciones numéricas · Los recursos de red no están atados a una ubicación física

2.1 Beneficios del Networking

2.1.4 La Internet

La Internet es una red pública de alcance mundial, que interconecta a miles de otras redes para formar una gran "red" de comunicaciones. Muchas redes privadas, algunas con miles de usuarios en ellas, se conectan a la Internet utilizando los servicios de Proveedores de Servicio de Internet [Internet Service Providers (ISPs)]. Estos enlaces permiten el acceso por larga distancia a servicios de red para compartir información y dispositivos. La Internet funciona como una "cañería" de larga distancia para facilitar el intercambio entre usuarios, organizaciones y ramas de compañías geográficamente separados. El término "supercarretera de información" ha sido acuñado para describir el beneficio de Internet para la comunicación de negocios y

Page 38: Documento de Apoyo No. 4 Cisco It Essentials II

38

privada. La Internet rompe barreras de tiempo y espacio, permitiendo compartir información alrededor del planeta en forma casi instantánea. La Figura muestra un gráfico que representa el crecimiento extremadamente rápido de la Internet en los años pasados.

2.1 Beneficios del Networking

2.1.5 Administración de red

Los beneficios de las nuevas tecnologías traen consigo ciertos problemas, cuestionamientos, y costos. A menudo, los diseñadores de una nueva tecnología no pueden predecir todos los usos e implicaciones de la nueva tecnología. Otras invenciones importantes como el motor de combustión interna o la televisión han traído costos sociales y económicos junto con sus beneficios. De igual forma, las redes de computadoras generan nuevas cuestiones incluso al abrir nuevas posibilidades para los negocios y el entretenimiento.

A medida que los negocios e individuos se hacen más dependientes del uso de las redes informáticas para sus actividades diarias, se hace vitalmente importante que estas redes entreguen los servicios que los usuarios esperan. Incluso una vez que los ingenieros han completado el diseño e instalación de una nueva red, la red requiere atención y administración para asegurarse de que continúe entregando un nivel de servicio consistente a sus usuarios. Las redes de informática necesitan monitorearse y mantenerse para permanecer dinámicas. También deben cambiar y crecer en respuesta a las nuevas tecnologías y requisitos de los usuarios.

La continua tarea de mantener y adaptar la red a las condiciones cambiantes recae en los administradores de red y personal de soporte. Las responsabilidades de los administradores de red van desde establecer nuevas cuentas y servicios de usuarios a monitorear el desempeño de la red y reparar fallos en la misma. Muy a menudo, los administradores confían en las habilidades de personal de soporte especializado para ubicar las fuentes de los problemas de la red y repararlos eficientemente. A medida que las redes crecen, los administradores deben asegurar que la disponibilidad de la red se mantenga mientras la red migra para incluir nuevo equipamiento y funciones que sirvan a sus usuarios. Los administradores de redes deben tener habilidades en el uso de una amplia variedad de herramientas para una variedad de tipos diferentes de dispositivos y sistemas.

Los administradores de redes enfrentan muchas decisiones que a menudo involucran concesiones, o como dicen los economistas, "análisis costo-beneficio". Al evaluar nuevas tecnologías y requerimientos, los administradores deben medir sus beneficios contra los cuestionamientos, costos y problemas que las nuevas funciones pueden introducir en la red. La Figura enumera algunos de los problemas comunes de los que será responsable un administrador de redes.

Page 39: Documento de Apoyo No. 4 Cisco It Essentials II

39

2.2 Tipos de Redes

2.2.1 Descripción general

En el diseño y construcción de cada nueva herramienta, desde martillos hasta hamacas, desde espátulas hasta estaciones espaciales, los ingenieros siguen la regla general de que la "Forma Sigue a la Función" [Form Follows Function]. La forma que una herramienta toma está determinada por su función. Un martillo está formado y construido para clavar clavos, una tetera para servir té. De manera similar, las redes, como herramientas, asumen diferentes formas y se construyen de diferentes materiales como consecuencia de las diferentes funciones que llevan a cabo.

Algunas redes están diseñadas para interconectar muchos usuarios y sistemas en una región geográfica relativamente limitada y permitir la comunicación de alta velocidad entre ellos. Otras redes conectan una cantidad más pequeña de dispositivos que están separados por grandes distancias. Para cumplir con los requisitos de estas dos amplias categorías de usuarios, se han diseñado diferentes tipos de redes. Las redes de área local (LANs) cumplen con los requisitos del primer grupo de usuarios. Las redes de área amplia (WANs) satisfacen los requisitos del segundo. La Figura proporciona ejemplos para ayudar a comprender mejor la diferencia entre LANs y WANs.

2.2 Tipos de Redes

2.2.2 Redes de Área Local (LANs)

Las redes de área local (LANs) conectan muchas computadoras en un área geográfica relativamente pequeña como ser un hogar, una oficina, un edificio o un campus (ver Figuras y ). La red conecta cada computadora a cada una de las otras usando un canal de comunicaciones separado. Una conexión directa de una computadora a otra se llama enlace punto a punto. Si la red estuviera diseñada usando enlaces punto a punto, la cantidad de enlaces crecería rápidamente a medida que nuevas computadoras se agregaran a la red. Por cada computadora agregada, la red necesitaría una conexión separada para cada una de las otras computadoras. Este enfoque sería muy costoso y difícil de administrar.

Page 40: Documento de Apoyo No. 4 Cisco It Essentials II

40

A partir de finales de los '60 y principios de los '70, los ingenieros en redes diseñaron una forma de red que permitía que muchas computadoras de un área pequeña compartieran un único canal de comunicaciones. Permitiendo a las computadoras compartir un canal de comunicaciones, las LANs reducen mucho el costo de la red. Los enlaces punto a punto se usan para conectar computadoras y redes en pueblos o ciudades separadas, o incluso para atravesar continentes.

La forma o disposición general de una LAN se llama su topología. Cuando todas las computadoras se conectan a un punto central o un hub, las red es una topología en estrella. Otra topología conecta las computadoras en un bucle cerrado, donde un cable se tiende de una computadora a la siguiente y luego de la segunda a su vecina hasta que la última se conecta nuevamente con la primera. Esto forma una topología en anillo. Un tercer tipo, llamado topología de bus, conecta cada computadora en un único cable largo. Cada topología tiene sus beneficios y sus inconvenientes. Hoy, la mayoría de las LANs se diseñan usando alguna forma de topología en estrella, aunque las disposiciones en anillo y bus todavía se usan en algunas instalaciones.

Cualquiera sea la topología de la red, todas las LANs requieren que las computadoras en red compartan el canal de comunicaciones que las conecta. El canal de comunicaciones que todas comparten se denomina el medio. Es por lo común un cable que transporta señales eléctricas a través de cobre, o puede ser un cable de fibra óptica que transporte señales luminosas a través de vidrio o plástico purificado. En el caso de las redes inalámbricas, las computadoras pueden usar antenas para emitir señales de radio entre sí.

En una LAN, las reglas para coordinar el uso del medio se denominan Control de Acceso al Medio (MAC). Puesto que hay muchas computadoras en la red pero solamente una de ellas puede usar el medio a la vez, debe haber algunas reglas para decidir cómo se turnarán para compartir la red. Las reglas de MAC permiten a cada computadora tener su turno para usar el medio para que haya una forma justa y eficiente de compartir la red. En el caso de conflictos cuando más de una computadora está contendiendo por el medio, las reglas aseguran que haya un método acordado para resolver el conflicto. En secciones posteriores de este capítulo, los principales tipos de LANs se repasarán, incluyendo sus reglas para compartir el medio. 2.2 Types of Networks

2.2.3 Wide-area networks (WANs)

Por razones económicas y técnicas, las LANs no son adecuadas para las comunicaciones a través de largas distancias. En una LAN, las computadoras deben coordinar el uso de la red y esta coordinación toma tiempo. A lo largo de largas distancias, las computadoras tomarían más tiempo para coordinar el uso del medio compartido y menos tiempo enviando los mensajes de datos. Además, los costos de proporcionar medios de alta velocidad sobre largas distancias son mucho mayores que en el caso de las LANs. Por estas razones, las tecnologías de redes de área amplia (WAN) difieren de las LANs. La Figura muestra un ejemplo de cómo una WAN es usualmente segmentada en mútiples LANs que componen una WAN. También muestra que la diferente segmentación de la WAN aún está conectada.

Page 41: Documento de Apoyo No. 4 Cisco It Essentials II

41

Las diferentes ubicaciones de la WAN, que se muestran en las Figuras , usan líneas de comunicación serial, punto a punto. Estas líneas se denominan punto a punto porque conectan solamente dos dispositivos, uno de cada lado de la línea. Se llaman líneas serial porque los bits de información se transmiten uno después del otro en una serie, como autos viajando por una ruta de un solo carril. Por lo común, los individuos y compañías no construyen sus propias conexiones WAN. Regulaciones del gobierno permiten solamente a las compañías de utilidades instalar líneas en propiedad pública. Por lo tanto, las WANs hacen uso de las instalaciones de comunicación colocadas por las compañías de utilidades, llamadas portadoras comunes, como la compañía telefónica.

Las conexiones a través de líneas WAN pueden ser temporales o permanentes. Usar un teléfono con una línea de conexión telefónica por ejemplo, hará una conexión temporal a una red remota desde una computadora en un hogar u oficina remota. En este caso, el hogar u oficina remota hace una llamada telefónica a una computadora en el límite de la red remota. La compañía telefónica proporciona la conexión, o circuito, que se usa mientras dura la llamada. Una vez transmitidos los datos, la línea se desconecta como una llamada de voz ordinaria. Si una compañía desea transmitir datos en cualquier momento sin tener que conectar y desconectar la línea cada vez, la compañía puede alquilar una línea o circuito permanente a la portadora común. Estas líneas arrendadas son "always on" y operan a velocidades más altas que las conexiones telefónicas temporales.

En los casos tanto temporal como permanente, las computadoras que se conectan a través de WANs deben usar dispositivos especiales llamados Unidad de Servicio de Canal/Unidad de Servicio de Datos (CSU/DSU) en cada extremo de la conexión. Éste es el punto de conexión donde los datos del usuario que vienen de la computadora o la red hacen interfaz con la conexión WAN. Los datos que se envían desde el usuario, que están en formato digital, necesitan convertirse a una forma que pueda transmitirse a través del enlace WAN, que es analógico. La CSU/DSU o el módem convierten los datos del usuario en una forma aceptable que puede enviarse a través del enlace WAN. Nuevamente, lo mismo debe hacerse en el enlace WAN de destino para que los datos puedan convertirse a una forma que la computadora pueda traducir. Este dispositivo actúa de manera similar a un módem (modulador-desmodulador). El extremo transmisor de la conexión (una CSU/DSU o módem) transforma las señales digitales de la computadora en señales analógicas. En el extremo receptor se efectúa la transformación inversa. Hay varias formas en las cuales pueden conectarse las WANs. Las Figuras , , y muestran diferentes ejemplos de cómo pueden conectarse las WANs.

Page 42: Documento de Apoyo No. 4 Cisco It Essentials II

42

Las WANs normalmente operan a velocidades más bajas que las LANs. No obstante, una WAN puede proporcionar el medio para conectar una única computadora o muchas LANs a través de largas distancias para permitir que las redes abarquen países enteros e incluso todo el globo. 2.2 Tipos de Redes

2.2.4 Redes peer-to-peer

Usando tecnologías LAN y WAN muchas computadoras son interconectadas para proporcionar servicios a sus usuarios. Para lograr esto, las computadoras en red asumen diferentes roles o funciones en relación una con otra. Algunos tipos de aplicaciones requieren que las computadoras funcionen como iguales. Otros tipos de aplicaciones distribuyen su trabajo de modo tal que una computadora funcione para servir a una cantidad de otras en una relación desigual. En cualquier caso, dos computadoras se comunican por lo común entre sí usando protocolos de solicitud/respuesta (ver Figura

). Una computadora emite una solicitud para un servicio, y una segunda computadora recibe y responde a esa solicitud. El solicitante asume el rol de cliente, y quien responde asume el rol de servidor.

Page 43: Documento de Apoyo No. 4 Cisco It Essentials II

43

En una red peer-to-peer, las computadoras en red actúan como iguales, o pares [peers] entre sí. Como pares, cada computadora puede asumir la función de cliente o la función de servidor. En un momento, la computadora A, por ejemplo, puede hacer una solicitud de un archivo a la computadora B, que responde sirviendo el archivo a la computadora A. La computadora A funciona como cliente, mientras que B funciona como servidor. Posteriormente, las computadoras A y B pueden invertir los roles. B, como cliente, hace una solicitud a A, y A, como servidor, responde a la solicitud de B. A y B se mantienen en una relación recíproca o de pares entre sí.

En una red peer-to-peer, los usuarios individuales controlan sus propios recursos. Ellos pueden decidir compartir determinados archivos con otros usuarios. También pueden requerir contraseñas antes de que permitan a otros acceder a sus recursos. Puesto que los usuarios individuales toman estas decisiones, no hay un punto central de control o administración en la red. Además, los usuarios individuales deben hacer backup de sus propios sistemas para poder recuperarse de una pérdida de datos en caso de fallo. Cuando una computadora actúa como servidor, el usuario de esa máquina puede experimentar un desempeño reducido mientras la máquina sirve las solicitudes hechas por otros sistemas.

La Figura muestra que un usuario comparte la carpeta Docs con los otros. Después de compartir la carpeta Docs, como lo muestra la Figura , el usuario que se está conectando al servidor Constellation podrá navegar por la carpeta Docs desde la red. La Figura muestra cómo la carpeta será vista por la red una vez compartida.

Page 44: Documento de Apoyo No. 4 Cisco It Essentials II

44

Las redes peer-to-peer son relativamente fáciles de instalar y operar. No es necesario un equipamiento adicional más allá de un sistema operativo apropiado instalado en cada computadora. Puesto que los usuarios controlan sus propios recursos, no se necesitan administradores dedicados. Una red peer-to-peer funciona bien con una pequeña cantidad de computadoras, tal vez 10 o menos.

A medida que las redes crecen, las relaciones peer-to-peer se vuelven cada vez más difíciles de coordinar. Puesto que no escalan bien, su eficiencia disminuye rápidamente a medida que la cantidad de computadoras de la red se incrementa. Además, los usuarios individuales controlan el acceso a los recursos en sus computadoras, lo cual significa que la seguridad puede ser difícil de mantener. El modelo de red cliente/servidor puede usarse para superar las limitaciones del modelo de red peer-to-peer.

2.2 Tipos de Redes

2.2.5 Redes cliente/servidor

En una disposición cliente/servidor, los servicios de red están ubicados en una computadora dedicada llamada servidor, que responde a las solicitudes de clientes. El servidor es una computadora central continuamente disponible para responder a la solicitud de un cliente de archivos, impresión, aplicaciones y otros servicios. La mayoría de los sistemas operativos adoptan la forma de relaciones cliente/servidor. Por lo común, las computadoras de escritorio funcionan como clientes y una o más computadoras con potencia de procesamiento, memoria y software especializado adicionales funcionan como servidores.

Los servidores están diseñados para manejar solicitudes de muchos clientes simultáneamente. Antes de que un cliente pueda acceder a los recursos del servidor, el cliente debe identificarse a sí mismo y estar autorizado para usar el recurso. Esto se hace asignando a cada cliente un nombre de cuenta y contraseña que son verificados por un servicio de autenticación que actúa como centinela para guardar el acceso a la red. Centralizando las cuentas de usuario, la seguridad y el control de acceso, las redes basadas en servidor simplifican el trabajo de la administración de red. La Figura muestra ejemplos de diferentes disposiciones de networking. La Figura demuestra cómo la información y los datos que se almacenan en un servidor pueden localizarse en un servidor o pueden distribuirse a través de varios servidores.

La concentración de recursos de red como archivos, impresoras y aplicaciones en servidores también hace a los datos que generan más fáciles de resguardar como backup y mantener. En lugar de tener estos recursos dispersos en máquinas individuales, pueden ubicarse en servidores especializados y dedicados para un acceso más fácil. La mayoría de los sistemas cliente/servidor también incluyen facilidades para mejorar la red y agregar nuevos servicios que extiendan la utilidad de la red.

La distribución de funciones en redes cliente/servidor trae ventajas sustanciales, pero también se

Page 45: Documento de Apoyo No. 4 Cisco It Essentials II

45

incurre en algunos costos. Las Figuras y enumeran algunas de estas ventajas y desventajas. Aunque el agregado de recursos en sistemas servidor trae mayor seguridad, un acceso más simple y un control coordinado, el servidor introduce un único punto de fallo en la red. Sin un servidor operativo, la red no puede funcionar en absoluto. Los servidores requieren personal capacitado y experto para administrar y mantener la red. Esto incrementa los gastos que genera la red. Los sistemas de servidor también requieren hardware adicional y software especializado que se suman al costo.

2.3 Protocolos de Networking

2.3.1 Suite de Protocolos

Los protocolos son los motores de las redes. La función del modelo de referencia OSI es realizada en la práctica por los protocolos activos en cada capa. Cuando un conjunto de protocolos funciona en forma coordinada para brindar una cantidad de funciones, son agrupados en una "suite de protocolos". TCP/IP representa una de tales suites de protocolos, IPX/SPX de Novell es otra, y AppleTalk de Apple es otra. Un protocolo es una secuencia controlada de mensajes intercambiados entre dos o más sistemas para realizar una tarea dada. Las especificaciones de los protocolos definen esta secuencia, junto con el formato de los mensajes que son intercambiados. Al coordinar el trabajo entre los sistemas, los protocolos utilizan estructuras de control en cada sistema que funcionan como un conjunto de engranajes entrelazados. Las computadoras pueden entonces seguir el estado de sus protocolos con precisión mientras se mueven a través de la secuencia de intercambios. El cronometraje es crucial para las operaciones de red. Los protocolos requieren que los mensajes arriben dentro de ciertos intervalos, por lo que los sistemas mantienen uno o más temporizadores durante la ejecución del protocolo, y toman acciones alternativas si la red no respeta las reglas de tiempo. Para hacer su trabajo, muchos protocolos dependen del funcionamiento de otros protocolos de la suite. La Figura muestra algunas de estos protocolos y una breve descripción de ellos.

Page 46: Documento de Apoyo No. 4 Cisco It Essentials II

46

2.3 Protocolos de Networking

2.3.2 TCP/IP

La suite de protocolos TCP/IP se ha vuelto el estándar dominante para internetworking. Originalmente fue definida por investigadores del Departamento de Defensa de Estados Unidos. TCP/IP representa un conjunto de estándares públicos que especifica cómo se intercambian los paquetes de información entre computadoras a través de una o más redes.

Protocolos de Aplicación Los siguientes protocolos funcionan en la capa de aplicación del modelo OSI:

· Telnet Telnet permite el acceso a la terminal de sistemas locales o remotos. La aplicación telnet se usa para acceder a dispositivos remotos para configuración, control y detección de problemas.

· Protocolo de Transferencia de Archivos (FTP) FTP es una aplicación que proporciona servicios de transferencia y manipulación de archivos. FTP usa la capa de Sesión para permitir varias conexiones simultáneas a sistemas de archivos remotos.

· Protocolo de Transporte de Correo Simple (SMTP) SMTP proporciona servicios de mensajería sobre TCP/IP y soporta la mayoría de los programas de e-mail por Internet.

· Sistema de Nombres de Dominio (DNS) DNS proporciona acceso a servidores de nombre donde los nombres de red se traducen a las direcciones usadas por los protocolos de red de Capa 3. DNS simplifica mucho el uso de la red de parte de los usuarios finales.

Protocolos de Transporte Los siguientes protocolos funcionan en la capa de transporte del modelo OSI:

· Protocolo de Control de Transmisión (TCP) TCP es el principal protocolo de Internet para la entrega confiable de datos. TCP incluye facilidades para el establecimiento de conexiones de extremo a extremo, detección y recuperación de errores, y medición de la tasa del flujo de datos hacia la red. Muchas aplicaciones estándar, como e-mail, navegación por la web, transferencia de archivos y Telnet, dependen de los servicios de TCP. TCP identifica la aplicación usándola por un número de "puerto".

· Protocolo de Datagramas del Usuario (UDP) UDP ofrece un servicio sin conexión para aplicaciones que no desean la sobrecarga de TCP y pueden tolerar un nivel de pérdida de datos. Aplicaciones en administración de redes, sistemas de archivos de red, y transporte de archivos simples usan UDP. Como TCP, UDP identifica las aplicaciones por número de puerto.

Protocolos de Internet Los siguientes protocolos funcionan en la capa de red del modelo OSI:

· Protocolo Internet (IP) IP proporciona direccionamiento de origen y destino y, en conjunción con los protocolos de enrutamiento, envío de paquetes de una red a otra hacia un destino.

· Protocolo de Mensajes de Control de Internet (ICMP) ICMP se usa para pruebas en la red y detección de problemas. Permite los mensajes de diagnóstico y error. Los mensajes de "eco" ICMP son usados por la aplicación PING para probar dispositivos remotos.

· Protocolo de Información de Enrutamiento (RIP) RIP opera entre dispositivos de router para descubrir rutas entre redes. En una Internetwork, los routers dependen de un protocolo de enrutamiento para construir y mantener información acerca de cómo enviar paquetes hacia su destino. RIP elige rutas basándose en su distancia, o número de saltos.

· Primero la Ruta Abierta Más Corta (OSPF) OSPF, como RIP, permite a los routers construir tablas de enrutamiento. A diferencia de RIP, OSPF selecciona las rutas basándose en otras características de los vínculos entre redes, como ancho de banda y retraso. OSPF es más adecuado que RIP para el enrutamiento en grandes internetworks.

· Protocolo de Resolución de Direcciones (ARP) ARP se usa para descubrir la dirección local (MAC) de una estación de la red cuando su dirección IP es conocida. Las estaciones finales así como los routers usan ARP para descubrir direcciones locales.

Page 47: Documento de Apoyo No. 4 Cisco It Essentials II

47

2.3 Protocolos de Networking

2.3.3 Estándares propietarios versus estándares abiertos

Tradicionalmente, los fabricantes de computadoras han intentado mantener los clientes para sí mismos construyendo sistemas propietarios. Las tecnologías propietarias son propiedad de una compañía y generalmente no son compatibles con el equipamiento vendido por otros fabricantes. Incluso hoy, algunas compañías con una gran parte de un mercado en particular buscan establecer estándares privados, de facto, para que otras compañías tengan que seguir sus reglas. De facto significa que se ha convertido en un estándar industrial solamente porque la mayoría ha elegido implementarlo. Pero, con la proliferación de equipamiento de computación y networking, se ha vuelto cada vez más difícil que los estándares propietarios o de facto sobrevivan. Las computadoras de diferentes fabricantes deben comunicarse entre sí e interoperar. Los clientes desean flexibilidad y ya no aceptarán sistemas que limiten sus opciones a un único fabricante. Los estándares públicos para sistemas de networking aseguran que el equipamiento de diferentes fabricantes funcionen juntos.

Los estándares de networking son desarrollados por una cantidad de organizaciones que se especializan en desarrollar estándares para la tecnología de networking. Las compañías envían sus ingenieros a los comités de estándares para diseñar y acordar una especificación para una función de networking en particular. Estas especificaciones luego se hacen públicas para que todos los fabricantes puedan construir sus sistemas para que se conformen a los estándares.

Hay algunas personas dentro de la industria de la informática que no están conformes con las limitaciones que imponen los estándares propietarios y prefieren en cambio usar el estándar de fuente abierta. Éste fue el principal argumento que tenía Microsoft para defenderse en su juicio por monopolio. Si se toma la decisión de no usar software propietario como Dell, Compaq y Microsoft por ejemplo, existe la opción de elegir fuente abierta. El software de fuente abierta es gratis y los usuarios no están atados a las leyes de derecho de autor que podrían romperse al usar software propietario. A diferencia de la mayoría del software comercial, el código central de tral software puede ser fácilmente estudiado por otros programadores y mejorado. La única provisión es que estas mejoras deben revelarse públicamente y distribuirse gratuitamente en un proceso que estimula una continua innovación.

Un líder en la arena de la fuente abierta es Linux. Se dieron cuenta del potencial y establecieron estándares para lo que la fuente abierta puede lograr. El sistema operativo Linux se tratará en más profundidad en otros capítulos.

El debate acerca de los sistemas propietarios, como Microsoft, y los sistemas de fuente abierta, como Linux, sigue siendo un tema candente. Decidir cuál es mejor depende de una preferencia individual. La Figura bosqueja algunas de las ventajas y desventajas de los sistemas tanto propietarios como de fuente abierta.

Page 48: Documento de Apoyo No. 4 Cisco It Essentials II

48

2.4 Arquitecturas LAN

2.4.1 Ethernet

La arquitectura Ethernet es el tipo más popular de vínculo LAN usado hoy. Se basa en el estándar 802.3. Éste especifica que una red que implementa el método de control de acceso Acceso Múltiple con Detección de Portadora/Detección de Colisiones (CSMA/CD) debe usar una transmisión de banda base sobre cable coaxial o de par trenzado que es tendido en una topología de bus (es decir, un bus lineal o en estrella). CSMA/CD significa que múltiples estaciones tendrán acceso a los medios, y antes de que una estación pueda acceder a esos medios, debe primero escuchar (detección de portadora) para detectar si otro sistema está usando los mismos medios. De ser así, entonces ese sistema debe esperar antes de poder transmitir. Si ambos sistemas intentan enviar datos al mismo tiempo, entonces resultará una colisión.

Las tasas de transferencia estándar son 10 megabits por segundo (Mbps) o 100 Mbps. Los nuevos estándares proporcionan Ethernet de un Gigabit, capaz de lograr velocidades de hasta un Gbps sobre cable de fibra óptica u otro medio de alta velocidad. La Figura muestra una tabla de especificaciones de Ethernet principales.

10BASE-T Actualmente, 10BASE-T es una de las implementaciones de Ethernet más populares. Usa una

Page 49: Documento de Apoyo No. 4 Cisco It Essentials II

49

topología de bus en estrella.

El término cable Ethernet puede usarse para describir el cableado de par trenzado sin blindaje (UTP) usado en general en esta arquitectura. También puede usarse Par Trenzado Blindado (STP). 10BASE-T y 100BASE-X crean redes fáciles de tender y expandir.

Una ventaja de 10BASE-T es que es de relativo bajo costo. Aunque se requiere un hub al conectar más de dos computadoras, pequeños hubs están disponibles a bajo costo, y las placas de red 10BASE-T son baratas y ampliamente disponibles.

NOTA: Dentro del hub Ethernet, el sistema de señalización es un bus, como en las redes Ethernet de coaxial.

NOTA: Las especificaciones de 10BASE-T requieren un hub. No obstante, si se conectan solamente dos computadoras (por ejemplo, para una red hogareña), y se prefiere UTP en lugar de thinnet, puede usarse un cable cruzado. Este tipo de cable tiene pares de alambres que están conectados de manera cruzada. Los cables cruzados también se usan para conectar dos hubs entre sí si los hubs no tienen puertos enlace arriba.

UTP, que es el cable de par trenzado usado más comúnmente, es delgado, flexible y más fácil de trabajar con él que el coaxial. Usa enchufes y fichas modulares RJ-45, por lo que es fácil conectar el cable a la NIC o al hub.

Otra importante ventaja de 10BASE-T es su capacidad para la actualización. Por definición, una red 10BASE-T corre a 10 Mbps. Usando un cable Categoría 5 o superior y NICs de velocidad dual de 10/100 Mbps, actualizar a 100 Mbps puede lograrse simplemente reemplazando los hubs.

Las desventajas de 10BASE-T son que la longitud máxima para un segmento 10BASE-T (sin repetidores) es de solamente 100 metros (alrededor de 328 pies). Además, el UTP usado es más vulnerable a la interferencia electromagnética (EMI) y a la atenuación que otros tipos de cable. La atenuación es la disminución de la señal, a medida que se aleja de su origen. Por ejemplo, en un segmento 10BASE-T, la fuerza de la señal sería buena hasta una distancia de 100 metros. Desde ese punto en adelante, perdería confiabilidad sin el uso de un repetidor.

Las demandas de elevado ancho de banda de muchas aplicaciones modernas, como video conferencia en vivo y streaming audio, han creado una necesidad de velocidad. Muchas redes requieren más throughput del que es posible con Ethernet de 10 Mbps. La siguiente evolución es 100BASE-X, también llamada Fast Ethernet.

100BASE-X 100BASE-X viene en diferentes variantes. Puede implementarse sobre UTP Categoría 5 (100BASE-T), sobre UTP o STP Categoría 5 de 2 pares (100BASE-TX) o como Ethernet sobre cable de fibra óptica de 2 fibras (100BASE-FX).

· Ventajas de 100BASE-X Independientemente de la implementación, la gran ventaja de 100BASE-X es su desempeño de alta velocidad. A 100 Mbps, las velocidades de transferencia son 10 veces las de 10BASE-T.

Porque usa cableado de par trenzado, 100BASE-X también comparte las mismas ventajas de 10BASE-T. Estas incluyen bajo costo, flexibilidad, y facilidad de implementación y expansión.

· Desventajas de 100BASE-X 100BASE-X comparte las desventajas de 10BASE-T, que son inherentes al cableado de par trenzado, como la susceptibilidad a la EMI y a la atenuación. Las NICs y los hubs de 100 Mbps son generalmente un poco más caros que los diseñados para las redes de 10 Mbps, pero los precios han bajado a medida que 100BASE-X ha ganado popularidad. El cable de fibra óptica sigue siendo una opción de cableado cara, no tanto por el

Page 50: Documento de Apoyo No. 4 Cisco It Essentials II

50

costo del cable en sí, sino por la capacitación y pericia requeridas para instalarlo.

1000BASE-T La nueva adición a la familia Ethernet, 1000BASE-T se llama Ethernet de un Gigabit. Aunque todavía no está en amplia implementación en las redes de producción, esta arquitectura soporta velocidades de transferencia de datos de 1 gigabit por segundo (Gbps), que es muchas veces más rápida que una línea T-1.

· Ventajas de 1000BASE-T La mayor ventaja de 1000BASE-T es por supuesto, el desempeño. A 1 Gbps, es 10 veces más rápida que Fast Ethernet y 100 veces más rápida que la Ethernet estándar. Esto hace posible implementar aplicaciones intensivas en ancho de banda, como video en vivo, en toda una intranet.

· Desventajas de 1000BASE-T Las únicas desventajas asociadas a 1000BASE-T son aquéllas comunes a todas las redes UTP, como se detalla en las secciones sobre 10BASE-T y 100BASE-T.

Half Duplex versus Full Duplex Cuando se transmiten datos sobre todos estos medios diferentes, se los envía en half duplex o full duplex. Half duplex permite usar solamente una dirección a la vez cuando los datos se transmiten sobre las líneas. Esto significa que los datos solamente pueden enviarse y recibirse en ocasiones separadas. La Figura ilustra este concepto mostrando una transmisión donde las señales solamente pueden transmitirse en una dirección a la vez. Full duplex permite dos direcciones simultáneas de flujo de datos. De la Figura una conversación telefónica entre dos personas es un buen ejemplo de cómo la transmisión full duplex tiene lugar. En este caso, ambas personas pueden hablar y comunicarse al mismo tiempo, enviando señales en ambas direcciones simultáneamente. Con full duplex, los datos pueden enviarse y recibirse al mismo tiempo. Los datos fluirán en cada dirección simultáneamente permitiendo velocidades de transferencia más rápidas a través de la red.

Estructuras de bus y estrella con hubs de bus (CSMA/CD) no pueden soportar full duplex. En consecuencia, los ejemplos dados deben ser half duplex. La única forma en la cual full duplex puede soportarse es si hay dos nodos solamente conectados juntos. Reemplazar el hub por un switch y usar solamente un host en cada puerto del switch permitirá el uso de full duplex. 2.4 Arquitecturas LAN

2.4.2 DSL

La Línea de Suscriptor Digital (DSL) es una tecnología always-on. Esto significa que no hay necesidad de marcar cada vez que se conecta a Internet. Es una tecnología relativamente nueva actualmente ofrecida por compañías telefónicas como servicio agregado sobre líneas telefónicas existentes de alambre de cobre.

Page 51: Documento de Apoyo No. 4 Cisco It Essentials II

51

DSL viene en las siguientes variedades:

· DSL Asimétrica (ADSL) actualmente es la implementación más común. Tiene velocidades que varían de los 384 kbps a más de 6 Mbps downstream. La velocidad upstream es por lo común más baja.

· DSL de Alta Velocidad de Datos (HDSL) proporciona un ancho de banda de 768 kbps en ambas direcciones.

· DSL Simétrica (SDSL) proporciona la misma velocidad, hasta 3 Mbps, para cargas y descargas.

· DSL de Muy Alta Velocidad de Datos (VDSL) logra anchos de banda entre los 13 Mbps y los 52 Mbps.

· DSL ISDN (IDSL) tiene una velocidad máxima de 144 kbps pero está disponible en áreas que no califican para otras implementaciones de DSL. IDSL es actualmente DSL sobre líneas ISDN.

La Figura resume información útil sobre las diferentes variedades de DSL. El término genérico para DSL, incluyendo todas sus implementaciones, es xDSL.

Page 52: Documento de Apoyo No. 4 Cisco It Essentials II

52

Las velocidades de transferencia a menudo se dividen en velocidades upstream y downstream. Upstream es el proceso de transferir datos del usuario final al servidor. Downstream es el proceso de transferir datos del servidor al usuario final. Por ejemplo, cuando un nombre de usuario y contraseña se entrega para obtener acceso a una cuenta de e-mail, está cargando, o transfiriendo datos upstream, al servidor de e-mail. Cuando el contenido de la bandeja de correo se muestra en el navegador web, esos datos se descargan, o transfieren downstream, a esa computadora.

ADSL es actualmente la tecnología DSL más comúnmente usada. Su rápida velocidad downstream, por lo común de 1,5 Mbps, parece funcionar a su favor porque la mayoría de los usuarios de Internet pasan la mayor parte de su tiempo haciendo tareas que requieren mucha descarga, como verificar el e-mail y navegar por la web. La velocidad de carga más lenta no funciona tan bien al albergar un servidor web o servidor FTP, pues ambos involucran actividades de Internet intensivas en carga.

ADSL usa una tecnología llamada multiplexado por división de frecuencia (FDM) para dividir el ancho de banda para crear varios canales. Otras implementaciones de DSL usan otra técnica conocida como cancelación de eco, que es más eficiente pero también más cara. Esta capacidad para crear varios canales es la razón por la cual un usuario con DSL puede navegar por Internet mientras al mismo tiempo usa el teléfono para llamar a un amigo.

2.4 Arquitecturas LAN

2.4.3 Cable módems

Un cable módem actúa como una interfaz LAN conectando una computadora a Internet. El cable módem conecta una computadora a la red de la compañía de cable mediante el mismo cableado coaxial que alimenta las señales de Televisión por Cable (CATV) a un televisor. En general, los cable módems están diseñados para proporcionar solamente acceso a Internet, mientras que los módems analógicos o adaptadores ISDN permiten marcar con cualquier proveedor de servicios o servicio en un servidor de acceso remoto. Con un cable módem, debe usarse la compañía de cable.

El servicio de cable módem, similar a DSL, es también una tecnología always-on. Un cable módem estándar tiene dos conexiones. Un puerto se conecta a la salida del televisor, y el otro se conecta a la PC suscriptora. El cable módem comunicará entonces mediante la red de cable al Sistema de Terminación de Cable Módem (CMTS). La velocidad del cable módem depende de los niveles de tráfico y de cómo la red en general está tendida. Aunque el servidor con el que se está teniendo contacto se encuentra en una ubicación remota, el acceso al cable módem se parece más a una conexión LAN directa que al acceso remoto.

Los cable módems son capaces de recibir y procesar contenidos multimedia a 30 Mbps, literalmente cientos de veces más rápido que una conexión telefónica normal a Internet. En realidad, los suscriptores pueden esperar descargar información a velocidades de entre 0,5 y 1,5 Mbps porque el ancho de banda es compartido por una cantidad de otros usuarios. El módem recibe señales alteradas digitalmente. Un desmodulador se incorpora al módem y, si es u módem de dos vías, un modulador de estallidos se usa para transmitir los datos upstream.

Los cable módems están disponibles como unidades internas y externas. La mayoría de los cable módems internos asumen las forma de placas PCI. Un cable módem externo es una pequeña caja con una conexión

Page 53: Documento de Apoyo No. 4 Cisco It Essentials II

53

de cable coaxial CATV. Se usa un bifurcador para dividir la señal entre el televisor y el cable módem. La caja se conecta a una placa Ethernet de la computadora mediante Ethernet UTP. Dispositivos USB externos también pueden estar disponibles, conectando el módem al puerto USB de la computadora sin requerir una placa Ethernet.

Actualmente no hay estándares para cable módems en la industria del acceso por cable. Como resultado, hay muchos productos propietarios competidores. El servicio del cable, la velocidad, confiabilidad, instalación y configuraciones pueden variar significativamente de una compañía de cable a otra. Actualmente, las marcas más comunes de cable módems son de Cisco Systems, 3Com, Com21, Bay Networks, Motorola, RCA, Toshiba, Linksys, NETGEAR, y Terayon. La Figura muestra un ejemplo de un cable módem Cisco típico.

En lo que se refiere a comparar el cable módem y las tecnologías de Internet DSL ambos tienen sus pro y sus contra. El servicio DSL puede agregarse de manera incrementada en un área. Esto significa que el proveedor del servicio puede actualizar el ancho de banda a medida que crece la base de suscriptores. DSL es también compatible con voz analógica y hace uso del bucle local existente. Esto significa que el servicio DSL funciona simultáneamente con el servicio telefónico normal. No obstante, DSL sufre de limitaciones de distancia ya que la mayoría de los servicios DSL actualmente requieren que el cliente se encuentre dentro de los 18.000 pies de la ubicación de la oficina central del proveedor. Además, los bucles más largos y antiguos presentan problemas, y la mejor forma de soporte de voz todavía se está debatiendo. Además, la velocidad upstream (de carga) es usualmente considerablemente más baja que la velocidad downstream (de descarga).

Inversamente, la tecnología de cable módem presenta abundante ancho de banda relativamente barato. Los canales de Internet downstream y upstream son vistos como cualquier otro canal de televisión premium por el sistema. Ésta es una importante ventaja, especialmente cuando se alberga un servidor web o servidor FTP, que involucra tareas de Internet de carga intensiva. El uso de fibra (híbrida-fibra-coaxial o HFC) resuelve algunas de las desventajas del servicio que inicialmente encontró esta tecnología. Desafortunadamente, la infraestructura de cableado necesaria para soportar la tecnología cable módem ha sido lenta en su actualización por lo que la mayoría de los hogares de Estados Unidos no pueden usar esta tecnología. La actualización es una gran inversión particularmente para los pequeños proveedores.

Resumen

Este capítulo proporcionó una introducción al networking. Algunos de los conceptos importantes a retener de este capítulo incluyen los siguientes:

· Los beneficios del networking incluyendo el e-mail, Internet, y la capacidad para compartir aplicaciones, dispositivos y archivos.

· Las redes de área local (LANs) se usan para conectar muchas computadoras en un área geográfica relativamente pequeña. Una conexión directa de una computadora a otra se llama enlace punto a punto.

· Los tres tipos de topología LAN son estrella, bus y anillo. · Una red de área amplia (WAN) puede proporcionar los medios para conectar

computadoras únicas y muchas LANs a través de grandes distancias para permitir a las redes abarcar países enteros e incluso todo el globo. Las conexiones de área amplia entre computadoras usan líneas de comunicaciones punto a punto serial.

· El modelo OSI está compuesto por siete capas. Es importante conocer qué es cada capa y la función que cada una proporciona en la red.

· Aunque TCP/IP se está convirtiendo en el estándar para los protocolos, otras compañías como Novell y Apple tienen suites de protocolos para sus sistemas. Un protocolo es una secuencia controlada de mensajes intercambiados entre dos o más sistemas para lograr una tarea determinada.

El siguiente capítulo detalla los componentes físicos de una red. Esto incluye NICs, topología, medios de networking, dispositivos, y conexión a Internet.

Page 54: Documento de Apoyo No. 4 Cisco It Essentials II

54

3. Componentes físicos de una red Descripción general

En este capítulo, el alumno estudiará los conceptos fundamentales de la red. Las opciones que se toman cuando se diseña una red de computadora determinan cuán bien funciona el sistema. Este capítulo trata cómo las topologías física y lógica combinadas con el medio y los dispositivos de red permiten a todas las computadoras conectadas al sistema comunicarse entre sí y con Internet.

3.1 Configuración de una Tarjeta de Interfaz de Red

3.1.1 ¿Qué es una NIC?

Una tarjeta de interfaz de red (NIC) es un dispositivo que se conecta a una motherboard y proporciona puertos para las conexiones de medios de la red. Es el componente de la computadora que sirve de interfaz con la red de área local (LAN). Cuando se instalan las tarjetas de interfaz de red en una computadora, el IRQ, la dirección de E/S, y el espacio en la memoria para los controladores del sistema operativo se configurarán automáticamente para que lleven a cabo su función. No obstante, en el caso de NICs más antiguas estas configuraciones tendrían necesidad de configurarse manualmente.

La siguiente información es importante a considerar al seleccionar una NIC para utilizar en una red:

· El tipo de red Las NICs están diseñadas para LANs Ethernet, Token Ring, Interfaz de Datos Distribuidos por Fibra (FDDI), y otras. Una NIC diseñada para LANs Ethernet no funcionará en redes Token Ring y viceversa.

· El tipo de medio El tipo de puerto o conector de una NIC que proporciona conexión a la red es específico del medio. Los tipos de medio incluyen par trenzado, coaxial, fibra óptica, e inalámbrico.

· El tipo de bus del sistema Los slots de Información de Control del Protocolo (PCI) son más rápidos que los de Arquitectura Estándar de la Industria (ISA). Se recomienda el uso de PCI con tarjetas FDDI, ya que un bus ISA no podrá manejar la velocidad requerida.

3.1 Configuración de una Tarjeta de Interfaz de Red

3.1.2 Configuración de la dirección IP

En una LAN basada en TCP/IP, las PCs utilizan direcciones del Protocolo Internet (IP) para identificarse y localizarse entre sí. Una dirección IP es un número binario de 32 bits. Este número binario se divide en 4 grupos de 8 bits denominados octetos, cada uno de los cuales es representado por un número decimal en el rango de 0 a 255. Los octetos se separan por medio de puntos decimales. Un ejemplo de dirección IP es 190.100.5.54. Este tipo de dirección se describe como representación decimal de punto. Cada dispositivo de la red que tenga una dirección IP se denomina host o nodo.

Un número decimal de punto secundario, denominado máscara de subred, siempre acompaña a una dirección IP. Una máscara de subred es una herramienta usada por un administrador del sistema para segmentar la dirección de red que ha sido asignada a la red. La técnica de subnetting permite a toda la red ser representada en Internet por una única dirección. Un ejemplo de máscara de subred es

Page 55: Documento de Apoyo No. 4 Cisco It Essentials II

55

255.255.0.0. La máscara de subred también se utiliza para determinar si una dirección IP de un host en particular es local (en el mismo segmento de red) o remota (en otro segmento).

Existen varias opciones para asignar direcciones IP para hosts en una LAN:

· Estática Asignada por el administrador de red manualmente · Dinámica Asignada por un servidor de Protocolo de Configuración Dinámica del Host (DHCP)

(los servidores DHCP se tratan en la siguiente sección). · Automática Direccionamiento IP privado

Si hay más de unas pocas computadoras, configurar manualmente direcciones TCP/IP para cada host de la red puede ser un proceso que consuma mucho tiempo. Esto también requiere que el administrador de red que asigna las direcciones comprenda el direccionamiento IP y sepa cómo elegir una dirección válida para la red en particular. Una dirección IP es única para cada host. La dirección IP se almacena en las Configuraciones de Red del Software del Sistema Operativo. Se denomina comúnmente dirección lógica. El direccionamiento TCP/IP se enseñará posteriormente en este curso.

En el sistema operativo Windows, la dirección IP se introduce manualmente en el recuadro de diálogo Propiedades TCP/IP. La Figura muestra el recuadro de diálogo TCP/IP, que se usa para establecer las configuraciones de dirección que se introducen, que incluyen lo siguiente:

· Una dirección IP · Una máscara de subred · Dirección de gateway por defecto · Valores opcionales incluyendo una dirección de servidor de Sistema de Nombre de Dominio

(DNS) y un Servicio de Nombrado de Internet Windows (WINS)

La dirección de gateway por defecto y la DNS se tratan en una sección posterior.

3.1 Configuración de una Tarjeta de Interfaz de Red

3.1.3 Servidores DHCP

Otra forma de que las computadoras de una red obtengan una dirección IP es mediante un servidor de Protocolo de Configuración Dinámica del Host (DHCP). DHCP es una utilidad de software que automáticamente asigna direcciones IP a las PCs. La computadora que ejecuta el software se denomina servidor DHCP. Los servidores DHCP asignan la dirección IP y la información de configuración TCP/IP a las computadoras configuradas como clientes DHCP. Este proceso dinámico

Page 56: Documento de Apoyo No. 4 Cisco It Essentials II

56

elimina la necesidad de asignaciones de direcciones IP manuales. No obstante, cualquier dispositivo que requiera una dirección IP estática o permanente debe aún tener asignada manualmente su dirección IP. La Figura muestra un ejemplo de la herramienta, que un usuario utilizaría para configurar un servidor para que ejecute servicios DHCP a sistemas cliente en la red.

Cuando el servidor DHCP recibe una solicitud de un host, selecciona información acerca de la dirección IP a partir de un conjunto de direcciones predefinidas que están almacenadas en su base de datos. Una vez que haya seleccionado la información IP, ofrece estos valores al dispositivo solicitante de la red. Si el dispositivo acepta la oferta, el servidor DHCP prestará entonces la información IP al dispositivo durante un periodo específico.

La información sobre la dirección IP que un servidor DHCP puede asignar a hosts que están comenzando en la red incluye la siguiente:

· Una dirección IP · Una máscara de subred · Gateway por defecto · Valores opcionales incluyendo una dirección de servidor DNS y WINS

El uso de este sistema simplifica la administración de una red porque el software rastrea las direcciones IP. Configurar automáticamente TCP/IP también reduce la posibilidad de asignar direcciones IP duplicadas o inválidas. Para que cualquier computadora de la red aproveche los servicios proporcionados por el servidor DHCP, debe primero poder identificar al servidor de la red local. La opción de obtener una dirección IP automáticamente se selecciona en el recuadro de diálogo Propiedades TCP/IP. La Figura muestra un ejemplo de la pantalla de configuración de dirección IP de un cliente Windows cuando es configurada con una dirección IP a través de DHCP. En otros casos, una función del sistema operativo llamada Direccionamiento IP Privado Automático (APIPA) permite a una computadora asignarse una dirección si no puede ponerse en contacto con un servidor DHCP.

Page 57: Documento de Apoyo No. 4 Cisco It Essentials II

57

3.1 Configuración de una Tarjeta de Interfaz de Red

3.1.4 Sistema de Nombres de Dominio

En una LAN a gran escala a menudo es un desafío recordar las direcciones IP de los hosts. La mayoría de los hosts son identificados en Internet por nombres informáticos amigables denominados nombres de host. El Sistema de Nombres de Dominio (DNS) se usa para traducir los nombres informáticos, como www.cisco.com a la dirección IP única correspondiente. El proceso de resolución de nombres se demuestra en la Figura . El software DNS se ejecuta en una computadora que actúa como servidor de red y hace las traducciones de direcciones. El software DNS puede estar albergado en la red por sí misma o por un Proveedor de Servicios de Internet (ISP). Las traducciones de direcciones se utilizan cada vez que se accede a Internet. El proceso de traducir nombres a direcciones se denomina resolución de nombres.

El servidor DNS mantiene registros que mapean los nombres informáticos (de host) y su correspondiente dirección IP. Estos tipos de registro se combinan en la tabla DNS. Cuando un nombre de host necesita traducirse a su dirección IP, el cliente contacta al servidor DNS. Existe una jerarquía de servidores DNS en Internet con diferentes servidores que mantienen la información DNS para sus propias áreas de autoridad, llamadas zonas. Si el servidor DNS que es consultado por una computadora no tiene un mapeo IP para el nombre de host que se está buscando, pasará la consulta a otro servidor DNS hasta obtener la información. Si el nombre no puede resolverse en una dirección IP en el servidor DNS de más alto nivel, se devuelve un mensaje de error. La Figura muestra un ejemplo de la herramienta, que un usuario utilizaría para configurar servicios DNS en Windows 2000.

Page 58: Documento de Apoyo No. 4 Cisco It Essentials II

58

DNS no es un requisito absoluto para comunicarse en Internet, pero sin él todas las comunicaciones deben usar direcciones IP en lugar de nombres de host. Es mucho más fácil recordar "www.cisco.com" que 198.133.219.25.

Para que las computadoras de la LAN accedan a y hagan uso de los servicios DNS, la dirección IP del servidor DNS debe configurarse en Configuración de Red. La dirección IP del servidor DNS puede introducirse manualmente en el recuadro de diálogo Propiedades TCP/IP de Internet que se muestra en la Figura , o puede configurarse automáticamente por funciones adicionales usadas en DHCP.

3.1 Configuración de una Tarjeta de Interfaz de Red

3.1.5 Gateway por defecto

Una computadora ubicada en un segmento de red que está intentando hablar con otra computadora en un segmento diferente pasando por un router, envía los datos a través de un gateway por defecto. El gateway por defecto es la interfaz del lado cercano del router. Es la interfaz del router a la cual el segmento o cable del segmento de red informática local está conectado. Para que cada computadora reconozca su gateway por defecto, la dirección IP de la interfaz del router del lado cercano correspondiente tiene que introducirse en el recuadro de diálogo Propiedades TCP/IP del host. La Figura demuestra cómo el gateway por defecto sería configurado y su relación con las otras interfaces del router en la red.

Page 59: Documento de Apoyo No. 4 Cisco It Essentials II

59

3.2 Topologías

3.2.1 La topología de red

La topología de red define la disposición de la red. Muestra cómo los dispositivos de la red están interconectados. Los dispositivos de la red se denominan nodos. Ejemplos de nodos incluyen computadoras, impresoras, routers, bridges y otros componentes conectados a la red. La topología tiene influencia en la forma en que opera la red.

En las siguientes secciones, se tratarán los diferentes tipos de topologías. Estos tipos incluyen las topologías de bus, estrella, estrella extendida, anillo, malla e híbrida. Una red tiene una topología tanto física como lógica. La Figura representa un diagrama de una topología de red que podría existir en una red típica. Note cómo varios de los diversos tipos de topologías de red existen en esta red de ejemplo.

3.2 Topologías

3.2.2 Topología física versus topología lógica

Las redes pueden tener tanto una topología física como una topología lógica:

· Topología física El ejemplo de la Figura muestra la topología física de una red, que se refiere a la disposición de los dispositivos y los medios.

· Topología lógica El ejemplo de la Figura muestra la topología lógica de una red, que se refiere a las rutas que atraviesan las señales de un punto de la red a otro (es decir, la forma en la cual los datos acceden al medio y transmiten los paquetes a través de él).

Page 60: Documento de Apoyo No. 4 Cisco It Essentials II

60

Estas dos terminologías pueden ser un tanto confusas, en parte porque la palabra "lógica" en este caso no tiene nada que ver con la forma en que la red parece funcionar. Las topologías física y lógica de una red pueden ser la misma. Por ejemplo, en una red físicamente en forma de bus lineal, los datos viajan en línea recta de una computadora a la siguiente. (Los alumnos aprenderán qué es una topología de bus lineal en la siguiente sección de este capítulo). De ahí que tenga una topología física de bus y una topología lógica de bus.

Una red también puede tener topologías física y lógica muy diferentes. Por ejemplo, una topología física en forma de estrella, donde los segmentos de cable pueden conectar todas las computadoras a un hub central, puede de hecho tener una topología lógica de anillo. Recuerde que en un anillo, los datos viajan de una computadora a la siguiente. Eso se debe a que dentro del hub, las conexiones de los alambres son tales que la señal realmente viaja en círculo de un puerto al siguiente, lo cual crea un anillo lógico. Por lo tanto, las predicciones respecto a cómo viajan los datos en una red no pueden siempre hacerse simplemente observando la disposición física.

Token Ring usa una topología de anillo lógico en un anillo físico o estrella física. Ethernet usa una topología lógica de bus en un bus físico o estrella física.

3.2 Topologías

3.2.3 Identificación de Topologías de Red

Topología de Bus Comúnmente denominada bus lineal, todos los dispositivos de una topología de bus están conectados por un único cable, que procede de una computadora a la siguiente como una línea de autobuses a través de una ciudad. El segmento de cable principal debe finalizar con un terminador que absorbe la señal donde llega al final de la línea o cable. Si no hay un terminador, la señal eléctrica que representa a los datos rebota hacia atrás al final del cable, ocasionando errores en la red. Sólo un paquete de datos puede transmitirse a la vez. Si se transmite más de un paquete, éstos colisionan y tienen que reenviarse. Una topología de bus con muchos hosts puede ser muy lenta debido a las colisiones. Esta topología se utiliza raramente y sólo sería apta para una oficina en el hogar o pequeño negocio con sólo unos pocos hosts. La Figura muestra un ejemplo de una topología de bus típica. La Figura delinea algunas de las ventajas y desventajas del uso de una topología de bus en una red.

Page 61: Documento de Apoyo No. 4 Cisco It Essentials II

61

Topología en Estrella La topología en estrella es la arquitectura más comúnmente utilizada en LANs Ethernet. Una vez instalada, la topología en estrella se asemeja a los rayos de una rueda de bicicleta. Se compone de un punto de conexión central que es un dispositivo, como un hub o switch, donde todos los segmentos de cableado realmente se unen. Cada host de la red está conectado al dispositivo central con su propio cable como lo muestra la Figura .

Cuando una red en estrella se expande para incluir un dispositivo de networking adicional, como un hub o switch conectado al dispositivo de networking principal, se denomina topología en estrella extendida. La Figura muestra un ejemplo de una topología en estrella extendida típica. La mayor parte de las redes más grandes, como las de corporaciones o escuelas, utilizan la topología en estrella extendida. Esta topología, cuando se la utiliza con dispositivos de red que filtran paquetes de datos, como switches y routers, reduce significativamente el tráfico en los cables. Los paquetes se envían sólo a los cables del host de destino. La Figura enumera las ventajas y desventajas de una topología en estrella.

Page 62: Documento de Apoyo No. 4 Cisco It Essentials II

62

Topología en Anillo La topología en anillo es otra topología importante en la conectividad LAN. Como el nombre lo implica, los hosts se conectan en forma de anillo o círculo. A diferencia de la topología de bus, no tiene principio ni fin que necesite ser terminado. Los datos se transmiten de forma diferente a la topología de bus o en estrella. Un frame, denominado token, viaja alrededor del anillo y se detiene en cada nodo. Si un nodo desea transmitir datos, agrega dichos datos y la información de direccionamiento al frame. El frame continúa entonces alrededor del anillo hasta encontrar el nodo de destino, que saca los datos del frame.

Page 63: Documento de Apoyo No. 4 Cisco It Essentials II

63

La ventaja de usar este método es que no hay colisiones de paquetes de datos.

Existen dos tipos de anillos:

1. Con el anillo simple, que se muestra en la Figura , todos los dispositivos de la red comparten un único cable, y los datos viajan en una sola dirección. Esto significa que cada dispositivo espera su turno para enviar datos por la red.

2. Con el anillo dual, que se muestra en la Figura , dos anillos permiten a los datos ser enviados en ambas direcciones. Esto crea redundancia, o tolerancia a fallos, lo cual significa que en caso de fallo de un anillo, los datos aún se transmitirán por el otro anillo.

Topología de Malla La topología de malla conecta a todos los dispositivos, o nodos, entre sí para obtener redundancia y tolerancia a fallos. Se utiliza en Redes de Área Amplia (WANs) para interconectar LANs y para redes críticas como las usadas por los gobiernos. La topología de malla es cara y difícil de implementar. La Figura muestra un ejemplo de cómo se conectan los dispositivos en una topología de malla.

Topología Híbrida La topología híbrida combina más de un tipo de topología. Cuando una línea de bus se une a dos hubs de diferentes topologías, la configuración se denomina estrella bus. Los negocios o las escuelas que tienen varios edificios, denominados campus, a veces usan esta tecnología. La línea de bus se usa

Page 64: Documento de Apoyo No. 4 Cisco It Essentials II

64

para transferir los datos entre las topologías en estrella como muestra la Figura .

3.3 Tipos de Medios

3.3.1 Medios de Networking

Los medios de networking pueden definirse simplemente como los medios a través de los cuales las señales, o los datos, se envían de una computadora a otra. Las señales pueden transmitirse a través de cable o por medios inalámbricos. Existe una amplia variedad de medios de networking en el mercado. Se tratarán los siguientes tipos de medios:

· Cobre incluyendo coaxial y par trenzado · Vidrio fibra óptica · Ondas inalámbricos

Existen dos categorías de cable para cada tipo de medio, como coaxial, par trenzado, y fibra óptica:

· Pleno La palabra pleno se refiere al espacio entre un falso cielo raso y el piso por encima de él en un edificio. El cableado de red que se tiende en este espacio debe retardar el fuego. El cable de categoría pleno, llamado comúnmente cable para plenos, se refiere al cable con una vaina exterior hecha de Teflon u otro material que cumple con códigos contra incendios y de edificación.

· PVC La vaina exterior de los cables categoría no-pleno está hecha de Cloruro de Polivinilo (PVC). El PVC es un material protector menos caro que los materiales de categoría pleno. No cumple con la mayoría de los códigos de seguridad para la instalación en el área por encima del cielo raso porque libera un gas venenoso cuando se quema. Verifique el código de edificación e incendios local para saber las locaciones donde puede utilizarse el cable categoría PVC.

Page 65: Documento de Apoyo No. 4 Cisco It Essentials II

65

3.3 Tipos de Medios

3.3.2 Cable de par trenzado

El par trenzado es un tipo de cableado que se utiliza para las comunicaciones telefónicas y la mayoría de las redes Ethernet modernas. Las Figuras y muestran dos ejemplos de cables de par trenzado. Un par de alambres forman un circuito que puede transmitir datos. Los pares se trenzan para evitar crosstalk, el ruido generado por pares adyacentes. Pares de alambres de cobre encapsulados en aislación plástica codificada por colores se trenzan juntos. Todos los pares trenzados son protegidos entonces dentro de una vaina exterior.

Hay dos tipos básicos:

1. Par trenzado blindado (STP) (Ver Figura ) 2. Par trenzado sin blindaje (UTP) (Ver Figura )

UTP El cable par trenzado sin blindaje (UTP) se utiliza en una variedad de redes. Tiene dos o cuatro pares de alambres. Este tipo de cable se basa únicamente en el efecto de cancelación producido por los pares de alambre trenzado para limitar la degradación de la señal ocasionada por la interferencia electromagnética (EMI) y la interferencia de radiofrecuencia (RFI). UTP es el cableado más comúnmente utilizado en redes Ethernet.

Page 66: Documento de Apoyo No. 4 Cisco It Essentials II

66

STP El cable par trenzado blindado (STP) combina las técnicas de cancelación y trenzado de los cables con blindaje. Cada par de alambres es envuelto en una lámina metálica para resguardar más los alambres del ruido. Los cuatro pares de alambres son luego envueltos en una red o lámina metálica que los cubre a todos. El STP reduce el ruido eléctrico, tanto dentro del cable, llamado crosstalk, como desde afuera del cable, llamado EMI y RFI.

Aunque STP evita más interferencia que UTP, es más caro y difícil de instalar. Además, el blindaje metálico debe estar conectado a tierra en ambos extremos. Si está mal conectado a tierra, el blindaje actúa como antena recogiendo señales indeseadas. STP se utiliza principalmente en Europa.

La mayoría de las redes de hoy se arman utilizando cable UTP. El conector de un extremo del cable se denomina conector RJ-45. Una vez dispuestos los alambres en el orden correcto del código de colores, termínelo con un conector RJ-45. Una herramienta de crimpeado se usa para terminar un cable UTP en un conector RJ-45. La Figura muestra un ejemplo de herramienta de crimpeado que se utiliza para asegurar los conectores RJ-45 a un cable UTP.

El UTP viene en varias categorías según la cantidad de alambres y de trenzados en ellos como muestra la Figura .

Page 67: Documento de Apoyo No. 4 Cisco It Essentials II

67

Categoría 3 es el cableado utilizado para conexiones telefónicas. Tiene cuatro pares de alambres y una velocidad de datos máxima de hasta 16 Mbps.

Categoría 5 y 5e son actualmente los cables Ethernet más comúnmente utilizados. Tienen cuatro pares de alambres con una velocidad de datos máxima de hasta 100 Mbps. Category 5e tiene más trenzados por metro que el cableado Categoría 5. Estos trenzados extra evitan aún más la interferencia de fuentes exteriores y de los otros alambres dentro del cable.

Categoría 6 es la categoría más moderna y ha sido ratificada por organizaciones de la industria del cableado. Categoría 6 es similar a Categoría 5/5e excepto en que un divisor plástico para evitar el crosstalk separa los pares de alambre. Además, los pares tienen más trenzados que el cable Categoría 5e.

3.3 Tipos de Medios

3.3.3 Cable de fibra óptica

El cable de fibra óptica es un medio de networking con capacidad para conducir transmisiones de luz modulada. Modular luz es manipularla de modo tal que viaje de modo tal que transmita datos. La fibra óptica hace referencia a un cableado que tiene un núcleo de fibras de vidrio o plástico (en lugar de cobre), a través del cual los impulsos de luz transportan señales. La Figura muestra un ejemplo de la totalidad de los diversos componentes que componen un cable de fibra óptica. El cable de fibra óptica no transporta impulsos eléctricos, como sí lo hacen otras formas de medios de networking que utilizan alambre de cobre. En cambio, las señales que representan datos son convertidas en rayos de luz. La fibra tiene muchas ventajas sobre el cobre en términos de ancho de banda de transmisión e integridad

Page 68: Documento de Apoyo No. 4 Cisco It Essentials II

68

de la señal a lo largo de la distancia. No obstante, es más difícil trabajar con ella y es más cara que el cableado de cobre. Los conectores son caros, como lo es la mano de obra para terminar los extremos de los cables. La Figura muestra un ejemplo de cable de fibra óptica con los extremos terminados.

La Figura muestra las ventajas y desventajas de la fibra óptica.

3.3 Tipos de Medios

3.3.4 Inalámbricos

Una red inalámbrica es un método alternativo de conectar una LAN. Estas redes usan ondas electromagnéticas como radiofrecuencia (RF), láser, infrarrojo (IR), y satélite/microondas para transportar señales de una computadora a otra sin una conexión de cable permanente. Puesto que no es necesario un medio físico permanente para esta red, esta tecnología es una forma muy versátil de construir una red.

Una aplicación común de la comunicación de datos inalámbrica es el uso móvil. Algunos ejemplos del uso móvil incluyen conmutadores, aviones, satélites, sondas espaciales remotas, transbordadores espaciales y estaciones espaciales.

En la parte central de la comunicación inalámbrica están los dispositivos llamados transmisores y receptores. La fuente interactúa con el transmisor que convierte los datos en ondas electromagnéticas (EM) que luego son recibidas por el receptor. El receptor luego convierte estas ondas electromagnéticas nuevamente en datos hacia el destino. Para la comunicación en dos sentidos, cada dispositivo requiere un transmisor y un receptor. Muchos de los fabricantes de dispositivos de

Page 69: Documento de Apoyo No. 4 Cisco It Essentials II

69

networking arman el transmisor y el receptor como una unidad llamada transceptor o placa de red inalámbrica. Todos los dispositivos de una LAN inalámbrica (WLAN) deben tener instalada la placa de red inalámbrica apropiada.

Las dos tecnologías inalámbricas más comunes utilizadas para el networking son IR y RF. La tecnología IR tiene sus debilidades. Las estaciones de trabajo y los dispositivos digitales deben hallarse en la línea de visión del transmisor para poder operar. Una red basada en infrarrojo sirve a entornos donde todos los dispositivos digitales que requieren conectividad a la red se encuentran en una única habitación. La tecnología de networking IR puede instalarse rápidamente, pero las señales de datos pueden ser debilitadas u obstruidas por la gente que camina por la habitación o la humedad del aire. Existen, no obstante, nuevas tecnologías IR en desarrollo que pueden funcionar fuera de la vista.

La tecnología RF permite a los dispositivos encontrarse en diferentes habitaciones o incluso edificios. El alcance limitado de las señales de radio aún restringirá el uso de este tipo de red. La tecnología RF puede ser en una única o en múltiples frecuencias. Una radiofrecuencia única está sujeta a interferencia del exterior y a obstrucciones geográficas. Además, otros pueden monitorear fácilmente una única frecuencia, lo cual vuelve inseguras las transmisiones de datos. El espectro expandido evita el problema de la transmisión de datos insegura utilizando múltiples frecuencias para incrementar la inmunidad al ruido y para dificultar que extraños intercepten las transmisiones de datos.

Existen dos enfoques utilizados actualmente para implementar el espectro expandido para transmisiones WLAN:

· Espectro Expandido de Salto de Frecuencia (FHSS) · Espectro Expandido de Secuencia Directa (DSSS)

Los detalles técnicos acerca de cómo funcionan estas tecnologías están más allá del alcance de este libro. La Figura ilustra cómo funcionan las tecnologías de networking inalámbrico.

3.4 Dispositivos

3.4.1 Hubs y repetidores

Muchos tipos de dispositivos se conectan para componer una LAN. Éstos se denominan componentes de hardware de la LAN. Esta sección tratará algunos de los componentes de hardware comunes que se utilizan en un entorno LAN. Dispositivos LAN comunes incluyen repetidores, hubs, bridges, switches, y routers. Las Figuras y muestran ejemplos de hubs y repetidores.

Page 70: Documento de Apoyo No. 4 Cisco It Essentials II

70

Un repetidor recibe la señal, la regenera, y la hace continuar. Los repetidores se utilizan principalmente en los bordes de las redes para extender el cable para poder agregar más estaciones de trabajo.

Los hubs son realmente repetidores multi-puerto. La Figura ilustra el aspecto que tendría un Hub Cisco típico. En muchos casos, la diferencia entre los dos dispositivos es la cantidad de puertos que cada uno proporciona. Mientras que un repetidor común tiene sólo dos puertos, un hub en general tiene de cuatro a veinte puertos. La Figura muestra un ejemplo de dónde podría colocarse un repetidor entre dos objetos para extender la fuerza de la señal del cable. Además, los hubs son utilizados más comúnmente en redes Ethernet 10BASE-T o 100BASE-T, aunque existen otras arquitecturas de red que también los usan.

Usar un hub cambia la topología de la red de un bus lineal, donde cada dispositivo se conecta directamente al cable, a una estrella. Con los hubs, los datos que llegan a través de los cables a un puerto de hub se repiten eléctricamente en todos los otros puertos conectados a la misma LAN Ethernet, excepto por el puerto en el cual se recibieron los datos.

Los hubs vienen en tres tipos básicos:

1. Pasivo Un hub pasivo sirve a un punto de conexión físico únicamente. No manipula ni visualiza el tráfico que lo cruza. No impulsa ni despeja la señal. Un hub pasivo se utiliza sólo para compartir el medio físico. Como tal, el hub pasivo no necesita energía eléctrica.

2. Activo Un hub activo debe conectarse a la salida de electricidad porque necesita energía para amplificar la señal entrante antes de pasarla nuevamente hacia afuera hacia los otros puertos.

Page 71: Documento de Apoyo No. 4 Cisco It Essentials II

71

3. Inteligente Los hubs inteligentes a veces se llaman "smart hubs". Estos dispositivos funcionan básicamente como hubs activos pero también incluyen un chip microprocesador y capacidades de diagnóstico. Son más caros que los hubs activos pero son útiles en situaciones donde hay que resolver problemas.

Finalmente, es importante recordar estos puntos acerca de los hubs:

· Todos los dispositivos que están conectados a un hub escuchan todo el tráfico. Por lo tanto, los hubs mantienen un único dominio de colisión. Una colisión se describe como una situación donde dos estaciones finales envían datos a través del cable de la red al mismo tiempo.

· A veces los hubs son llamados concentradores. Esto se debe a que sirven como punto de conexión central para una LAN Ethernet.

· Los hubs operan en la capa física del modelo OSI.

3.4 Dispositivos

3.4.2 Bridges y switches

Hay ocasiones en que es necesario dividir una LAN grande en segmentos más pequeños y fáciles de administrar. Esto disminuye la cantidad de tráfico en una única LAN y puede extender el área geográfica más allá de lo que una única LAN puede soportar. Los dispositivos que se utilizan para conectar segmentos de red incluyen bridges, switches, routers y gateways. Los switches y bridges operan en la capa de enlace de datos del modelo OSI. La Figura muestra un bridge y un switch. La función del bridge es tomar decisiones inteligentes acerca de si pasar o no las señales al siguiente segmento de una red. La Figura muestra de qué manera los bridges y switches pueden utilizarse para dividir una red en segmentos separados. La Figura muestra un ejemplo de bridge inalámbrico Cisco. Cuando un bridge ve un frame en la red, mira la dirección MAC de destino y la compara con la tabla de envío para determinar si filtrar, hacer flooding de o copiar el frame en otro segmento. Este proceso de decisión tiene lugar de la siguiente manera:

· Si el dispositivo de destino está en el mismo segmento que el frame, el bridge bloquea al frame para que no pase a otros segmentos. Este proceso se denomina filtrado.

· Si el dispositivo de destino está en un segmento diferente, el bridge envía el frame al segmento apropiado.

· Si la dirección de destino es desconocida para el bridge, el bridge envía el frame a todos los segmentos excepto aquél en el cual se lo recibió. Este proceso se conoce como flooding.

Page 72: Documento de Apoyo No. 4 Cisco It Essentials II

72

Si se lo coloca estratégicamente, un bridge puede mejorar mucho el desempeño de la red. Un switch se describe a veces como bridge multi-puerto. Mientras que un bridge común puede tener sólo dos puertos, que vinculan a dos segmentos de red, el switch puede tener múltiples puertos dependiendo de cuántos segmentos de red han de ser vinculados. La Figura muestra cómo un switch puede utilizarse para segmentar una red así como ser utilizado como dispositivo central para que un sistema se conecte a la red. La Figura muestra un switch Cisco típico. Como los bridges, los switches aprenden cierta información acerca de los paquetes de datos que reciben desde diversas computadoras de la red. Usan esta información para armar tablas de envío para determinar el destino de los datos que son enviadas por una computadora a otra en la red.

Aunque existen algunas similitudes entre los dos, un switch es un dispositivo más sofisticado que un bridge. Un switch tiene muchos puertos con muchos segmentos de red conectados a ellos. Un switch elige el puerto al cual el dispositivo de destino o estación de trabajo están conectados. Los switches Ethernet se están volviendo soluciones de conectividad populares porque, como los bridges, mejoran el desempeño de la red, o la velocidad y el ancho de banda. Los switches ayudan más a segmentar una red y reducen la congestión del tráfico de red limitando cada puerto a su propio dominio de colisión. Las colisiones en las redes tienen lugar cuando los paquetes se envían por la red. Esto usualmente ocurre cuando hay más de un dispositivo intentando enviar un paquete al mismo tiempo. Estas colisiones resultan en mensajes corruptos y un uso excesivo del ancho de banda. Por esta razón, es importante que todas las redes implementen dispositivos para reducir estas colisiones. Se considera un dominio porque sólo los dispositivos que están en el dominio que están transmitiendo paquetes pueden tener

Page 73: Documento de Apoyo No. 4 Cisco It Essentials II

73

colisiones. No interferirán con ningún otro dispositivo que esté transmitiendo en otro segmento de la red. Un switch que sea capaz de hacer a cada puerto su propio dominio de colisión puede conservar recursos en la red limitando sólo el dispositivo conectado a ese puerto a su propio dominio de colisión. Esto reducirá significativamente la interferencia para ese dispositivo así como la interferencia proveniente de otros dispositivos transmitiendo paquetes en otros segmentos de la red. Aunque un switch puede segmentar una red en múltiples dominios de colisión, no puede segmentar la red en dominios de broadcasts separados. Los dominios de broadcast ocurren cuando una red es segmentada en múltiples partes, y no se permite a ningún tráfico de broadcast que cruce los segmentos.

3.4 Dispositivos

3.4.3 Routers

El router debe tomar decisiones inteligentes sobre cómo enviar datos de un segmento a otro. La Figura muestra un ejemplo de router. Por ejemplo, desde una computadora en el segmento de red 1, a una computadora en el segmento de red 3. La Figura demuestra cómo pueden implementarse los routers para segmentar más una red.

Los routers son los dispositivos de internetworking más sofisticados que hemos tratado hasta ahora y operan en la capa de Red del modelo OSI. Son más lentos que los bridges y switches pero toman decisiones "inteligentes" acerca de cómo enrutar paquetes recibidos en un puerto hacia una red en otro puerto. Los routers, como los switches, son capaces de segmentar la red. Los routers son capaces de segmentar una red en múltiples dominios de colisión así como en múltiples dominios de broadcast. Un dominio de broadcast es un área lógica en una red de computadoras donde cualquier computadora conectada a la red informática puede transmitir directamente a cualquier otra del dominio sin tener que atravesar un dispositivo de enrutamiento. Más específicamente es un área de la red informática compuesta por todas las computadoras y dispositivos de networking que pueden ser alcanzados enviando un frame a la capa de enlace de datos. Cada puerto al cual está conectado un segmento de red se describe como interfaz de router. Los routers pueden ser computadoras con software de red especial instalado en ellas o pueden ser dispositivos armados por fabricantes de equipamiento de red. Los routers contienen tablas de direcciones de red junto con rutas de destino óptimas a otras redes. La Figura muestra routers Cisco.

Page 74: Documento de Apoyo No. 4 Cisco It Essentials II

74

Resumen

Este capítulo trató los componentes físicos de una red. Algunos de los conceptos importantes a retener de este capítulo incluyen a los siguientes:

· Consideraciones importantes al seleccionar una Placa de Interfaz de Red (NIC) son el tipo de red, el tipo de medio a utilizar, y el tipo de bus del sistema.

· En una LAN basada en TCP/IP, las PCs utilizan direcciones del Protocolo Internet (IP) para identificarse entre sí. Estas direcciones pueden asignarse manualmente o con un servidor de Protocolo de Configuración Dinámica del Host (DHCP).

· La topología física se refiere a la disposición de los dispositivos y los medios en una red. La topología lógica se refiere a la ruta por la que viajan las señales en la topología física.

· Los medios de networking se definen como el medio por el cual las señales (datos) se envían de una computadora a otra. Es importante comprender las ventajas y desventajas del cobre (incluyendo cables coaxial y de par trenzado), la fibra óptica y las conexiones inalámbricas.

El siguiente capítulo detalla el modelo de networking TCP/IP. TCP/IP es la suite de protocolos predominante en networking hoy.

4. Networking de TCP/IP Descripción general

La Agencia de Proyectos de Investigación Avanzados del Departamento de Defensa (DARPA) de EE.UU. produjo los diseños y las redes experimentales que evolucionaron hasta convertirse en la Internet pública. El modelo de red del Protocolo de Control de Transmisión/Protocolo Internet (TCP/IP) que fue desarrollada se basa en el modelo de referencia Interconexión de Sistemas Abiertos (OSI). Es ahora la suite de protocolos predominante usada en networking.

En este capítulo el alumno aprenderá cómo las capas de TCP/IP funcionan juntas para comunicarse en una red, cómo se asignan las direcciones, y cómo el nombre de una computadora se traduce a una dirección IP y viceversa. Además, se tratarán las funciones llevadas a cabo por cada uno de los protocolos importantes que componen la suite de protocolos TCP/IP.

4.1 Historia de TCP/IP

4.1.1 Orígenes y crecimiento de TCP/IP

Inventos que comienzan en un contexto gubernamental o militar a menudo terminan teniendo un gran valor en la vida civil. Por ejemplo, la Segunda Guerra Mundial estimuló el desarrollo de grandes sistemas informáticos. De manera similar, las investigaciones militares patrocinadas por la Agencia de Proyectos de Investigación Avanzada del Departamento de Defensa (DARPA) de EE.UU. produjo los diseños y redes experimentales que evolucionaron hasta convertirse en la Internet pública. DARPA también aceleró la expansión del Protocolo de Control de Transmisión/Protocolo Internet (TCP/IP)

Page 75: Documento de Apoyo No. 4 Cisco It Essentials II

75

incluyéndolo en distribuciones del sistema operativo UNIX.

En el competitivo mundo de los negocios, las compañías privadas protegen las tecnologías que desarrollan usando patentes y secretos de marca para obtener una ventaja en el mercado. Un sistema de red se denomina "cerrado" cuando una compañía lo posee y controla. En contraste, la suite de protocolos TCP/IP es un sistema abierto. Esto significa que las especificaciones para los protocolos Internet se hicieron públicamente disponibles para que cualquier compañía pudiera construir hardware o software de computadoras que los implementara. Esta estrategia permite a los clientes comprar productos de red de diferentes compañías con la seguridad de que los productos funcionarán juntos o interoperarán.

Basándose en los estándares abiertos de TCP/IP, Internet ha sido enormemente exitosa. A principios de los '80, Internet conectaba sólo unos pocos cientos de computadoras. Para el año 1997, conectaba a más de 16 millones de computadoras, y se había duplicado en tamaño aproximadamente cada 10 meses. Los matemáticos llaman a tal crecimiento exponencial. Aunque Internet no puede continuar creciendo indefinidamente a esta velocidad, nadie puede predecir cuán grande puede y realmente llegará a ser. Hoy, las corporaciones e individuos son cada vez más dependientes de Internet para conducir negocios y las actividades de la vida diaria. La Figura señala la evolución del crecimiento de Internet.

Una mirada a la historia del teléfono y la televisión puede proporcionar alguna idea de la velocidad a la cual ha crecido la tecnología TCP/IP. La Figura muestra un gráfico que compara cuán rápido ha crecido Internet en relación a otras formas de tecnología. Le tomó más de 38 años a la radio lograr lo que se llama un servicio universal. Servicio universal significa que casi todas las casas del mundo tecnológicamente avanzado usan y dependen del acceso a la radio. La televisión se toma ahora por sentada como fuente de noticias y entretenimiento. Los primeros televisores aparecieron en los livings a fines de los '40. No obstante, llevó cincuenta años lograr el servicio universal, donde la mayoría de los hogares tienen uno o más televisores. En comparación, Internet ha logrado la mayor parte de su crecimiento explosivo dentro de los pasados diez años y está ahora comenzando a absorber elementos de los sistemas de teléfonos y televisión. Ninguna otra tecnología puede compararse con este logro. La Figura ilustra algunos gráficos que muestran cuán rápidamente los usuarios, el comercio electrónico y el contenido de la web han crecido. Estos gráficos también muestran los dramáticos ahorros de costos que Internet ha proporcionado para diversas compañías.

Page 76: Documento de Apoyo No. 4 Cisco It Essentials II

76

4.1 Historia de TCP/IP

4.1.2 El modelo de red TCP/IP

El modelo de red TCP/IP se parece mucho al modelo de referencia OSI y es la suite de protocolos predominante usada en networking hoy. El modelo de red TCP/IP contiene cuatro capas, a diferencia del modelo OSI, que contiene siete capas. Estas cuatro capas son la capa de aplicación en la parte superior, seguida de la capa de transporte, la capa de Internet, y finalmente la capa de interfaz de red. La Figura ilustra cómo se mapean las cuatro capas del modelo TCP/IP con el modelo OSI.

Aplicación La capa de aplicación del modelo TCP/IP define muchas de las aplicaciones que se usan en redes de todo el mundo. La capa de aplicación NO es la aplicación en sí que está haciendo la comunicación. Es una capa de servicio que proporciona estos servicios. La capa de aplicación es responsable de muchas tareas. Una de ellas incluye determinar las reglas de sintaxis de protocolo y datos a nivel de la aplicación. Algunos de estos protocolos que funcionan a este nivel son el Protocolo de Transferencia de Archivos (FTP) y el Protocolo de Transferencia de Archivos Trivial (TFTP) y aplicaciones basadas en TCP/IP usadas para la transferencia de archivos. Aplicaciones de e-mail basadas en TCP/IP comunes son el Simple Mail Transfer Protocol (SMTP), el Internet Message Access Protocol (IMAP), y el Post Office Protocol versión 3 (POP3). Telnet, que se usa para administración remota, usa también la pila del protocolo TCP/IP. El Protocolo de Administración de Red Simple (SNMP) también está definido en la pila de protocolos TCP/IP. Otras tareas llevadas a cabo son asegurar el acuerdo en ambos extremos acerca de procedimientos de recuperación de errores, integridad de datos, y privacidad. El control de la sesión es otra función importante de la cual es responsable la capa de aplicación. El control de la

Page 77: Documento de Apoyo No. 4 Cisco It Essentials II

77

sesión incluye funciones tales como asegurarse de que la otra parte se identifique y pueda alcanzarse y asegurar que existen los recursos necesarios para la comunicación. Por ejemplo, ¿hay un módem en la computadora del emisor?

Transporte La capa de transporte del modelo TCP/IP define muchas de las mismas funciones que la capa de transporte del modelo OSI: No obstante, a diferencia de ésta, que define protocolos como Novell SPX, la capa de transporte de TCP/IP define solamente el Protocolo de Control de Transmisión (TCP) y el Protocolo de Datagrama del Usuario (UDP). Posteriormente en este capítulo, se tratarán en más detalle las funciones de TCP y UDP. Brevemente, el propósito de los protocolos de la capa de transporte es proporcionar confiabilidad y control de flujo. La confiabilidad se logra mediante una secuencia de acuses de recibo que garantizan la entrega de cada paquete. El control de flujo se logra mediante el uso de una técnica llamada windowing, que permite a los hosts comunicantes negociar qué cantidad de datos se transmitirán durante un periodo determinado.

TCP o UDP se usan en la capa de transporte en networking TCP/IP, dependiendo del entorno de red particular y de qué tipo de datos se están transmitiendo. Las especificaciones de una conexión TCP y de una conexión UDP se tratarán más adelante en este capítulo.

Números de Puerto Tanto TCP como UDP usan números de puerto para pasar datos a las capas superiores. Los números de puerto ayudan a definir y rastrear todos los diferentes tipos de conversaciones que están teniendo lugar en toda la red. Cada protocolo de la capa de aplicación, incluyendo FTP, Telnet, SMTP, DNS, TFTP, SNMP, y el Protocolo de Información de Enrutamiento (RIP), tiene un número de puerto específico que lo identifica y separa de otro protocolo. La Internet Assigned Numbers Authority (IANA) define estos bien conocidos números de puerto. Algunos de los usados más comúnmente son FTP - 21, Telnet - 23, SMTP - 25, DNS - 53, TFTP - 69, SNMP - 161, y RIP - 520. La Figura enumera algunos de los más importantes puertos preasignados, los protocolos usados, y las aplicaciones que están diseñadas para usar los números de puerto específicos.

Un administrador del sistema deberá familiarizarse con el sistema de números de puerto y deberá monitorear de cerca los tipos de flujo de tráfico que entran y salen de la red. El administrador del sistema tiene la capacidad para especificar qué tipos de tráfico se permitirán en una red permitiendo o denegando el tráfico de Internet basado en estos números de puerto. Este proceso de filtrado basado en números de puerto usualmente se logra con routers o dispositivos firewall. Existen riesgos asociados a permitir tráfico entrante a una red basándose en el número de puerto. Muchos hackers usan scanners de puerto para buscar puertos abiertos en redes para obtener un acceso no autorizado.

Page 78: Documento de Apoyo No. 4 Cisco It Essentials II

78

Capa de Internet La capa de Internet del modelo TCP/IP define el direccionamiento y la selección de rutas. Ésta es la misma función que la de la capa de red del modelo OSI. Los routers usan protocolos de la capa de Internet para identificar un camino apropiado para los paquetes de datos a medida que viajan de red a red. Algunos de los protocolos definidos en esta capa son IP, Internet Control Message Protocol (ICMP), Protocolo de Resolución de Direcciones (ARP), y Protocolo de Resolución de Direcciones Inverso (RARP). IP proporciona a los routers la capacidad, o direccionamiento, de mover datos hacia el destino deseado. El ICMP proporciona capacidades de control y mensajería, que se usan cuando hay algún problema en la red. ICMP se usa para enviar un mensaje de vuelta al host, informándole que el host de destino era inalcanzable. La Figura muestra algunas de las responsabilidades de la capa de Internet. ICMP es también la base para los comandos ping y traceroute. ARP se usa para buscar la dirección MAC de un host, switch, o router, dada su dirección IP. RARP es muy similar a ARP. RARP se usa cuando la dirección MAC de un host es conocida, pero la dirección IP no lo es. La Figura esquematiza algunas de las más importantes utilidades TCP/IP disponibles.

Capa de Interfaz de Red La capa de interfaz de red del modelo TCP/IP se mapea con las capas de enlace de datos y física del modelo OSI. Esta capa define funciones específicas de TCP/IP relacionadas con la preparación de los datos para su transmisión sobre el medio físico, incluyendo el direccionamiento. La capa de interfaz de red también especifica qué tipos de medios pueden usarse para la transmisión de datos. 4.1 Historia de TCP/IP

4.1.3 TCP/IP y los sistemas operativos de red

En los '80 varias compañías diseñaron y vendieron sistemas operativos de red (NOSs) que permitían a los usuarios de LAN compartir caros dispositivos e información. En general, estos productos empleaban un modelo cliente/servidor donde las computadoras cliente hacían solicitudes de información o del uso de dispositivos, y las computadoras servidor respondían a las computadoras cliente. Compañías como Novell, Banyan, Apple, IBM, y Microsoft competían por clientes de red.

Para transportar las solicitudes y respuestas entre clientes y servidores, los fabricantes de NOS diseñaron sus propias reglas o protocolos especiales. Novell llamó a sus protocolos IPX/SPX, Banyan llamó a sus protocolos VINES, y Apple produjo AppleTalk, mientras que IBM y Microsoft usaban NetBIOS. Cada una de estas soluciones era cerrada, o propietaria, lo cual significaba que era propiedad de y controlada por una única compañía. Los clientes no podían combinar sistemas de diferentes compañías en sus redes porque usaban diferentes lenguajes (o protocolos) que eran incompatibles entre sí.

Hoy, todos los fabricantes de NOS han adoptado la suite de protocolos TCP/IP para transportar datos entre sistemas clientes y servidores. La Figura representa cómo el protocolo TCP/IP se usa para

Page 79: Documento de Apoyo No. 4 Cisco It Essentials II

79

administrar el intercambio de comunicación entre dos sistemas informáticos. Aunque los más antiguos protocolos propietarios siguen en uso, TCP/IP es el estándar implementado por todos los fabricantes de NOS. Comprender los componentes de los protocolos TCP/IP es necesario para comprender la comunicación en un entorno NOS.

4.2 Direccionamiento IP

4.2.1 Direccionamiento IPv4

Para que cualesquiera dos sistemas se comuniquen, deben poder identificarse y localizarse mutuamente. La Figura ilustra cómo pueden usarse las direcciones IP para localizar otros sistemas informáticos cuando los datos deben viajar y ser enviados por otro hardware de red como switches y routers. En la vida cotidiana, los nombres o números (como los números telefónicos) se usan a menudo como identificadores únicos. De manera similar, a cada computadora de una red TCP/IP debe dársele al menos un identificador único, o dirección. Esta dirección permite a una computadora localizar otra en una red. La Figura proporciona una demostración de cómo se asignan números específicos a computadoras para que se localicen y distingan entre sí.

Una computadora puede conectarse a más de una red. Si éste es el caso, entonces debe darse más de una dirección al sistema, cada una identificando su conexión a una red diferente. Hablando estrictamente, no puede decirse que un dispositivo tenga una dirección sino que cada uno de sus puntos de conexión (o interfaces) a una red tiene una dirección que permite a otras computadoras localizarla en esa red en particular.

Page 80: Documento de Apoyo No. 4 Cisco It Essentials II

80

Configuraciones TCP/IP en Linux En general, en la mayor parte de las redes, las configuraciones TCP/IP se configurarán automáticamente mediante el servidor DCHP. Aún es importante saber cómo configurar estáticamente TCP/IP con propósitos de resolución de problemas. Por ejemplo, si el sistema operativo Linux no pudiera recoger la dirección IP mediante dhcp. Hay dos formas de configurar una IP estática en Linux, el uso de una línea de comandos o configuración del archivo network. Algunas distribuciones, como Fedora o Red Hat tienen una herramienta GUI que puede usarse para configurar TCP/IP estáticamente.

Configuración de la Línea de Comandos El siguiente método de configuración funcionará para la mayoría de las distribuciones Linux importantes. El cambio es temporal porque los comandos no cambian el archivo network que se lee durante el arranque. Si el archivo network real no se cambia, las configuraciones se eliminarán cuando se reinicie el sistema operativo.

Para configurar la dirección IP manualmente en la interfaz de línea de comandos, emita los siguientes dos comandos:

NombreComputadora:~# ifconfig eth0 <dirección IP> netmask <dirección> NombreComputadora:~# route add default gw <dirección de gateway>

El primer comando le indica a la computadora que configure el adaptador Ethernet 0 con una dirección ip y máscara de red específicas. El segundo comando configura el gateway del sistema. Nuevamente, esta configuración durará hasta que el dispositivo se apague y vuelva a encender o la computadora se reinicie.

Edición de Archivos Network Cada distribución de Linux guarda su archivo de configuración de red en una ubicación diferente. El sistema guardará la configuración hasta que el archivo se cambie nuevamente. Los cambios permanecerán después de que el sistema se reinicie. La tabla de la Figura muestra algunas de las ubicaciones del archivo network en algunas de las distribuciones Linux más populares.

4.2 Direccionamiento IP

4.2.2 Descripción general del direccionamiento IPv4

TCP/IP está diseñado como un conjunto de protocolos para internetworking. IP tiene el trabajo de enviar paquetes desde la red en la cual se originan a la red de destino. Este esquema de direccionamiento, por lo tanto, debe incluir un identificador para las redes tanto de origen como de destino.

Utilizando el identificador de red, IP puede entregar un paquete a la red de destino. Una vez que el paquete llega a un router conectado a la red de destino, IP debe localizar entonces el punto en particular donde la computadora de destino está conectada a esa red. La Figura muestra cómo las direcciones representan la ruta a viajar a través de las diversas conexiones a los medios. Esto funciona de manera muy similar al sistema postal. Cuando se enruta el correo, primero debe entregarse a la estafeta postal de la ciudad de destino usando el código postal, y después dicha estafeta postal debe ubicar el destino final en esa ciudad usando la dirección de calle. Éste es un proceso de dos pasos.

Page 81: Documento de Apoyo No. 4 Cisco It Essentials II

81

De igual forma, cada dirección IP tiene dos partes. Una parte identifica a la red a la cual el sistema está conectado, y una segunda parte identifica ese sistema en particular en la red. Esta clase de dirección se denomina dirección jerárquica, porque contiene diferentes niveles y a causa del hecho de que la dirección puede dividirse en dos partes, con cada una de las partes usada como identificador. Otro ejemplo de dirección jerárquica es un número telefónico. Cada parte del número telefónico es un identificador de la ubicación del teléfono. Hay un código de "país" que identifica en qué país se encuentra el teléfono. El código de área representa en qué ciudad dentro del país está ubicado el teléfono y las otras partes del número dan más definiciones respecto a dónde está ubicado el teléfono. Una dirección IP combina estos dos identificadores en un único número. Este número debe ser un número único, porque las direcciones duplicadas no se permiten. La primera parte, llamada la "parte de red", indica en qué red está ubicado el sistema. La segunda parte, llamada la "parte del host", indica de qué máquina en particular se trata en esa red. La Figura ilustra este sistema de direccionamiento jerárquico y cómo se lo utiliza para identificar sistemas informáticos a través de la red.

Dentro de una computadora, una dirección IP se almacena como una secuencia de 32 bits de unos y ceros. La Figura muestra un ejemplo de uno de estos números de 32 bits. Para hacer la dirección IP más fácil de usar, en general se la escribe en forma de cuatro números decimales separados por puntos. Por ejemplo, una dirección IP de una computadora es 192.168.1.2. Otra computadora podría tener la dirección 128.10.2.1. Esta forma de escribir la dirección se denomina notación decimal de punto. En esta notación, cada dirección IP se escribe en forma de cuatro partes separadas por puntos. Cada parte de la dirección se denomina "octeto" porque está compuesta por ocho caracteres binarios. Por ejemplo, la dirección IP 192.168.1.8 en notación binaria sería 11000000.10101000.00000001.00001000.

Page 82: Documento de Apoyo No. 4 Cisco It Essentials II

82

¿Cómo determina un usuario qué porción de la dirección identifica a la red y qué porción identifica al host? La respuesta comienza con los diseñadores de Internet, que pensaron que las redes se armarían en diferentes tamaños, dependiendo de la cantidad de computadoras (hosts) que contuvieran. Se pensaba que habría una cantidad relativamente pequeña de redes grandes, posiblemente con millones de computadoras. Los diseñadores previeron una cantidad más grandes de redes de tamaño mediano, tal vez con miles de computadoras cada una. Finalmente, vieron una gran cantidad de redes con varios cientos de máquinas o menos. Así, los diseñadores dividieron las direcciones IP disponibles en clases para definir las redes grandes (Clase A), medianas (Clase B) y pequeñas (Clase C) como muestra la Figura . Conocer la clase de una dirección IP es el primer paso en determinar qué parte de la red identifica a la red y qué parte identifica al host. Las Figuras y ilustran cómo se clasifican los rangos de direcciones IP.

Page 83: Documento de Apoyo No. 4 Cisco It Essentials II

83

4.2 Direccionamiento IP

4.2.3 Direcciones Clase A

En una dirección Clase A, el primer número (octeto) es la porción de red, y los últimos tres números son la porción del host. El formato es Red.Host.Host.Host, o R.H.H.H. Por ejemplo, en la dirección 56.1.2.3, el primer octeto (56) identifica a la red, y los últimos tres octetos (1.2.3) identifican al host en esa red. La dirección 56.1.2.4 identifica a un host diferente (1.2.4) en la misma red (56). La dirección 57.1.2.3 identifica al host 1.2.3 en la red 57.

A causa de la forma en que la dirección se almacena en binario en la computadora, el primer octeto siempre recaerá entre 1 y 127. Si el primer octeto de una dirección IP recae en el rango 1-127, es una dirección Clase A. La Figura ilustra un ejemplo de una dirección Clase A que muestra las porciones de Host y Red de la dirección. No obstante, sólo 1-126 es válido para las redes Clase A porque la red 127.0.0.0 está reservada. La dirección IP 127.0.0.1 se denomina dirección "loopback local", y se usa para probar la NIC del sistema local.

4.2 Direccionamiento IP

4.2.4 Direcciones Clase B

Una dirección IP Clase B divide la porción de red de la porción de host entre el segundo y el tercer octeto. El formato es R.R.H.H. La dirección 165.5.6.7 representa a la red 165.5 y al host 6.7.

A causa de la forma en que las direcciones Clase B se almacenan en binario, el primer octeto siempre recae en el rango 128-191. Si el primer octeto de una dirección IP es mayor que 127 pero menor que 192, es una dirección Clase B. La Figura ilustra un ejemplo de una dirección Clase B que muestra las porciones de Host y Red de la dirección.

Page 84: Documento de Apoyo No. 4 Cisco It Essentials II

84

4.2 Direccionamiento IP

4.2.5 Direcciones Clase C

Una dirección IP Clase C divide la porción de la red de la porción del host entre el tercero y cuarto octeto. El formato es R.R.R.H. La dirección 192.8.9.10 representa a la red 192.8.9 y el host 10.

A causa de la forma en que las direcciones Clase C se almacenan en binario, el primer octeto siempre recae en el rango 192-223. Si el primer octeto de la dirección IP es mayor que 191 pero menor que 224, es una dirección Clase C. La Figura ilustra un ejemplo de dirección Clase C mostrando las porciones de Host y Red de la dirección.

4.2 Direccionamiento IP

4.2.6 Direcciones Clases D y E

Las direcciones Clase D y Clase E se usan con propósitos especiales. La Clase D se reserva para una técnica llamada multicast, y las direcciones Clase E se usan con propósitos experimentales. Las organizaciones comerciales usan las direcciones clases A, B, o C para identificar redes y hosts. La Figura muestra un ejemplo de arquitectura de dirección clase D.

4.2 Direccionamiento IP

4.2.7 La crisis de las direcciones IPv4

Los diseñadores de la primera Internet no podrían haber previsto el crecimiento explosivo que ha experimentado Internet. Naturalmente creyeron que la cantidad de direcciones requeridas para identificar redes y sistemas host interconectados sería suficiente para muchos años en el futuro. Asignaron direcciones a compañías y organizaciones a medida que se solicitaban. A mediados de los '80, no obstante, se hizo evidente que a menos que se tomara alguna acción, la cantidad de direcciones sin usar disminuiría rápidamente e Internet enfrentaría una crisis como resultado de su propio éxito.

La cantidad total de direcciones disponibles para el uso se denomina espacio de direcciones. Pensemos en qué podría ocurrir si las compañías telefónicas usaran todos los números telefónicos disponibles (es decir, su espacio de direcciones) para identificar teléfonos, faxes y otros dispositivos que permiten la comunicación mediante el sistema telefónico. No podrían conectarse nuevos teléfonos al sistema, y eso detendría su expansión. Internet realmente enfrentó esta situación, cuando parecía

Page 85: Documento de Apoyo No. 4 Cisco It Essentials II

85

que el crecimiento se limitaría o incluso se detendría porque el espacio de direcciones de Internet podría agotarse.

En respuesta a este problema, los ingenieros de Internet desarrollaron un conjunto de técnicas para hacer un uso más eficiente del espacio de direcciones de Internet. Entre estas técnicas estaba el "subnetting" de redes. La Figura muestra un ejemplo de una dirección de red que ha sido dividida en subredes. Subnetting es el proceso de dividir la porción de red de una dirección IP, lo cual permite a un administrador particionar o dividir una red sin tener que usar una nueva dirección para cada partición de la red. Usando técnicas de subnetting, los diseñadores de redes podían dividirlas, a pero cada partición se le daría su propio número de subred. Los sistemas remotos podrían aún llegar a la red enviando paquetes a la dirección de red de destino. Una vez que los paquetes llegaran a la frontera de la red de destino, podrían ser enviados a la subred apropiada dentro de la red. Esta técnica ha tenido mucho éxito en conservar la cantidad de direcciones de red mayores y en permitir un crecimiento continuado de Internet.

La idea básica es tomar la dirección IP, que está dividida en una porción de red y una porción de host, y luego volverla a dividir agregando una tercera parte, el número de subred. El resultado es una dirección que asume la forma número de red, número de subred, y número de host. Como se trató anteriormente, la dirección IP se divide en la porción de red y la porción de host conociendo su clase. Cuando un número de subred se agrega entre la porción de red y la porción de host, ¿cómo se identifica la parte que identifica a la subred?

Para responder a esta pregunta, es importante comprender la función de otro número que se inventó para el subnetting, llamado máscara de subred. Como la dirección IP en sí, este nuevo número también se escribe en notación decimal de punto, como cuatro octetos que representan 32 bits. En el número de máscara, los valores "1" se colocan si el bit correspondiente de la dirección IP pertenece a la red o a la parte de subred de la dirección. Los valores "0" se colocan en la máscara donde el bit correspondiente de la dirección IP es parte de la porción de host. Así, si la clase de la dirección IP se conoce y la máscara de subred se conoce, puede entonces dividirse en red-subred-host. Requiere algo de práctica comprender enteramente el proceso.

Mientras que la clase de una dirección IP determina el tamaño de la parte de la red, el tamaño de la parte de la subred puede variar. La información necesaria para determinar el tamaño de la parte de la subred está contenida en la máscara. Escriba la máscara en binario como unos y ceros. Requiere práctica la conversión de números decimales a binarios. Luego, continúe con el procedimiento de la siguiente forma:

· Identifique la clase de la dirección.

Page 86: Documento de Apoyo No. 4 Cisco It Essentials II

86

· Elimine cualquier bit "1" de la máscara que corresponda a la parte de red de la dirección. · Los restantes bits "1" de la máscara indican los bits de la dirección que son la parte de subred

de la misma.

Direcciones IP Privadas Al tratar con direcciones IP, redes corporativas y redes hogareñas, es importante conocer la diferencia entre direccionamiento IP privado y direccionamiento IP público. El Protocolo Internet versión 4 (IPv4) y la cantidad de estas direcciones IP públicas disponibles están disminuyendo rápidamente. La razón para esto es que hay un límite a la cantidad de direcciones IP que puede proporcionar IPv4. Para ayudar a reservar la cantidad de direcciones IP públicas disponibles, se usa el concepto de direccionamiento IP privado. Los rangos de direcciones de las direcciones IP privadas reservadas se muestran en la Figura . Lo que esto significa es que una corporación por ejemplo puede tener sólo unas pocas direcciones IP que son públicas o conocidas. Todas las direcciones IP que la compañía usa dentro de su red están contenidas dentro de su red y por lo tanto se las considera privadas. Se las considera privadas porque sólo son conocidas por el administrador de la compañía y no conocidas para el público. La Figura ilustra un ejemplo de este proceso que muestra cómo se usan las direcciones de red IP privadas dentro de la WAN.

Traducción de Direcciones de Red (NAT) El concepto de direccionamiento IP público y privado se explica mejor mediante el uso de la Traducción de Direcciones de Red (NAT). NAT permite a las compañías mantener sus direcciones privadas seguras y no conocidas por el público. NAT se habilita en un router o un dispositivo de gateway, que traduce todo el tráfico entrante y saliente a través de las direcciones IP conocidas o públicas. La Figura

ilustra cómo la estructura de direcciones IP podría mostrarse al usar NAT. La dirección IP Interna es diferente y se mantiene en privado de la dirección pública externa que se expone a otros mediante Internet. Las direcciones IP públicas son lo que permite a la gente de la compañía acceder a información y redes fuera de la LAN conectándose a otras direcciones IP públicas. NAT también proporciona seguridad ocultando las direcciones IP de clientes y servidores dentro de la red de la compañía. Asignar la dirección IP pública al dispositivo NAT logra esto. Si se hace un intento de obtener acceso a la red, la persona es dirigida al dispositivo NAT y luego usualmente detenida por un firewall en el mismo sistema o dispositivo en el cual está configurada la NAT.

Page 87: Documento de Apoyo No. 4 Cisco It Essentials II

87

IPv6 El Protocolo Internet versión 6 (IPv6) es el protocolo de próxima generación diseñado para reemplazar la versión actual del Protocolo Internet, IPv4. El siguiente es un ejemplo de cómo se numerará la Dirección IPv6. Las direcciones IPv6 se escriben en hexadecimal:

1080:0000:0000:0000: 0008:0800:200C:417A

Los ceros a la izquierda en cada valor de 16 bits pueden omitirse. Así, la misma dirección puede expresarse de la siguiente manera:

1080:0:0:0: 8:800:200C:417A

Puesto que las direcciones IPv6, especialmente en la fase inicial de implementación, pueden contener valores de 16 bits de cero, tal cadena de ceros por dirección puede omitirse y ser reemplazada por dos puntos dobles. Como resultado, esta dirección puede abreviarse:

1080::8:800:200C:417A

La mayor parte de Internet usa ahora IPv4, que tiene casi veinte años de antigüedad. IPv4 ha sido considerablemente elástica pese a su edad, pero está comenzando a tener problemas. Lo más importante es que hay una creciente escasez de direcciones IPv4, que son necesarias cuando se agregan nuevos sistemas a Internet.

IPv6 arregla una cantidad de problemas de IPv4, como la cantidad limitada de direcciones IPv4 disponibles. También agregará muchas mejoras a IPv4 en enrutamiento y en diversas tareas de configuración de la red. Se espera que IPv6 reemplace gradualmente a IPv4, con los dos coexistiendo durante una cantidad de años en un periodo de transición.

Se dispone de software que soporta IPv6. Este software sólo está disponible en las últimas versiones como Windows XP y algunas de las últimas versiones de Linux por ejemplo. Muchas aplicaciones comunes de Internet ya funcionan con IPv6, y más están siendo adaptadas.

Page 88: Documento de Apoyo No. 4 Cisco It Essentials II

88

4.2 Direccionamiento IP

4.2.8 Subnetting

Es imposible tratar TCP/IP sin mencionar subnetting. Como administrador de sistemas es importante comprender el subnetting como medio de dividir e identificar redes separadas en la LAN.

La Figura ilustra un ejemplo de cómo se puede aplicar subnetting a una red. La Figura muestra cómo internamente, las redes pueden dividirse en redes más pequeñas llamadas subredes. Proporcionando este tercer nivel de direccionamiento, las subredes proporcionan una flexibilidad extra para un administrador de redes. Por ejemplo, una dirección de red Clase B proporcionada por el Registro Norteamericano de Números de Internet (ARIN), puede dividirse en muchas subredes más pequeñas y manejables. En el ejemplo de la Figura , las tres redes 131.108.1.0, 131.108.2.0, y 131.108.3.0 son todas subredes de la red 131.108.0.0. No siempre es necesario dividir una red pequeña en subredes. No obstante, en el caso de redes grandes o extremadamente grandes, el subnetting se requiere. La Figura proporciona un ejemplo de por qué es importante dividir en subredes una red grande. Las subredes son similares al sistema de numeración telefónica. Este sistema de numeración está dividido en códigos de área, que se dividen en centrales, que a su vez se dividen en conexiones individuales. Las direcciones de subred especifican un número de red, un número de subred, dentro de la red, y un número de host dentro de la subred. En términos sencillos, el subnetting es un medio de usar la máscara de subred para dividir una red grande o extremadamente grande en segmentos más pequeños, eficientes y manejables, o subredes. La Figura proporciona un ejemplo de dirección binaria de 32 bits que está dividida en subredes.

Máscaras de Subred Una comprensión del subnetting requiere una comprensión de las máscaras de subred. La dirección IP 210.168.1.8 por ejemplo, es una dirección IP Clase C (recuerde, las direcciones Clase C recaen en el rango 192-223). La máscara de subred por defecto correspondiente será 255.255.255.0, que es una

Page 89: Documento de Apoyo No. 4 Cisco It Essentials II

89

máscara de subred Clase C. El método de identificar la porción de red de la dirección de la parte del host de la dirección IP se trató anteriormente. Los primeros tres octetos representan la porción de red de la dirección. El último octeto se reserva para la dirección del host.

La máscara de subred por defecto Clase A sería 255.0.0.0. Una máscara de subred por defecto Clase B sería 255.255.0.0, y una dirección Clase C tendrá una máscara de subred por defecto de 255.255.255.0. La Figura presenta una lista con las máscaras de red Clase A, B, y C.

La máscara de subred ayuda a identificar todas las computadoras que estarán en la red 255.255.255.0. Por lo tanto, todos los hosts de esta red tendrían una dirección IP de 210.168.1.X. Todos contendrían los mismos valores en los primeros tres octetos de su dirección IP, pero la "X" que representa la porción del host de la dirección sería única para cada computadora de la red. Éste es el valor que identificará al host de la red 210.168.1.0. La dirección IP 210.168.1.8 identifica a un host específico de la red 201.168.1.0.

La cantidad máxima disponible de hosts que se permiten en una red Clase C es 254. El rango de direcciones IP que puede otorgarse a estos hosts son 210.168.1.1 - 210.168.1.254 para un total de 254 hosts. La cantidad de hosts de una subred o red en particular puede determinarse usando la fórmula (2N-2). Aquí, N = el número de octetos disponibles para direcciones de hosts.

No puede haber 255 hosts porque ese valor está reservado para una dirección de broadcast. Por ejemplo, la dirección IP 210.168.1.255 no podría usarse como dirección de host en la red 210.168.1.0 porque está reservada como dirección de broadcast para esa red.

Ejemplo En una máscara de subred Clase C (255.255.255.0), sólo un octeto está disponible para hosts. Convierta estos octetos a notación decimal y obtenga 8 bits (o un octeto) para una dirección de host. Aplique esta fórmula:

28 – 2 = 254 hosts en una red Clase C

Para una red Clase B (255.255.0.0) hay 16 bits disponibles para una dirección de host. Aplique la fórmula:

216 – 2 = 65.534 hosts en una red Clase B

Para una red Clase A (255.0.0.0) hay 24 bits disponibles para una dirección de host. Aplique la fórmula:

224 – 2 = 16.777.214 hosts en una red Clase A

El administrador del sistema debe resolver estos problemas al agregar y expandir la red. Es importante saber cuántas subredes/redes son necesarias y cuántos hosts se permitirán en esa red. Con subnetting, la red no se limita a las máscaras de subred estándar Clase A, B o C y hay más flexibilidad en el diseño de la red. Refiérase a la Figura 5 para observar un gráfico de referencia rápida.

Page 90: Documento de Apoyo No. 4 Cisco It Essentials II

90

El siguiente ejemplo describirá cómo crear una subred para 1500 hosts. Una máscara de subred Clase B proporcionará 65.534 hosts y una máscara de subred Clase C sólo proporcionaría 254. No obstante, sólo se necesitan 1500 hosts. Crear una subred que proporcionara 65.534 hosts sería un enorme desperdicio de espacio. Es posible crear una máscara de subred que daría los 1500 hosts requeridos pero no usaría la totalidad de los 65.534. Esto se hace "tomando prestados" bits de un octeto para crear una máscara de subred.

Se requiere una subred que proporcione 1500 hosts. Una máscara de subred Clase C no puede usarse, así que en cambio se usa una subred Clase B.

255.255.0.0

Esto proporcionará 65.534 hosts, pero todas las otras direcciones de host no deberán desperdiciarse. Use la fórmula (2N-2) para determinar qué será la máscara de subred. La conversión a forma binaria se trató en una sección anterior. Por ejemplo, la máscara de subred 255.255.0.0 equivale a lo siguiente:

11111111.11111111.00000000.00000000

Para poder crear la máscara de subred, es necesario conservar estas direcciones IP y es necesario tomar prestados 5 bits del tercer octeto. Haciendo esto, una máscara de subred limita las cantidades de subredes que pueden usarse a 30. No obstante, en lugar de tener disponibles 65.534 hosts, sólo 2046 hosts están disponibles. Esto crea una máscara de subred que proporciona los 1500 hosts necesarios. En este ejemplo, un usuario no tiene que desperdiciar el resto de las direcciones IP. La nueva máscara de subred será como la siguiente:

11111111.11111111.11111000.00000000 = 255.255.248.0

Ahora, en lugar de 16, 11 bits están disponibles para una dirección de host. Recuerde que 16 bits se usan para direcciones de host con una máscara de subred Clase B estándar y 8 se usan con una dirección Clase C estándar. Esto permitirá más de 254 pero menos que 65.534 hosts. La fórmula (2N-2) permite el cálculo de cuántos hosts proporcionará esta máscara de subred.

Page 91: Documento de Apoyo No. 4 Cisco It Essentials II

91

211 – 2 = 2046 hosts

2046 hosts proporcionarán los 1500 hosts que necesitamos, con 546 direcciones de hosts sobrantes. Si los hosts restantes no se usan, entonces hay solamente 546 hosts desperdiciados y no 65.534. A partir de este ejemplo, un usuario puede ver que en una red grande donde la cantidad de direcciones IP es limitada, subnetting puede ayudar a conservar direcciones IP.

El comando /sbin/route El comando /sbin/route se usa para mostrar la tabla de enrutamiento en Linux. Las diversas opciones del comando /sbin/route, incluyendo add o del, manipularán la tabla de enrutamiento IP. El uso principal de este comando es configurar rutas estáticas a rutas o redes específicas mediante una interfaz después de que ha sido configurada. El uso de este comando sin opciones mostrará la tabla de enrutamiento como se ve en la Figura . Por ejemplo, el siguiente comando asociará el dispositivo de red eth0 a una dirección de red específica.

/sbin/route add -net <net_address> netmask 255.255.255.0 dev eth0

Otro concepto importante a tratar en el contexto de Subnetting y Enrutamiento en Linux es la sentencia ip forward. Esto es así especialmente si se está administrando un servidor Linux que está configurado como router. La cadena ip forward se refiere a paquetes que son recibidos pero no tienen como destino su máquina. Estos paquetes se están enrutando a través de su máquina Linux. El comando para habilitar ip forward es:

# echo "1"> /proc/sys/net/ipv4/ip_forward

NOTA:

Al reiniciar su servidor, este valor volverá a cero. Recuerde poner el comando anterior en los scripts init. Este proceso se tratará en los módulos 9 y 10 4.3 Resolución de Nombres

4.3.1 Descripción general de la resolución de nombres

Los números de dirección IP son necesarios para identificar puntos de conexión a una red, y están diseñados para hacer posible la operación eficiente de dispositivos en red. Pero en su forma numérica, las direcciones son difíciles de recordar y administrar. Esto es especialmente cierto cuando existe una necesidad de cambiar direcciones para adaptarse a las cambiantes condiciones de la red. Aunque los dispositivos de red usan direcciones numéricas, es fácil trabajar con los nombres. La técnica que permite a los nombres representar direcciones de red se denomina "resolución de nombres".

Por ejemplo, puede accederse al sitio web "Cisco.com" sin conocer la dirección IP real que el dispositivo en Cisco está configurado para usar. Un servicio de resolución de nombres traduce, o "mapea", el nombre "Cisco.com" a una dirección IP para llegar al dispositivo de destino. Un dispositivo

Page 92: Documento de Apoyo No. 4 Cisco It Essentials II

92

puede nombrarse por su función o propósito, o incluso para atraer la atención. Nombres de networking como "Yahoo.com" o "Amazon.com" se han hecho bien conocidos entre usuarios de la World Wide Web. Los nombres también se usan para identificar la ubicación o función de los dispositivos de red. Por ejemplo, un router llamado "San Jose" indicaría su ubicación, o el nombre de host "Eng-Server" indicaría su función en el departamento de ingeniería.

El uso de nombres para representar direcciones proporciona otra ventaja. Puesto que los usuarios ahora pueden identificar los dispositivos de red por su nombre, la dirección que corresponde a un nombre determinado puede cambiarse sin ninguna interrupción. Los usuarios de la red pueden continuar usando el mismo nombre para referirse al dispositivo y dejar al servicio de resolución de nombres la tarea de hallar la nueva dirección que equivale a ese nombre. Esto hace a la red mucho más fácil de usar y administrar. Las redes usan tablas de hosts y el Servicio de Nombres de Dominio (DNS) para asociar nombres y direcciones. La Figura ilustra cómo el servidor DNS resuelve el nombre de post office de una dirección de e-mail.

4.3 Resolución de Nombres

4.3.2 Nombres de host y tablas de hosts

En la red, a cada computadora se le da un nombre único para identificarla. Este nombre se usa para comunicarse con una computadora en particular. La Figura muestra un ejemplo de las configuraciones de nombre de host para un sistema informático en particular. Para llegar a otra computadora, la red necesita usar la dirección IP de esa computadora. Las tablas de hosts son listas que pueden configurarse en cada computadora, asociando los nombres de las computadoras de la red con la tabla de hosts de direcciones IP. La Figura es un ejemplo de una tabla de hosts de muestra. La tabla incluye la dirección IP y el nombre que se mapea a esa dirección. En una computadora que usa una tabla de hosts, un usuario puede referirse a otra computadora por su nombre, y la computadora buscará el nombre en la tabla de hosts y encontrará su dirección IP. La dirección IP puede incluso cambiarse, y aún puede hacerse referencia a ese sistema por el mismo nombre. Cuando una computadora debe alcanzar el otro sistema, encontrará la nueva dirección en la tabla de hosts. Aunque una tabla de hosts permite la comunicación con otras computadoras por nombre, tiene algunas desventajas. Para empezar, una tabla de hosts debe configurarse en cada computadora separada para indicarle los nombres y correspondientes direcciones IP de cada una de las otras computadoras. En una red grande con muchas computadoras, esto requiere mucha configuración. En segundo lugar, cuando hay un cambio en la red (la adición de una nueva computadora, por ejemplo), las tablas deben actualizarse en cada una de las computadoras para reflejar el cambio. La tarea de mantener tablas de hosts precisas en una red grande puede consumir mucho tiempo y ser propensa a los errores.

Page 93: Documento de Apoyo No. 4 Cisco It Essentials II

93

4.3 Resolución de Nombres

4.3.3 El sistema de nombres de dominio

El uso de tablas de hosts requiere mucho mantenimiento. En contraste, el Sistema de Nombres de Dominio (DNS) asigna esta tarea a servidores de la red. Servidores especializados dentro de la red logran la tarea de traducir nombres a direcciones. Las computadoras host son entonces aliviadas de tener que mantener un listado de mapeos de nombre-a-dirección. Esto simplifica el mantenimiento de la red y permite una mayor flexibilidad.

El DNS funciona como la asistencia de directorio en el sistema de teléfonos. Usando el sistema de teléfonos, el nombre y dirección de una persona puede conocerse, pero no su número telefónico. Una llamada a la operadora de asistencia de directorio le permite obtener el número telefónico que va con el nombre y la dirección. Si se necesita el número telefónico de una persona de otro país, la operadora puede necesitar contactarse con el servicio de asistencia de directorio de otro país. DNS funciona de manera similar. El servicio se distribuye a través de una cantidad de sistemas. Cada uno sabe las direcciones de un conjunto de nombres y sabe cómo llegar a otros servidores para encontrar direcciones para nombres fuera de su alcance. Por ejemplo, cuando una aplicación de una computadora de California necesita saber la dirección IP de una computadora de Sudáfrica, la aplicación envía su solicitud a un DNS de California. El servidor de California puede no conocer la respuesta, pero sí sabe cómo conectarse al servidor DNS apropiado en Sudáfrica.

Para poder garantizar que los nombres completos de cualesquiera dos computadoras serán diferentes, Internet ha adoptado un sistema de nombrado que usa cadenas adicionales de letras, o sufijos, después de los nombres. Las partes de un nombre están separadas por puntos. Esto es similar a las direcciones IP, pero no hay relación entre las partes del nombre de un sistema y su dirección IP. El nombre de Internet marx.ps.uofr.edu, por ejemplo, podría tener la dirección IP 128.11.3.2. La cadena marx no está relacionada al 128. Ni tampoco ninguna otra parte del nombre está relacionada con partes de la dirección. El total del nombre corresponde al total de la dirección.

En el nombre marx.ps.uofr.edu, el sufijo final, .edu, identifica el tipo de organización (una institución de altos estudios). El sufijo .uofr identifica una universidad en particular (Universidad de Rochester). El .ps identifica un departamento (ciencias políticas), y el nombre marx identifica una computadora en particular. Otros sufijos finales comunes son .com para organizaciones comerciales, .gov para agencias gubernamentales, y .net para empresas de red.

La tarea de configurar y mantener servidores con nombre de dominio recae en los administradores de red. Para hacer uso del DNS, cada host o sistema cliente debe estar configurado con la dirección de al menos un servidor DNS para contactarse para traducir nombres a direcciones. Un programa se convierte en cliente del servicio de nombre de dominio cuando envía el nombre de una computadora al servidor DNS local. El programa está preguntando por la dirección IP del sistema con ese nombre. El servidor local puede contactar a otros servidores para traducir el nombre a una dirección, pero el cliente recibe la respuesta del servidor local.

Page 94: Documento de Apoyo No. 4 Cisco It Essentials II

94

4.3 Resolución de Nombres

4.3.4 Servicios de nombre y el NOS

En los NOSs, los programas de los usuarios pueden acceder a dispositivos de red y servicios por nombre. Hoy, todos los NOSs usan DNS para traducir nombres de computadora a direcciones IP. Pero antes de la adopción general de TCP/IP y del sistema de nombres de dominio de Internet de parte de los fabricantes de diferentes NOSs, se usaban otras técnicas de nombrado para identificar sistemas y servicios. Para dar lugar a los primeros esquemas de nombrado y a las aplicaciones que los usan, los fabricantes de NOSs han desarrollado extensiones a DNS que permiten que sus propios tipos de nombres sean asociados a direcciones IP. De esta forma, las aplicaciones que usan convenciones de nombrado más antiguas pueden encontrar las direcciones IP de dispositivos y servicios.

Un servicio más antiguo pero ampliamente utilizado para comunicarse entre aplicaciones cliente y servicios de red es Network Basic Input/Output System (NETBIOS). Este servicio fue desarrollado por IBM en 1985 y aún se usa en computadoras Microsoft Windows. Para traducir los nombres usados por aplicaciones NETBIOS a direcciones IP, Microsoft desarrolló una adición a DNS llamada Servicio de Nombres de Internet de Windows (WINS). La Figura muestra un ejemplo de la página de configuración de DNS en un sistema Windows 2000.

4.3 Resolución de Nombres

4.3.5 WINS

El Servicio de Nombres de Internet de Windows (WINS) no es una parte incorporada del servicio DNS de Internet de nombre-a-dirección. Para poder "resolver" o mapear los nombres del NETBIOS usados por las aplicaciones a direcciones IP, Microsoft agregó WINS como extensión a DNS. WINS automatiza el proceso de traducir los nombres del NETBIOS a direcciones IP para que los paquetes puedan ser apropiadamente entregados a dispositivos o servicios. Un servidor WINS asocia dinámicamente los nombres del NETBIOS a direcciones IP y automáticamente actualiza su base de datos de asociaciones

Page 95: Documento de Apoyo No. 4 Cisco It Essentials II

95

nombre-a-dirección a medida que los sistemas entran y salen de la red, de modo que no requiere un mantenimiento continuo. Los sistemas cliente, no obstante, deben configurarse con la dirección de un servidor WINS que lleve a cabo esta traducción. La Figura muestra un ejemplo de la página de configuración WINS en un sistema Windows 2000. En muchas redes de hoy, NetBIOS ya no se usa. Por esta razón, Microsoft está haciendo esfuerzos por hacer desaparecer el servicio WINS.

4.4 Protocolos TCP/IP

4.4.1 Descripción general de los protocolos TCP/IP

Un protocolo es un conjunto de mensajes que se intercambia entre sistemas en una secuencia definida para lograr una tarea de networking específica. La disposición, o formato, de los mensajes, está estrictamente definido, y las reglas para el intercambio de mensajes entre sistemas está estrictamente especificado en los documentos de normas. TCP/IP es una "suite" o colección de diferentes protocolos, cada uno llevando a cabo una tarea especializada. En una red en buen funcionamiento, los protocolos individuales se coordinan de tal manera que, todos juntos, entregan servicios de red a programas de aplicaciones. Las Figuras , , y muestran qué protocolo funciona en las capas específicas del modelo TCP/IP. Como especialistas en un equipo de construcción, cada protocolo lleva a cabo su función particular en un momento particular. Cada uno depende del trabajo de los otros. La siguiente sección bosqueja las funciones llevadas a cabo por cada uno de los protocolos más importantes que componen la suite de protocolos TCP/IP.

Page 96: Documento de Apoyo No. 4 Cisco It Essentials II

96

4.4 Protocolos TCP/IP

4.4.2 Protocolo de Resolución de Direcciones (ARP)

El Protocolo de Resolución de Direcciones (ARP) entra en juego cuando un sistema comienza una conversación con otro host de una LAN. La Figura ilustra el proceso de la comunicación que tiene lugar entre sistemas que usan ARP. El primer sistema sabe que el segundo está ubicado en algún sitio de la red (su dirección IP), pero no sabe su ubicación exacta en la red (su dirección Ethernet). El problema es similar a conocer que una persona llamada Mary está en la clase, pero no saber en qué asiento se sienta. Para descubrir el número de asiento de Mary, se le preguntaría a toda la clase, "Si tu nombre es Mary, por favor decíme dónde te sentás". Suponiendo que haya solamente una persona llamada "Mary" en la habitación, Mary levantará la mano para identificar su número de asiento. ARP consiste en el mapeo de direcciones de red con direcciones de Control de Acceso al Medio (MAC). Cuando los sistemas de origen (sistema A) y de destino (sistema B) están ambos conectados a la misma LAN, el origen (sistema A) emitirá un broadcast de una solicitud ARP para hallar la dirección MAC de la dirección MAC de los destinos pretendidos (sistema B). Puesto que la señal enviada es un mensaje broadcast todos los dispositivos del dominio de broadcast de la LAN la escucharán, incluyendo el dispositivo de destino (sistema B). No obstante, sólo el dispositivo de destino (sistema B) responderá a la solicitud ARP. El sistema B enviará un mensaje de respuesta ARP, que contiene su dirección MAC, al dispositivo de origen (sistema A). El sistema A guardará entonces la dirección MAC en su caché ARP. Cuando el sistema A necesite comunicarse con el sistema B otra vez, sólo necesita verificar la caché ARP para encontrar la dirección MAC del sistema B y luego puede enviar los datos

Page 97: Documento de Apoyo No. 4 Cisco It Essentials II

97

directamente sin tener que enviar una solicitud ARP primero. .

4.4 Protocolos TCP/IP

4.4.3 Internet Control Message Protocol (ICMP)

Una red requiere herramientas para informar sobre errores que puedan surgir, y los administradores de red necesitan herramientas para descubrir las razones de que haya errores. El Internet Control Message Protocol (ICMP) proporciona un conjunto de mensajes de control y error para ayudar a rastrear y resolver problemas de la red. La Figura ilustra en qué capa del modelo TCP/IP opera ICMP. Supongamos, por ejemplo, que una ruta física de la red falla por lo cual algunos hosts se hacen inalcanzables. La Figura ilustra el caso en el cual ICMP se usa para enviar un mensaje de "destino inalcanzable" cuando hay un error en algún lugar de la red que está evitando que el frame o paquete se envíe al sistema o dispositivo de destino. ICMP incluye un tipo de mensaje, llamado Solicitud de Eco, que puede enviarse de un host a otro para ver si es alcanzable en la red. La Figura ilustra el caso en el cual ICMP se usa para enviar un mensaje "respuesta de eco" para probar y ver si el sistema o dispositivo de destino está disponible y puede ser alcanzado. Si es alcanzable, el host de destino responderá con el mensaje Respuesta de Eco ICMP. El programa Ping usa ICMP para enviar mensajes de Solicitud de Eco y para recibir mensajes de Respuesta de Eco. Como otro ejemplo, supongamos que un host remoto es alcanzable desde una computadora local, pero la ruta que los mensajes tienen para alcanzar ese host es desconocida. ICMP permite que el camino, o ruta, desde la computadora local al host remoto sea rastreada usando la rutina Traceroute. Las herramientas de resolución de problemas de ICMP son parte de casi todas las pilas de protocolos TCP/IP. ICMP también se usa en casos donde un paquete no entregable podría llegar a un servidor o router. Si un router o servidor no puede entregar un paquete a su destino, el router envía un mensaje ICMP "destino inalcanzable" de vuelta al origen para informarle del problema. El router entonces descarta el paquete original. Los destinos podrían ser inalcanzables porque el host emisor especificó una dirección inexistente, o aunque menos frecuente, el router puede no conocer la ruta al destino. Si un router no puede entregar un mensaje ICMP por cualquier razón, el router no enviará un mensaje ICMP para informar sobre el fallo. Hacerlo así podría inundar la red con una infinita saturación de mensajes ICMP. Por esta razón un mensaje ICMP no entregable se descartará. Otro tema importante que saber acerca de los mensajes ICMP es el alcance. Los mensajes ICMP también se envían a sistemas y dispositivos para probar el alcance de otro sistema o dispositivo del otro lado de la red. Cualquier host TCP/IP puede enviar una solicitud de eco ICMP. Una solicitud de eco ICMP es generada por el comando Ping. .

Page 98: Documento de Apoyo No. 4 Cisco It Essentials II

98

Page 99: Documento de Apoyo No. 4 Cisco It Essentials II

99

4.4 Protocolos TCP/IP

4.4.4 Protocolo de Control de Transmisión (TCP)

Dos programas pueden comunicarse entre sí a través de una serie de muchas redes interconectadas. Una aplicación de e-mail, por ejemplo, puede enviar un mensaje a un servidor de correo de otra ciudad o país para que el destinatario lo lea. El Protocolo Internet (IP) enviará el mensaje de una red a la siguiente, pero puede no ser capaz de entregar el mensaje al destino a causa de problemas en la red. IP hace su mejor esfuerzo, pero no garantiza la entrega del mensaje. El Protocolo de Control de Transmisión (TCP) tiene el trabajo de garantizar que los mensajes lleguen a su destino, o si no pueden entregarse, informar a los programas de aplicación acerca del fallo. Aplicaciones como el e-mail deben tener la garantía que proporciona TCP. Esto también es cierto de otras aplicaciones, como navegadores web, que requieren el servicio de entrega confiable proporcionado por TCP. Una vez establecida una conexión TCP entre dos aplicaciones, todos los mensajes fluyen desde el origen al destino a través de esa conexión lógica. La Figura ilustra un ejemplo de cómo TCP establece una conexión lógica.

4.4 Protocolos TCP/IP

4.4.5 Protocolo de Datagrama del Usuario (UDP)

Mientras que algunas aplicaciones requieren un servicio confiable, de entrega garantizada, como TCP, otras no. Necesitan un servicio que haga su mejor esfuerzo para entregar los mensajes, pero no garantice la entrega. Así como la oficina de correos hace su mejor esfuerzo para entregar el correo, pero no garantiza que las cartas llegarán al destino, el Protocolo de Datagrama del Usuario (UDP) proporciona un servicio "no confiable" a las aplicaciones que pueden tolerar una pérdida de algunos mensajes pero aún funcionar. Aplicaciones que envían flujos de datos de video o audio recaen en esta categoría. Pueden experimentar una cierta cantidad de pérdida de datos y aún así funcionar de manera aceptable para los usuarios de la red. Otras aplicaciones que usan UDP incluyen a DNS y algunas formas de transferencia de archivos, incluyendo a TFTP. Cada mensaje UDP se envía independientemente de los otros sin establecer primero una conexión lógica entre el origen y el destino. Las características que identifican al protocolo UDP son las siguientes:

· No confiable · Rápido · Da por supuesto que la aplicación retransmitirá si hay error · A menudo usado en estaciones de trabajo sin disco

Page 100: Documento de Apoyo No. 4 Cisco It Essentials II

100

4.4 Protocolos TCP/IP

4.4.6 Servicios DHCP

El propósito del Protocolo de Configuración Dinámica del Host (DHCP) es permitir a las computadoras individuales de una red IP extraer sus configuraciones de un servidor DHCP. Cuando una computadora de la red necesita una dirección IP, envía una solicitud a un servidor DHCP. El servidor DHCP puede entonces proporcionar a la computadora host toda la información de configuración que necesita, incluyendo dirección IP, máscara de subred, gateway, servidor DNS y WINS, y dominio. DHCP también permite la recuperación y la capacidad de renovar automáticamente direcciones IP de red mediante un mecanismo de préstamo, que adjudica una dirección IP durante un periodo específico, y luego la libera y asigna una nueva dirección IP. DHCP es un método aplicamente utilizado para reducir el trabajo necesario para administrar una red IP grande. La Figura muestra el proceso que tiene lugar cuando un cliente solicita una dirección IP DHCP al servidor DHCP.

4.4 Protocolos TCP/IP

4.4.7 Protocolo de Transporte de Hipertexto (HTTP)

El Protocolo de Transporte de Hipertexto (HTTP) se especializa en la transferencia de páginas de la World Wide Web entre programas cliente navegadores web como Netscape Communicator o Internet Explorer, y servidores web donde se almacenan las páginas web. Las Figuras y proporcionan ejemplos de dos navegadores web populares, Internet Explorer y Netscape Navigator. HTTP define el formato exacto de las solicitudes que el navegador envía así como el formato de las respuestas que el servidor devuelve. El contenido de las páginas web se organiza usando el Hypertext Markup Language (HTML). Las reglas para transportar estas páginas componen el protocolo HTTP.

Page 101: Documento de Apoyo No. 4 Cisco It Essentials II

101

4.4 Protocolos TCP/IP

4.4.8 Protocolo de Transferencia de Archivos (FTP)

Mientras que HTTP se especializa en la transferencia de archivos de páginas web, el Protocolo de Transferencia de Archivos (FTP) se usa para transferir cualquier tipo de archivo de un sistema a otro. Esto incluye documentos de texto, gráficos, sonidos, videos o archivos de programas. FTP es un protocolo de propósito general que puede usarse para copiar todo tipo de archivos de una computadora a otra. FTP hace uso de los servicios de transporte confiables de TCP para establecer una conexión lógica entre los sistemas. FTP es uno de los protocolos más utilizados de Internet. La Figura muestra un ejemplo de un cliente FTP que se ha conectado a un servidor FTP. Del lado izquierdo están los archivos del sistema local y a la izquierda están las carpetas y archivos que están ubicados en el servidor FTP que están disponibles para su descarga.

4.4 Protocolos TCP/IP

4.4.9 Telnet

Para interactuar con y controlar una computadora local o dispositivo de red en particular, los usuarios normalmente conectan un monitor o terminal al sistema e inician sesión. El protocolo telnet permite a los usuarios conectarse e iniciar sesión en un sistema que es remoto respecto a sus computadoras. Telnet permite comunicaciones de la terminal interactiva con sistemas remotos como si estuvieran directamente conectados a la terminal, incluso aunque puede haber muchas redes separando a la terminal del sistema remoto. Usando telnet, los usuarios pueden tipear comandos al sistema como si estuvieran directamente conectados a él. Telnet usa los servicios de TCP para establecer una conexion lógica entre la terminal y la computadora remota. Esta conexión se llama sesión telnet. La Figura muestra un ejemplo de una sesión telnet establecida desde una estación de trabajo Windows 2000 a un servidor Linux Red Hat 7.2.

Page 102: Documento de Apoyo No. 4 Cisco It Essentials II

102

4.4 Protocolos TCP/IP

4.4.10 SMTP

Simple Mail Transfer Protocol (SMTP) es un protocolo para enviar mensajes de e-mail entre servidores. La Figura ilustra la relación que un servidor SMTP tiene con un sistema cliente. Esta figura ilustra cómo un sistema cliente que envía e-mail debe hacerlo mediante el servidor de e-mail SMTP. La mayor parte de los sistemas de e-mail que envían correo por Internet usan SMTP para enviar mensajes de un servidor a otro. Los mensajes pueden luego recuperarse con un cliente de e-mail usando Post Office Protocol (POP) o Internet Message Access Protocol (IMAP). Además, SMTP se usa en general para enviar mensajes de un cliente de correo a un servidor de correo. La Figura muestra un ejemplo de cómo un usuario podría configurar un sistema cliente para usar el servidor SMTP. Por esta razón tanto el servidor POP o IMAP como el servidor SMTP deben configurarse en una aplicación de e-mail.

Después de establecer la conexión TCP al puerto 25 (usado por SMTP), la máquina emisora, operando como cliente, espera que la máquina destinataria, operando como servidor, hable primero. El servidor comienza enviando una línea de texto proporcionando su identidad y diciendo si está o no preparado para recibir correo. Si no lo está, el cliente libera la conexión y vuelve a intentarlo después.

Si el servidor está dispuesto a aceptar e-mail, el cliente anunciar de dónde proviene el e-mail, y a quién se dirige. Si existe un destinatario en el destino, el servidor da al cliente el mensaje de "siga adelante". Luego el cliente envía el mensaje y el servidor da acuse de recibo. Si hay más e-mail, se lo envía ahora. Cuando todo el e-mail ha sido intercambiado en ambas direcciones, la conexión se libera.

Page 103: Documento de Apoyo No. 4 Cisco It Essentials II

103

4.4 Protocolos TCP/IP

4.4.11 POP3

Post Office Protocol versión 3 (POP3) es un protocolo de servicio de correo común usado por los ISPs que proporcionan Internet y servicio de e-mail a clientes hogareños. POP3 permite a una estación de trabajo recuperar el correo que contiene el servidor. La Figura ilustra la relación que un servidor de e-mail tiene con los sistemas cliente. Esta figura ilustra cómo un sistema cliente que recibe e-mail debe hacerlo mediante el servidor de e-mail SMTP. Una vez recuperado el correo, puede borrarse del servidor. La Figura muestra una interfaz de cliente típica que se usa para configurar el sistema para usar un servidor de e-mail POP3 para recuperar el e-mail.

4.4 Protocolos TCP/IP

4.4.12 IMAP

Internet Message Access Protocol (IMAP) es un protocolo de e-mail más nuevo que es más robusto que POP3. IMAP es ofrecido por muchos ISPs, y algunos de ellos incluso están discontinuando su soporte a POP3. IMAP es un método para acceder al correo electrónico o a mensajes de foros de boletines que se guardan en un servidor de correo. IMAP es completamente compatible con las normas de mensajería de Internet Extensión de Correo de Internet Multipropósito (MIME), y permite el acceso y administración de los mensajes desde más de una computadora. Además, el software del cliente no necesita tener ningún conocimiento acerca del formato de almacenamiento de archivos del servidor. La Figura muestra una interfaz de cliente típica que se usa para configurar el sistema para que use un servidor de e-mail POP3 para recuperar e-mail.

Page 104: Documento de Apoyo No. 4 Cisco It Essentials II

104

Resumen

Este capítulo trató TCP/IP. Algunos de los conceptos importantes a retener de este capítulo son los siguientes:

· Un sistema de red se llama cerrado cuando una compañía lo posee y controla. En contraste, la suite de protocolos TCP/IP es un sistema abierto.

· Las cuatro capas que componen TCP/IP son la capa de Aplicación en la parte superior, seguida por la capa de Transporte, la capa de Internet y finalmente la capa de Interfaz de Red.

· Cada dirección IP tiene dos partes. Una parte identifica a la red a la cual está conectado el sistema, y una segunda parte identifica ese sistema de la red en particular.

· Las direcciones IP disponibles se colocan en clases para definir las redes grandes (Clase A), medianas (Clase B), y pequeñas (Clase C).

· Aplicar subnetting a una red significa usar la máscara de subred para dividir una red grande o extremadamente grande en segmentos más pequeños, más eficientes y administrables, o subredes.

· Las redes usan dos técnicas básicas para asociar nombres a direcciones. Éstas son las tablas de host y el Servicio de Nombres de Dominio (DNS).

· Los protocolos importantes que componen la Suite de Protocolos TCP/IP son el Protocolo de Resolución de Direcciones (ARP), el Internet Control Message Protocol (ICMP), el Protocolo de Control de Transmisión (TCP), el Protocolo de Datagrama del Usuario (UDP), el Protocolo de Configuración Dinámica del Host (DHCP), el Protocolo de Transporte de Hipertexto (HTTP), el Protocolo de Transferencia de Archivos (FTP), Telnet, el Protocolo de Transferencia de Correo Simple (SMTP), el Post Office Protocol versión 3 (POP3), y el Internet Message Access Protocol (IMAP).

Un importante servicio de red es la administración remota. La información para lograr éste y otros servicios de red se proporciona en el siguiente capítulo sobre sistemas operativos de red (NOSs).

5. Descripción general de los servicios de red Descripción general

Este capítulo proporciona una introducción a los sistemas operativos de red (NOSs). También trata la capacidad para acceder a un sistema remoto. Esto permite a un administrador del sistema mantener eficientemente una red. Un servicio de directorio proporciona a los administradores de sistemas un control centralizado de todos los usuarios y recursos en toda la red. El alumno aprenderá otros servicios de los NOSs que permiten a los usuarios comunicarse, compartir archivos e imprimir. También aprenderá cómo acceder a Internet, a una intranet, y a una extranet.

5.1 Servicios de Red

5.1.1 Introducción a servicios de red/NOS

Los sistemas operativos de networking están diseñados para proporcionar procesos de red a clientes y peers. Los servicios de red incluyen la World Wide Web (WWW), archivos compartidos, intercambio de mail, servicios de directorio, y servicios de impresión. La administración remota es un potente servicio que permite a los administradores configurar sistemas en red a kilómetros de distancia. Es importante comprender que estos procesos de red se denominan servicios en Windows 2000, daemons en Linux, y Módulos Descargables Netware (NLMs) en Novell. Esencialmente, todos ellos proporcionarán las mismas funciones pero la forma en que se cargan e interactúan con el NOS es diferente en cada sistema operativo. Servicios, Daemons y NLMs se tratan en más detalle en capítulos posteriores.

Dependiendo del NOS, algunos de estos procesos de red clave pueden habilitarse durante una instalación por defecto. La mayoría de los procesos de red populares se basan en la suite de protocolos TCP/IP. La Figura enumera algunos de los servicios basados en TCP/IP más populares. Puesto que TCP/IP es un conjunto de protocolos abierto y bien conocido, los servicios basados en TCP/IP son especialmente vulnerables a escaneos sin autorización y ataques maliciosos. Los ataques de Denegación del Servicio (DoS), virus de computadora y gusanos de Internet de rápida expansión han forzado a los diseñadores de NOSs a reconsiderar qué servicios de red se inician automáticamente.

Page 105: Documento de Apoyo No. 4 Cisco It Essentials II

105

Recientes versiones de NOSs populares, como Windows 2000 y Red Hat Linux 7, restringen la cantidad de servicios de red activos por defecto. Cuando se implementa un NOS, será necesario habilitar manualmente algunos servicios de red clave.

5.2 Administración Remota y Servicios de Acceso

5.2.1 ¿Qué es el acceso remoto?

El acceso remoto se está haciendo más importante a medida que los usuarios de red se hacen más móviles y las compañías expanden sus negocios a múltiples locaciones o abren sus recursos a gente de fuera seleccionada sin poner esos recursos en Internet.

Algunos usos populares del acceso remoto incluyen lo siguiente:

· Conectar sucursales entre sí · Proporcionar un medio para que los empleados se conecten a la red después de las horas

hábiles · Permitir a los empleados teleconmutar trabajando en su casa part-time o full-time · Permitir a los empleados que se encuentran en viaje, como viajantes o ejecutivos en viajes de

negocios, conectarse a la red corporativa · Proporcionar a los clientes o socios de la compañía acceso a recursos de la red

En una economía global en expansión, incluso los pequeños negocios frecuentemente necesitan abrir sucursales en múltiples sitios. Si estas locaciones pueden conectarse con la red de la casa central, puede compartirse fácilmente información actualizada y los recursos pueden reunirse fácilmente. Cuando la necesidad de acceder es infrecuente, o cuando se aplica sólo a unas pocas computadoras, una conexión telefónica puede bastar. Luego, en la casa central, una computadora en red puede configurarse como servidor de conexión telefónica. Los usuarios de la sucursal pueden marcar y conectarse a la red cuando sea necesario. Para muchos empleados corporativos, el día de trabajo rebasa las horas de trabajo normales. Los ejecutivos y otros a menudo llevan el trabajo a su casa. Puede que sea necesario que se conecten a la red corporativa después de las horas hábiles, especialmente si tienen que trabajar en zonas horarias diferentes.

Con una conexión de acceso remoto, los empleados pueden acceder al servidor de acceso remoto corporativo e iniciar sesión en la red con su cuenta de usuario regular. Los empleados pueden luego utilizar todos los recursos que estarían disponibles en la computadora de escritorio de la oficina. La Figura ilustra cómo se logra este proceso mediante un proveedor de servicios.

Page 106: Documento de Apoyo No. 4 Cisco It Essentials II

106

5.2 Administración Remota y Servicios de Acceso

5.2.2 Teleconmutación

Una gran cantidad de empleados, incluyendo personal creativo, escritores técnicos, programadores de software, vendedores y oficinistas, trabajan desde su casa todo o parte del tiempo. Estos trabajadores teleconmutan a la oficina y permanecen en contacto todo el día mediante el e-mail, chat en vivo, e incluso audio y videoconferencia.

La teleconmutación es atractiva para los empleados porque ahorra tiempo de viaje y otros costos asociados con el trabajo en una oficina, como ropa de trabajo, comer afuera, y costo de transporte. Ahorra a la compañía dinero también porque no se requiere espacio de oficina para los empleados teleconmutadores.

El acceso telefónico es la forma más común en que los empleados teleconmutadores se conectan a la LAN de la compañía, aunque en algunos casos, una conexión dedicada podría tener más sentido. Si una compañía tiene muchos empleados teleconmutadores, el servidor de acceso remoto requiere múltiples módems (un banco de módems) para que numerosas conexiones puedan efectuarse simultáneamente. Por supuesto, cada módem requiere su propia línea telefónica separada, como lo muestra la Figura .

5.2 Administración Remota y Servicios de Acceso

5.2.3 Usuarios móviles

Los viajes de negocios se están volviendo más prevalecientes a medida que las compañías comercializan sus productos a escala nacional o internacional. Vendedores, reclutadores, capacitadores, personal de gerencia de alto nivel, y otros pasan gran parte de su tiempo de viaje. Las necesidades de los usuarios móviles son similares a las de los usuarios que se quedan después de hora.

Page 107: Documento de Apoyo No. 4 Cisco It Essentials II

107

Puede ser difícil o imposible almacenar todos los archivos necesarios en una computadora laptop o notebook. Es también una amenaza a la seguridad porque la laptop y sus contenidos puede ser robada físicamente. Una mejor solución podría ser que los usuarios móviles se conectaran telefónicamente con la LAN de la compañía. Aquí, como muestra la Figura , sus cuentas de usuarios se autentican, y pueden acceder a los datos aquí en lugar de copiarlos a su propio disco rígido.

5.2 Administración Remota y Servicios de Acceso

5.2.4 Servicios de emulación de terminal

La emulación de terminal es el proceso de acceder a un escritorio remoto o servidor a través de una terminal de computadora local (ver Figura ). La terminal local ejecuta software que emula, o imita, el aspecto de la terminal del sistema remoto. Usando emulación de terminal, el usuario local puede tipear comandos y ejecutar programas en el sistema remoto. El programa de emulación de terminal se ejecuta en el sistema local como cualquier otro programa. En un sistema Windows, los usuarios pueden ejecutar un programa de emulación de terminal en una ventana mientras se están ejecutando aplicaciones separadas en otras ventanas.

Se requieren diferentes tipos de emulación de terminal para tipos específicos de terminales. A continuación, algunos de los tipos de terminal comunes en networking informático:

· IBM 3270 · DEC VT100

Page 108: Documento de Apoyo No. 4 Cisco It Essentials II

108

· AS/400 5250 · TTY · xterm

La aplicación más común de la emulación de terminal es Telnet, que es parte de la suite de protocolos TCP/IP. Telnet proporciona una interfaz de línea de comandos (CLI) que permite a los clientes acceder a un servidor remoto. Los NOSs Windows, UNIX, y Linux soportan servicios Telnet. La utilidad xterm es un emulador de terminal para el Sistema X Window. X Window se tratará en más detalle en el capítulo 9. Es el módulo que ejecuta la GUI en Linux. La Utilidad xterm proporciona terminales compatibles con DEC VT102 y Tektronix 4014 para programas que no pueden utilizar el sistema de ventanas directamente. La versión más reciente y bien soportada de xterm es la versión XFree86, no obstante existen varias otras versiones de xterm.

Además de para administración remota, la emulación de terminal puede usarse para entregar aplicaciones y servicios a clientes. Por ejemplo, una organización puede instalar una aplicación de alta potencia en el servidor, y luego permitir que clientes de baja potencia accedan a la aplicación mediante emulación de terminal. Desde el punto de vista del usuario final, la aplicación de alta potencia parece ejecutarse localmente en la máquina cliente. En realidad, la aplicación se ejecuta en el servidor, que probablemente tiene significativamente más potencia y RAM.

5.2 Administración Remota y Servicios de Acceso

5.2.5 Servicios Telnet

Telnet es el principal protocolo de Internet para crear una conexión con una máquina remota. Da al usuario la oportunidad de estar en un sistema informático y trabajar en otro, que puede estar cruzando la calle o a miles de kilómetros de distancia. Telnet proporciona una conexión libre de errores. Telnet tiene las siguientes consideraciones de seguridad.

· Hacking · Deducción de contraseñas · Ataques de Denegación de Servicio (DoS) · Packet sniffing (datos de texto visualizables)

Telnet se tratará en mayor detalle en los Capítulos 8 y 9, ya que se relaciona específicamente con Windows 2000 y Linux. Las Figuras y ilustran un ejemplo de un usuario remoto accediendo a un servidor Windows 2000 usando servicios Telnet.

Page 109: Documento de Apoyo No. 4 Cisco It Essentials II

109

5.2 Administración Remota y Servicios de Acceso

5.2.6 Configuración de acceso remoto para un cliente

Hoy, la mayor parte de las computadoras están conectadas a una red permanentemente mediante la placa de red del sistema. Estos tipos de conexiones se efectúan asignando direcciones IP al sistema, lo cual se trató en el Capítulo 4, "Networking TCP/IP". A veces establecer una conexión remota a una computadora debe hacerse de otra manera cuando la computadora podría ubicarse en algún lugar no conectado a la red. Por lo tanto, una conexión telefónica, ISDN, o conexión de banda ancha deben usarse para conectarse a la computadora.

Protocolo Punto a Punto (PPP) El Protocolo Punto a Punto (PPP) puede usarse para establecer un vínculo TCP/IP entre dos computadoras, usando un módem. Una conexión PPP está diseñada para usarla sólo durante periodos breves porque no es considerada una conexión de Internet "siempre activa". Hay, no obstante, algunos ISPs que ofrecen vínculos PPP full-time pero éste no es un medio recomendado de efectuar una conexión a un servidor. Alguna configuración es necesaria para iniciar y establecer una conexión PPP en un sistema Linux. El primer paso es asegurarse de que el daemon PPP está instalado, denominado "pppd". El daemon PPP puede tanto iniciar como responder a intentos de iniciar una conexión.

Configuración PPP basada en texto Hay dos formas de crear una conexión PPP. Una forma de configurar PPP es usando las utilidades PPP basadas en texto y la otra es usar el Dialer GUI. Si usa una versión basada en texto, se requiere que primero cree una entrada en el archivo /etc/ppp/pap-secrets o /etc/ppp/chap-secrets. Las Figuras y muestran ejemplos de estas entradas que un usuario verá en estos archivos. Para editar estos dos archivos se usa el mismo formato y se los utiliza para proporcionar información de autenticación entre las dos computadoras. El archivo /etc/ppp/pap-secrets usa el Protocolo de Autenticación de Contraseñas (PAP) y el archivo /etc/ppp/chap-secrets usa el Challenge Handshake Authentication Protocol (CHAP). Los protocolos PAP y CHAP son protocolos que presentan la información sobre nombre de usuario y contraseña del usuario. Al editar estos archivos, un usuario tendrá que colocar la información sobre nombre de usuario y contraseña proporcionada por el ISP. Los usuarios también necesitarán introducir el nombre del servidor o computadora a la que se están conectando. Este valor puede sustituirse por un asterisco (*), que significa que se conectará a cualquier servidor o computadora. La última parte de la información que el usuario necesitará para los archivos secrets es la dirección IP del sistema al que pppd se supone que llega cuando se conecta. Este valor puede dejarse en blanco, lo que permitirá una conexión con cualquier dirección IP.

Crear una conexión mediante la línea de comandos también requiere modificar algunos scripts. Éstos son ppp-on, ppp-on-dialer, y ppp-off-scripts. Los scripts pop-up y pop-up-dialer manejan las conexiones de inicio y el script ppp-down la termina. El primer paso en modificar estos scripts es copiarlos desde el directorio por defecto que es /usr/share/doc/ppp-2.3.11/scripts, a un directorio que se encuentra en la

Page 110: Documento de Apoyo No. 4 Cisco It Essentials II

110

ruta como /usr/local/bin, por ejemplo. Después de copiar estos archivos a la nueva ubicación, los usuarios necesitarán editarlos con la información relevante a su ISP. Los pasos a llevar a cabo son:

1. En el script ppp-on, hay líneas que comienzan con TELEPHONE=, ACCOUNT=, y PASSWORD=. Introduzca la información en estas líneas que sea relevante al ISP. La Figura muestra un ejemplo del script de ppp-on.

2. Ubicada en el script ppp-on hay una variable que señala a la ubicación de ppp-on-dialer. La ubicación por defecto es /etc/ppp. Si no está señalando a la ubicación correcta, cambie esta ubicación según sea pertinente.

3. Ubicados al final del script ppp-on, busque los valores "call to pppd". Estos valores son difíciles de interpretar pero la única información aquí que necesita verificarse es que el script esté usando el nombre de archivo y la velocidad correctos del dispositivo módem. Normalmente los módems serie usarán como nombre de archivo /dev/ttyS0 o /dev/ttyS1. La velocidad del módem en la mayoría de los casos deberá ser 115200, pero 38400 es el valor por defecto.

4. A continuación, verifique el script ppp-on-dialer. Un script ppp-on-dialer de muestra aparece en la Figura . Este script maneja la secuencia de "chateo". Será necesario modificar las últimas dos líneas de este script con la información del ISP del usuario. Esta información es el diálogo que es intercambiado por el módem y el ISP acerca del nombre de usuario y cuenta del usuario al iniciar sesión en Internet. Ésta es la información que un usuario necesitará introducir en las últimas dos líneas de este script para hacerlo funcionar. Como alternativa, si el ISP del usuario usa PAP o CHAP, estas últimas dos líneas sólo necesitarán comentadas haciendo precederlas con un signo numeral (#) para que no se lean al ejecutarse el script y será necesario eliminar la barra invertida (\) de la línea de conexión.

Después de efectuar todos estos cambios, inicie sesión como raíz y tipee ppp-on desde el shell. (El usuario podría tener que hacer preceder el comando con la ruta completa). Si los scripts fueron editados exitosamente, entonces el sistema deberá marcar el módem y establecer una conexión.

Configuración PPP del Dialer GUI La configuración PPP también puede efectuarse desde la GUI usando las utilidades de marcado de la GUI. El Dialer GUI PPP que viene con KDE es el dialer KPPP. Un ejemplo del dialer KPPP se muestra en la Figura . Para iniciar la Ventana KPPP, tipee kppp en el shell o seleccionándolo desde el menú KDE. La primera vez que se inicia el dialer KPPP, será necesario configurarlo. Una vez introducida toda la configuración, todo lo que es necesario una vez ejecutado el comando kppp es seleccionar el ISP de la lista "Connect To" y luego introducir el nombre de usuario y contraseña.

Page 111: Documento de Apoyo No. 4 Cisco It Essentials II

111

Siga estos pasos para configurar el dialer KPPP:

1. Tipee kppp en el shell. Esto iniciará el dialer KPPP. 2. Cuando el dialer inicia, haga clic en Setup. Esto iniciará la ventana de configuración de KPPP.

Un ejemplo de ventana de configuración de KPPP se muestra en la Figura . 3. Haga clic en New. Esto creará una nueva cuenta. Note aquí que si el usuario se encuentra en

Estados Unidos, tendrá que seleccionar la opción del recuadro de diálogo y no el asistente porque el asistente no soporta ISPs de EE.UU. Una vez seleccionada la opción del recuadro de diálogo se abrirá el recuadro de diálogo New Account. Un ejemplo del recuadro de diálogo New Account se muestra en la Figura .

4. En el recuadro "nombre de la conexión" tipee el nombre con el que se va a referir a esta conexión.

5. Haga clic en Add, y luego introduzca el número telefónico del ISP, luego haga clic en OK. A veces un ISP proporcionará más de un número que marcar. En este caso, repita este paso para números adicionales que marcar.

6. En la solapa Authentication, seleccione el tipo de autenticación que usa el ISP, ya sea PAP o CHAP. Luego haga clic en OK para cerrar el recuadro de diálogo New Account.

7. Por último, vea las solapa modem y device para confirmar que se haya seleccionado el Dispositivo Módem y la velocidad de Conexión correctos.

Conexión usando ISDN Una alternativa al uso de líneas telefónicas analógicas para establecer una conexión es ISDN. La Figura ilustra un ejemplo de representación lógica de una conexión ISDN. ISDN tiene muchas

Page 112: Documento de Apoyo No. 4 Cisco It Essentials II

112

ventajas sobre el uso de las líneas telefónicas. Una de estas ventajas es la velocidad. ISDN usa un par de líneas digitales de 64 kilobits por segundo (Kbps) para conectarse, lo cual proporciona un total de 128 Kbps de throughput. Esto es mucho mejor que usar una línea telefónica que se conecta a una velocidad máxima de 56 Kbps, y a menudo ni siquiera llega a ser tan alta en algunas áreas. Aunque ISDN es mejor que usar líneas telefónicas, una alternativa aún mejor a ISDN es DSL o los servicios de cable módem. DSL y los servicios de cable módem se tratan en la siguiente sección.

En lugar de usar un módem para conectarse a una computadora remota, ISDN usa un adaptador de terminal. El adaptador de terminal esencialmente lleva a cabo el mismo papel que juega un módem en una conexión PPP. Establecer una conexión con el adaptador de terminal se hace de igual manera que con un módem y una conexión PPP. Por lo tanto, simplemente siga las mismas instrucciones delineadas en la sección anterior sobre conexiones PPP para configurar una conexión ISDN.

Un adaptador de terminal es un dispositivo externo que actúa de manera muy similar a como lo hace un módem externo. No obstante, un usuario puede usar un dispositivo interno que se conecta a uno de los slots PCI de la computadora. Estos dispositivos ISDN internos se denominan módems ISDN. Tenga en cuenta que el usuario necesitará tener instalados los controladores apropiados para que el módem ISDN funcione apropiadamente en Linux. Otra cosa importante a recordar acerca del uso de módems ISDN es que a diferencia de los módems regulares que marcan hacia una línea telefónica, los módems ISDN no pueden usar el nombre de archivo /dev/ttyS0. En cambio, un módem ISDN debe usar el nombre de archivo /dev/ttyI0 y los nombres de archivos de dispositivos numerados subsecuentemente.

Conexión mediante DSL y Servicio de Cable Módem Un medio popular de establecer una conexión remota a una computadora hoy por hoy es mediante DSL o servicio de cable módem, o a veces simplemente denominado acceso remoto de alta velocidad o acceso remoto por banda ancha. La Figura ilustra un ejemplo de cómo se efectúa una conexión DSL o de Internet por cable. Este servicio aún es proporcionado por un ISP pero ofrece algunas ventajas sobre las conexiones PPP e ISDN. En primer lugar, DSL y cable tienen velocidades mucho más altas que PPP e ISDN. Donde PPP se conecta a un máximo de 56 Kbps e ISDN a 128 Kbps, DSL y Cable se conectan a una velocidad de 1000 Kbps a 3000 Kbps. La velocidad variará dependiendo de varios factores, como el tráfico en Internet. Estas velocidades de conexión más altas también permiten transmisión de video, voz y datos digitales, no sólo datos. Las conexiones PPP e ISDN son simplemente demasiado lentas para permitir otra cosa que no sean transmisiones regulares de datos. Otra ventaja que permite el acceso remoto de alta velocidad es que se establece una conexión permanente. Esto significa que la conexión puede utilizarse 24 horas al día y los usuarios no necesitan pasar por ninguna configuración de dialer, ni siquiera tienen que introducir un comando para iniciar la conexión. Hay dos excepciones a esta regla que se tratarán brevemente.

Page 113: Documento de Apoyo No. 4 Cisco It Essentials II

113

Nuevamente, al tratar con Linux, surgirán problemas de compatibilidad al utilizar un servicio de DSL o cable módem. Estos dos problemas son la compatibilidad del hardware y el método de asignación de direcciones IP. Los problemas de compatibilidad de hardware surgen al elegir el módem apropiado para usar con Linux. La mayoría de los módems para DSL y cable son externos y hacen interfaz con la computadora mediante un puerto Ethernet. Éste es el método preferido de conexión que será el más compatible con un sistema Linux. No obstante, algunos módems DSL o cable externos usan una interfaz USB. Por otro lado, pueden ser módems internos. Usar estos dos tipos de módems DSL y cable requieren el uso de controladores especiales en un sistema Linux que son raros y difíciles de hallar. Hay cuatro formas en que un ISP de banda ancha asignará direcciones IP. Éstas son con una dirección IP estática, DHCP, PPP sobre Ethernet (PPPoE), o PPP sobre ATM (PPPoA). Si el ISP proporciona al usuario un módem incompatible, la mejor idea es reemplazarlo con uno que sea compatible. Si el ISP del usuario usa PPPoE o PPPoA, el usuario tendrá que introducir configuración para establecer la conexión. El usuario también tendrá que introducir comandos en el shell para iniciar la conexión y terminar la conexión. El comando asdl-start iniciará la conexión y el comando asdl-stop la terminará. 5.2 Administración Remota y Servicios de Acceso

5.2.7 Control de los derechos del acceso remoto

Al configurar un servidor para acceso remoto, es importante mantener una estricta política de derechos de acceso. Ésta puede ser una importante operación de administración de redes. El sistema operativo Linux proporciona muchas opciones que elegir al controlar los derechos de acceso remoto. Al configurar los controles de acceso remoto, es una buena idea usar una combinación de al menos dos de estas opciones. La razón para esto es que si uno fallara o pasara a inactividad siempre habrá un respaldo.

Firewalls Un firewall actúa como barrera entre una red, como Internet por ejemplo, y otra. Esta otra red podría ser la red de la cual está a cargo el usuario para controlar su seguridad. El firewall se coloca en medio de donde estas dos redes hacen interfaz, bloqueando así el tráfico no deseado. Se puede configurar un firewall en una variedad de formas diferentes. Una de las formas tradicionales es instalar un router que pueda bloquear y controlar el tráfico no deseado que entra y sale de una red. Otros tipos de firewalls incluyen firewalls externos dedicados como Cisco PIX Firewall, o sólo una computadora común actuando como firewall.

Todo el tráfico de la red que fluye hacia dentro y fuera de ella lo hace usando puertos. Un firewall de filtro de paquetes restringe el tráfico basándose en estas asignaciones de puertos. Este tipo de firewall examina el número de puerto del origen y el destino y la dirección IP del origen y el destino. Por ejemplo, si un servidor Samba está funcionando en la red interna, el administrador configuraría el firewall para bloquear el puerto usado por Samba en el firewall. Esto evitaría cualquier acceso indeseado al servidor de un hacker malicioso de fuera de la red.

Page 114: Documento de Apoyo No. 4 Cisco It Essentials II

114

Tal como se mencionó previamente, el sistema operativo Linux por sí mismo puede configurarse para proporcionar servicios de firewall. Linux usa las herramientas ipfwadm, ipchains, e iptables para configurar funciones de firewalls. Las funciones de firewall pueden configurarse manualmente, usando una herramienta de configuración GUI, o mediante un sitio web.

Manualmente Si un usuario decidiera configurar el sistema Linux como firewall, se recomienda que el usuario primero lea acerca del tema. Existen libros completos que tratan este tema y puede ser muy difícil hacerlo. Involucra escribir scripts, lo cual puede ser complicado y podría resultar en que el firewall no funcione apropiadamente.

Herramienta de Configuración GUI Algunas de las herramientas de configuración de la GUI que pueden usarse para la configuración del firewall son Firestarter (http://firestarter.sourceforge.net) o Guarddog (http://www.simonzone.com). Las últimas distribuciones de Linux están siendo entregadas ahora con estos programas. Estas herramientas permiten un medio mucho más fácil de controlar puertos de red así como protocolos de cliente y servidor que un usuario desearía controlar. Estas herramientas también generan los scripts para los usuarios que pueden ejecutarse automáticamente cuando el sistema arranca.

Configuración del Sitio Web Una herramienta de configuración del sitio web funciona como las herramientas de configuración GUI y permite a los usuarios introducir la información necesaria en el sistema, y el sitio web genera los scripts para firewall para ellos.

TCP Wrappers TCP Wrappers se usa en conjunción con inetd. Tenga en cuenta que inetd ya no se usa con Linux Mandrake o Red Hat. Estas dos distribuciones usan xinetd. TCP Wrappers usa un programa llamado tcpd. Sin tcpd ejecutándose un servidor llamaría a otro directamente con inetd. Cuando se usa el programa tcpd, el programa inetd llama a tcpd primero. El programa tcpd verificará primero para ver si el cliente está autorizado a acceder al servidor y si lo está, entonces el programa tcpd permitirá al cliente acceder al servidor.

Existen dos archivos que se usan para configurar TCP Wrappers, /etc/hosts.allow y /etc/hosts.deny. Las Figuras y muestra ejemplos de estos dos archivos. Editando estos archivos y agregando nombres de host a los archivos, los usuarios pueden permitir o denegar acceso al sistema. Los nombres de host introducidos en el archivo hosts.allow especifican a qué sistemas se le permite obtener acceso al sistema. Si se hace un intento de acceder al sistema y el nombre de host no se ha introducido en el archivo hosts.allow, entonces se le niega acceso. Por el contrario, a los nombres de host introducidos en el archivo hosts.deny se les niega acceso al sistema.

Las entradas de estos archivos consisten en líneas como la siguiente:

Page 115: Documento de Apoyo No. 4 Cisco It Essentials II

115

· daemon-list: client-list daemon-list especifica los nombres de los servidores que aparecen en /etc/services. Éstos son los servidores/servicios a los cuales se otorgará o denegará el acceso. client-list especifica a qué clientes se otorga o denega acceso al servidor en la daemon-list correspondiente. Las entradas de client-list pueden ser por nombre de host o por dirección IP.

· Xinetd Tal como se mencionó antes, las Distribuciones Mandrake y Red Hat de Linux ya no usan inetd ni TCP Wrappers. En cambio usan xinetd. Mandrake y Red Hat controlan el acceso editando el archivo /etc/xinetd.conf. La Figura muestra un ejemplo del archivo xinetd.conf. Estos recortes que se hacen en el archivo xinetd.conf hacen llamadas a otros archivos ubicados en el directorio /etc/xinetd.d. La Figura enumera algunos de los daemons que hay en el directorio /etc/xinetd.d. Estos archivos se encuentran en el directorio /etc/xinetd.d y son lo que controla el acceso a los diferentes daemons que se ejecutan en el sistema. La configuración se efectúa servidor por servidor usando los parámetros bind, only_from, y no_access.

· Bind Esto le indica a xinetd que escuche sólo a una interfaz de red para el servicio. Por ejemplo, agregar la entrada bind = 10.2.5.1 al archivo hará que el router sólo escuche a esa dirección de placa Ethernet específica de la red.

· only_from Esto funciona de manera similar al archivo hosts.allow porque un usuario puede especificar una dirección IP, direcciones de Red, o nombres de host en esta línea para permitir conexiones sólo de esas entradas particulares enumeradas en el archivo.

· no_access Esto funciona de manera similar al archivo hosts.deny en el hecho de que a las entradas enumeradas en esta línea se les denegará acceso al servidor.

Contraseñas Las contraseñas son un método muy útil de controlar el acceso remoto a un servidor. Las contraseñas son muy útiles cuando quien tiene acceso a servidores tales como e-mail, FTP, y Telnet por ejemplo. Imponer una contraseña obliga al usuario a autenticarse de alguna forma ante los servidores para obtener acceso a los recursos del servidor.

Aunque las contraseñas pueden ser un medio eficaz de evitar el acceso a un servidor, también tienen algunos problemas de seguridad que deben conocerse. A menos que las contraseñas se envíen en forma cifrada, se puede correr el riesgo de que un usuario experimentado pueda leerlas. Los protocolos FTP, POP, IMAP, y Telnet envían información sobre contraseñas en forma cifrada por defecto, otros no. Hay formas, no obstante, de cifrar seguramente las contraseñas e incluso los datos. Un método semejante es mediante el uso del protocolo SSH. El protocolo SSH está diseñado para ser seguro y evita que una contraseña se use incluso si es interceptada.

SSH proporciona otro medio de proporcionar una autenticación segura a un servidor. SSH es capaz de almacenar una clave especial en el servidor y una en el cliente. El cliente usa su clave, y no una contraseña, para autenticar al servidor. Aunque esta configuración proporciona un medio seguro de

Page 116: Documento de Apoyo No. 4 Cisco It Essentials II

116

autenticación, hay algunos riesgos de seguridad involucrados también. Por ejemplo, si por alguna razón un intruso obtuviera acceso a la computadora cliente de un usuario, podría obtener acceso al servidor.

También es importante la mención de los "r-commands" al tratar la autenticación de contraseñas. Los "r-commands" son los comandos rlogin, rsh, y rcp. Estos comandos permiten a un usuario en un sistema UNIX o Linux iniciar sesión, ejecutar programas, y copiar archivos hacia y desde otro sistema UNIX o Linux sin tener que autenticarse. Esto se logra creando un archivo rhosts en el directorio home del usuario. Este archivo contiene listas de otros hosts en los que se confía. Estos hosts en los que se confía pueden obtener acceso a un servidor sin tener que ser autenticados. Nuevamente, puede haber algún problema de seguridad al utilizar esta forma de autenticación y deberá tenerse particular cuidado al determinar en qué hosts se confiará.

Permisos de Archivos Los permisos de archivos pueden ser útil para otorgar acceso general a los archivos o a ciertos directorios sin tener que especificar ningún usuario en particular. Básicamente, cualquiera puede iniciar sesión y obtener acceso al servidor. No obstante, los permisos de archivos pueden limitar a qué archivos o directorios se tendrá acceso. Por ejemplo, si hubiera un servidor FTP, Telnet o SSH al que la gente necesitara acceder, el administrador podría especificar un directorio o un grupo de directorios a los que estos usuarios tuvieran acceso una vez iniciada la sesión. Un ejemplo mejor aún sería permitir un acceso anónimo a un servidor FTP. El control de acceso anónimo especifica que cualquiera puede obtener acceso al servidor pero sólo se podrá acceder a los directorios y archivos en particular para los que tengan los permisos de archivo apropiados.

5.2 Administración Remota y Servicios de Acceso

5.2.8 Administración remota a un sistema Linux

Un beneficio de usar el sistema operativo Linux en un servidor es que proporciona muchas formas de administrar remotamente el sistema. Esta es la razón por la cual es tan importante controlar los derechos de acceso. Al igual que sucede con cualquier tipo de acceso remoto a un sistema, existen riesgos de seguridad que es necesario tratar. Muchos de ellos se trataron en la sección anterior. No obstante, la administración remota puede ser muy conveniente y también necesaria en algunos casos. Linux proporciona varias herramientas para la administración remota. Estas incluyen, inicios de sesión en modo texto, inicios de sesión en GUI, transferencias de archivos y protocolos de administración remota dedicados.

Inicios de Sesión en Modo Texto Un inicio de sesión en modo texto consiste en iniciar sesión en un sistema mediante Telnet o SSH. Un usuario puede usar Telnet o SSH para administrar remotamente el servidor Linux desde cualquier sistema operativo como Mac OS o Windows por ejemplo. No tiene por qué ser un sistema operativo Linux. Esto se hace normalmente iniciando sesión con una cuenta de usuario regular y luego usando el comando su con la contraseña raíz para obtener privilegios de superusuario. En este punto, los usuarios realmente pueden hacer cualquier cosa que pudieran hacer desde el prompt del shell en la consola principal.

La sintaxis de comandos correcta para utilizar Telnet en Linux es telnet hostname, donde hostname es el nombre DNS del sistema al que el usuario está intentando obtener acceso. La Figura ilustra un ejemplo del comando telnet que se está utilizando.

Page 117: Documento de Apoyo No. 4 Cisco It Essentials II

117

SSH funciona igual, no obstante no utiliza el prompt login:. Los usuarios no necesitan especificar un nombre de usuario o contraseña. En cambio SSH pasa el nombre de usuario actual al sistema al que el usuario está intentando acceder remotamente para autenticar el usuario. No obstante, el usuario puede iniciar sesión a un servidor SSH con un nombre de usuario y contraseña diferentes utilizando el parámetro -l username. La salida es como sigue: (note que en la siguiente salida hostname representa el nombre DNS del sistema remoto).

$ ssh hostname -l jsmithjsmith@hostname password: Last login: Wed Feb 18 08:34:23 2002 from hostname [jsmith@hostname jsmith]$

Una vez que el usuario ha obtenido acceso al sistema exitosamente, puede hacer prácticamente todo lo que puede hacerse desde un prompt de shell en la consola principal.

Para administrar remotamente un servidor Linux mediante una sesión GUI, en primer lugar los usuarios necesitarán instalar algún software en los sistemas desde el cual están intentando administrar remotamente. El software que tendrán que instalar es X server. Si están haciendo el intento desde un sistema Linux, X server ya debería estar instalado. Los usuarios también pueden usar un sistema Windows con X server instalado en él para administrar un servidor Linux mediante una GUI. Al igual que con Telnet y SSH, una vez que los usuarios han iniciado sesión, pueden usar el comando su con la contraseña raíz para adquirir los privilegios del raíz.

Transferencias de Archivos En general, la transferencia de archivos no es lo que una persona podría llamar administración remota. No obstante, es de hecho una forma para editar y configurar archivos remotamente. Una herramienta de transferencia de archivos como FTP puede utilizarse para transferir archivos de un sistema a otro, editarlos, y luego volver a enviarlos. Por ejemplo, un usuario podría tener un servidor Linux que esté configurado como servidor de impresora. Puesto que este servidor es un servidor de impresora, podría no tener las herramientas apropiadas de edición y configuración necesarias para editar archivos en el servidor de impresora, lo cual haría que hacer telnet al servidor careciera de sentido. Si FTP, NFS, o Samba estuvieran instalados en el servidor de impresora, entonces un usuario podría iniciar sesión en el servidor de impresora remotamente y transferir el archivo a un sistema que tuviera las herramientas de edición y configuración apropiadas, editar el archivo, y volver a transferirlo al servidor de impresora.

Tenga en cuenta, no obstante, que no se recomienda otorgar acceso directo al directorio destino de los archivos de configuración, como el directorio /etc usando NFS o Samba. Esto hace más fácil transferir el archivo a la ubicación correcta pero puede dejar al servidor vulnerable a ataques. En cambio, la mejor práctica sería transferir el archivo usando una cuenta de usuario general que colocara al archivo en el directorio home de la cuenta de ese usuario. Luego use un protocolo de inicio de sesión remoto como SSH para copiar el archivo al directorio apropiado.

Page 118: Documento de Apoyo No. 4 Cisco It Essentials II

118

Protocolos de Administración Remota Linux proporciona varias herramientas para habilitar a un administrador para que administre remotamente una computadora. Para lograrlo, el usuario necesitará instalar la versión del servidor de estas herramientas en la computadora cliente, que es la computadora que el usuario planea administrar remotamente. El usuario necesitará instalar la versión cliente de la herramienta en particular que se usa en la computadora en la que el usuario planea usar para hacer la administración. La mayoría de estas herramientas usan navegadores web como medio de hacer la administración remota, lo cual es útil en un entorno que tiene múltiples sistemas operativo como Macintosh o Windows. El sistema no necesita ser un sistema Linux para administrarlo remotamente desde un sistema Linux. Algunas de estas herramientas son:

· SNMP · Samba Web Administration Tool (SWAT) · Webmin

SNMP Este protocolo se tratará en detalle en capítulos posteriores. Es importante notar aquí no obstante que ésta nunca ha sido la herramienta de administración remota preferida para sistemas Linux como lo ha sido en el entorno Windows. La razón es que requiere mucha configuración complicada en los sistemas que deben administrarse.

Samba Web Administration Tool (SWAT) Esta herramienta es una herramienta basada en la web que se usa para administrar un servidor Samba. Después de configurar SWAT, los usuarios pueden acceder al servidor remotamente usando un navegador web. SWAT usa el puerto 901 y para acceder a la página de administración de SWAT, los usuarios tipearían el URL del servidor al que desean acceder remotamente, seguido del puerto 901. Por ejemplo, los usuarios tipearían http://cisco-flerb.cisco.com:901. La Figura proporciona un ejemplo de la página de SWAT. Tenga en cuenta que SWAT sólo permite a los usuarios administrar las funciones Samba del servidor. Los usuarios no podrán llevar a cabo ninguna otra tarea de administración con SWAT. No obstante, los usuarios tendrán un control completo de Samba en el servidor remoto.

Webmin Webmin, como el nombre lo implica, es otra herramienta de administración remota basada en web. Webmin fue diseñada teniendo como concepto principal que pueda ser usada en todas las distribuciones de Linux así como en sistemas UNIX. Cuando se instala Webmin, se instalan archivos de configuración específicos de esa distribución de Linux o UNIX en particular. Webmin usa el puerto 10000. Para acceder a la página de administración de Webmin, los usuarios tipearían el URL del

Page 119: Documento de Apoyo No. 4 Cisco It Essentials II

119

servidor al que desean acceder remotamente, seguido por el puerto 10000. Por ejemplo tipee http://cisco-flerb.cisco.com:10000.

rmon y ssh Remote Monitoring (RMON) es una especificación de monitoreo estándar que permite a varios monitores de red y sistemas de consola intercambiar datos de monitoreo de red. Secure Shell (SSH) es probablemente la más popular herramienta de administración remota para Linux. SSH ofrece acceso de línea de comando mediante un túnel encriptado que proporciona más seguridad que telnet. Muchas distribuciones de Linux vienen con un servidor SSH ya instalado. Al igual que con cualquier herramienta, deben instalarse patches y colocarse restricciones para evitar que usuarios no autorizados usen el servicio. Una vez que tenga instalado un servidor SSH, configurarlo es muy fácil. Existen un par de configuraciones importantes que deberá ordenar para minimizar el riesgo, incluyendo:

· PermitRootLogin Este valor deberá configurarse a No, puesto que nunca deberá iniciarse sesión en la raíz remotamente. Si desea administrar la caja, cree un usuario normal y entre con SSH con esa cuenta. Una vez dentro, puede usar el comando su para iniciar sesión como raíz.

· X11 Forwarding Este valor se utilizará para obtener una conexión gráfica. Si sólo desea usar la consola, puede configurar este valor a No; de otro modo, configúrelo a Sí.

Si no tiene instalado un servidor SSH, puede utilizar su instalador RPM de la distribución Linux para hacerlo funcionar. Una vez logrado eso, conectarse es muy simple. Primero, es necesario que obtenga un cliente. Un cliente SSH fácil y gratuito es PuTTY, que puede descargar del sitio web de PuTTY ubicado en el vínculo web de más abajo. PuTTY es una utilidad de cliente ssh que le permite conectarse a sistemas remotos usando diversos protocolos, incluyendo SSH y Telnet. Configurar PuTTY es muy fácil. Para conectarse a un sistema remoto, todo lo que tiene que hacer es completar el nombre de host o dirección IP a la cual conectarse, y seleccionar SSH para el tipo de conexión, como lo muestra la Figura .

5.3 Servicios de Directorio

5.3.1 ¿Qué es un servicio de directorio?

A medida que las intranets continúan creciendo de tamaño, las complejidades de estas redes también crecen rápidamente. Las modernas intranets pueden contar con miles de usuarios, y cada uno de ellos necesita diferentes servicios y diversos niveles de seguridad en la red. La tarea de administrar este desafío logístico ha crecido más allá de la capacidad del NOS por sí solo. Muchos administradores de sistemas usan ahora "servicios de directorio" para suplementar las herramientas de administración de un NOS. La Figura muestra los conceptos básicos respecto a cómo se construye un servicio de directorio. El objeto superior en un directorio, que contiene a todos los otros objetos, se denomina objeto "raíz".

Page 120: Documento de Apoyo No. 4 Cisco It Essentials II

120

Un servicio de directorio proporciona a los administradores de sistema un control centralizado de todos los usuarios y recursos en toda la red. Proporciona a un administrador la capacidad de organizar información. Ayuda a simplificar la administración de la red proporcionando una interfaz estándar para tareas de administración de sistema comunes. Esta función es importante cuando una red grande está ejecutando varios sistemas operativos y diversos protocolos de red. Con un único servicio de directorio, el administrador de red puede administrar centralmente todos esos recursos con un conjunto definido de herramientas en lugar de atender manualmente cada dispositivo por separado. Estos servicios de directorio pueden ser locales, lo cual significa que están restringidos a una única máquina o la información del directorio puede estar diseminada en varias máquinas. Esto se denomina base de datos de directorio distribuida.

En el mundo informático, un directorio puede ser algo diferente. Los alumnos probablemente están familiarizados con el término "directorio" en lo que se refiere a los sistemas de archivos de computadora, en los cuales un directorio es una colección de archivos agrupados bajo un nombre identificatorio. Los servicios de directorios usados por un NOS son diferentes pero son conceptos relacionados. En este contexto, un directorio es un tipo especial de base de datos. Puede contener variados tipos de información.

Beneficios del Uso de una Estructura de Directorio Los beneficios de usar servicios de directorio en una red incluyen:

· Los datos pueden ser fácilmente organizados. · Los datos pueden ser fácilmente asegurados. · Los datos pueden ser fácilmente localizados y accedidos.

Hay ventajas en usar servicios de directorio para acceder a los recursos de la red. Tradicionalmente, los archivos y carpetas compartidos se almacenaban en las unidades de disco rígido de estaciones de trabajo individuales o servidores de archivos. Para conectarse a los archivos compartidos, el usuario necesitaba saber dónde estaban ubicados.

Un servicio de directorio elimina este requisito. Los recursos compartidos se publican en el directorio. Los usuarios pueden localizarlos y acceder a ellos sin siquiera saber en qué máquina residen físicamente los recursos. La Figura ilustra cómo está pensado que funcione este proceso. Los archivos, directorios y compartidos a los que los usuarios acceden desde un único punto pueden distribuirse a través de varios servidores y ubicaciones usando servicios de directorio distribuido y replicación. Los siguientes dos métodos pueden usarse para buscar en todo el directorio distribuido desde una única ubicación.

Page 121: Documento de Apoyo No. 4 Cisco It Essentials II

121

· Buscar en la Red de Microsoft Windows de manera tradicional Buscar en cada máquina individual para localizar los archivos compartidos.

· Buscar en el Directorio Esta opción muestra todos los recursos publicados en el Active Directory. La Figura ilustra cómo usar el Microsoft Windows Explorer para buscar en el directorio.

5.3 Servicios de Directorio

5.3.2 Estándares del servicio de directorio

Es necesario conformarse a un estándar al crear directorios distribuidos. Para operar dentro de un NOS, diferentes servicios de directorio necesitan tener un método común de nombrar y hacer referencia a los objetos. Sin estos estándares, cada aplicación tendría que usar su propio directorio, que requiere más espacio en disco. Además, los productos de un fabricante pueden no usar las bases de datos compiladas por los productos de otro fabricante. Sin estos estándares, sería imposible tener una estructura de directorio funcional. Los fabricantes de servicios de directorio que cumplen con los estándares diseñan sus servicios para que sean compatibles con un amplio rango de plataformas y con otros servicios de directorio.

X.500 X.500 define los estándares del Servicio de Directorio Electrónico (EDS). Los servicios de directorio descritos en X.500 están diseñados para trabajar en conjunción con servicios de mensajería X.400.

Un directorio que cumpla con X.500 tiene tres componentes principales:

Page 122: Documento de Apoyo No. 4 Cisco It Essentials II

122

· Agente del Sistema de Directorios (DSA) Administra los datos del directorio · Agente del Usuario del Directorio (DUA) Otorga a los usuarios acceso a servicios de

directorio · Base de Información de Directorio (DIB) Actúa como el almacén central de datos, o base de

datos, en la cual se guarda la información del directorio

Los estándares X.500 tratan cómo se almacena la información en el directorio y cómo los usuarios y sistemas informáticos acceden a esa información. La seguridad de los datos, el modelo de nombrado, y la replicación de datos del directorio entre servidores está todo definido en X.500.

Las especificaciones X.500 definen la estructura del directorio como un árbol invertido, y la base de datos es jerárquica. Un servicio de directorio que cumpla con X.500 usa el Protocolo de Acceso al Directorio (DAP), que se trata a continuación.

DAP y LDAP DAP permite que el DUA se comunique con el DSA. DAP define el medio mediante el cual el usuario puede buscar en el directorio para leer, agregar, borrar, y modificar entradas del directorio.

DAP es un protocolo potente, pero la sobrecarga asociada es alta. El Protocolo de Acceso al Directorio Liviano (LDAP) fue desarrollado como un subconjunto de DAP para simplificar el acceso a directorios tipo X.500. LDAP se ha convertido en un estándar popular porque integra directorios de diferentes fabricantes. LDAP está diseñado para usar menos recursos de sistema que DAP, y es más fácil de implementar. La versión actual de LDAP es LDAPv3.

LDAPv3 ofrece varias mejoras importantes sobre versiones anteriores de LDAP. La mejora a la seguridad es un foco principal de la nueva versión. LDAPv3 soporta cifrado Secure Sockets Layer (SSL) entre cliente y servidor y habilita la autenticación de certificados X.509.

LDAPv3 también habilita al servidor para que refiera al cliente LDAP a otro servidor si no es capaz de responder a la consulta del cliente. La Figura ilustra un ejemplo de un servicio de directorio DAP y LDAP típico.

5.3 Servicios de Directorio

5.3.3 Active Directory de Windows 2000

Con el lanzamiento de Windows 2000 Server, Microsoft hizo cambios fundamentales en sus componentes de networking que son incluso más drásticos que aquéllos efectuados por Novell en la transición de NetWare 3 a 4. El Active Directory es central a estos cambios. Donde el Novell NDS funciona como servicio que funciona con el NOS, el NOS, el Microsoft Active Directory funciona como

Page 123: Documento de Apoyo No. 4 Cisco It Essentials II

123

aplicación profundamente integrada al sistema operativo. Las siguientes secciones tratan la estructura de la base de datos Active Directory, integración de Active Directory, e información de Active Directory.

Estructura de la Base de Datos de Active Directory La información de Active Directory se almacena en tres archivos:

· Base de Datos de Active Directory · Archivos de Registro de Active Directory · Volumen de Sistema Compartido

La base de datos es el directorio. Los archivos de registro toman nota de los cambios efectuados en la base de datos. El Volumen de Sistema Compartido (llamado Sysvol) contiene scripts y objetos de política de grupo en los controladores de dominio de Windows 2000. La Política de Grupo es el medio por el cual los administradores de Windows 2000 controlan los escritorios de los usuarios, implementan aplicaciones automáticamente, y configuran los derechos de los usuarios.

Dominios de Windows 2000 La estructura lógica del Active Directory se basa en unidades llamados Dominios. Aunque se usa la misma terminología, los dominios en Windows 2000 funcionan de manera diferente a los de Windows NT. Tanto en Windows NT como en Windows 2000, un dominio representa un límite de seguridad y administrativo, así como una unidad de réplica. No obstante, Windows NT usa una estructura de dominio plana, y Windows 2000 dispone los dominios en árboles de dominio jerárquicos.

El concepto de árbol jerárquico funciona de manera diferente en Active Directory que en NDS. NDS no divide la red en dominios. Las redes Windows 2000 pueden tener múltiples dominios, organizados en árboles de dominio. Adicionalmente, a estos árboles pueden unírseles otros árboles para formar bosques. La Figura muestra una estructura de dominio de Windows 2000 con dos árboles de dominio (con los dominios raíz shinder.net y tacteam.net) unidos en un bosque. Un bosque es el término que usa Microsoft para llamar a una colección de los árboles de un dominio enteramente diferente que se incluyen en la estructura jerárquica de Active Directory.

Unidades de Organización (OUs) de Windows 2000 Active Directory, como NDS, usa Unidades de Organización (OUs) para organizar los recursos dentro de los dominios. La autoridad administrativa puede delegarse a OUs individuales. Por el contrario, el networking de NT permite la asignación de privilegios administrativos sólo al nivel del dominio.

Active Directory y DNS Active Directory usa convenciones de nombrado DNS y es dependiente de DNS para operar. Debe

Page 124: Documento de Apoyo No. 4 Cisco It Essentials II

124

haber un servidor DNS en cada red Windows 2000. Además, las actualizaciones de información de la zona DNS puede integrarse con la replicación de Active Directory, que es más eficiente que los métodos de actualización DNS tradicionales.

Windows 2000 soporta DNS Dinámico (DDNS), que permite la actualización automática de la base de datos DNS.

Servidores Active Directory Para usar Active Directory, al menos un servidor debe configurarse como Controlador de Dominio (DC). Se recomienda que haya al menos dos DCs en cada dominio, para tolerancia de fallos. Configurar el primer controlador de dominio en la red crea el directorio para ese dominio.

A diferencia de los servidores Windows NT, los Servidores Windows 2000 que ejecutan Active Directory, no tienen un controlador de dominio principal (PDC) o controlador de dominio de respaldo (BDC). En los dominios Windows NT, sólo el PDC contenía una copia completa de lectura/escritura del directorio de cuentas de usuario e información de seguridad. El PDC autenticaría los nombres de usuario y contraseñas cuando los miembros iniciaran sesión en la red. El BDC mantendría una copia de respaldo de sólo lectura del directorio master del PDC y por lo tanto cualquier cambio necesitaría efectuarse en el PDC. Los servidores Windows 2000 que ejecutan Active Directory toman el concepto de controlador de dominio de manera un tanto diferente. A diferencia de Windows NT Server, donde un PDC debe ser accesible para efectuar cambios en el directorio, Windows 2000 Server se basa en el modelo de replicación multimaster de Active Directory para actualizar todos los controladores de dominio dentro del Bosque cuando se hace un cambio en cualquier otro controlador de Dominio. No hay PDC o BDC. Todos los controladores de dominio son iguales. Todos los Controladores de Dominio contienen una copia de lectura/escritura de la partición del Active Directory. Esta información se mantiene actualizada y sincronizada mediante el proceso de replicación. Este proceso se trata en la siguiente sección de este capítulo.

Replicación del Active Directory Replicación es el proceso de copiar datos de una computadora a una o más computadoras y sincronizar esos datos para que sean idénticos en todos los sistemas.

Active Directory usa replicación multimaster para copiar información del directorio entre los controladores de dominio de un dominio. Pueden efectuarse cambios en cualquier controlador de dominio, y esos cambios luego se replican a los otros, excepto durante el desempeño de una operación de master único.

Los administradores de Windows 2000 pueden establecer políticas de replicación que determinen cuándo y cuán a menudo tiene lugar la replicación de directorios. Esto permite el uso óptimo del ancho de banda de la red. Controlar el cronograma de replicaciones es especialmente importante cuando los controladores de dominio están ubicados en lados opuestos de un vínculo lento, como un vínculo WAN de 56K.

Seguridad de Active Directory Cada objeto de Active Directory tiene una Lista de Control de Acceso (ACL) que contiene todos los permisos de acceso asociados con ese objeto. Los permisos pueden ser explícitamente permitidos o denegados, granularmente.

Existen dos tipos diferentes de permisos:

1. Permisos asignados Permisos explícitamente otorgados por un usuario autorizado. 2. Permisos heredados Permisos que se aplican a objetos hijos porque fueron heredados de un

objeto padre.

Los permisos pueden asignarse a un usuario individual o a un grupo de usuarios. Windows 2000 permite a los administradores controlar este proceso. Note el recuadro de verificación en la parte

Page 125: Documento de Apoyo No. 4 Cisco It Essentials II

125

inferior de la hoja de propiedades de seguridad del objeto en la Figura .

Compatibilidad de Active Directory Active Directory depende del sistema operativo y se ejecuta sólo en servidores Windows 2000. Puesto que Active Directorio es compatible con LDAP, puede accederse a los servicios y la información o intercambiarse con otros servicios de directorio LDAP. Microsoft también proporciona herramientas para migrar información desde otros directorios, como NDS, a Active Directory.

5.3 Servicios de Directorio

5.3.4 Servicio de Información de Red (NIS)

Linux usa su propia versión de Servicios de Directorio llamada Servicio de Información de Red (NIS). NIS proporciona un simple servicio de búsqueda que consiste en bases de datos y procesos. NIS es un servicio que proporciona la información requerida en todas las máquinas de la red. Hay soporte para NIS en la librería libc estándar de Linux, al que se denomina "NIS tradicional". NIS, a diferencia de Active Directory de Windows, puede instalarse por defecto cuando se instala el Sistema Operativo. No obstante, esta opción sólo está disponible en determinadas distribuciones. NIS es un Daemon al que hay que cargar después de instalado el sistema operativo. Configurar NIS en el sistema permitirá al Servidor Linux obtener información acerca de cuentas de usuario, cuentas de grupo, sistemas de archivos, y otras bases de datos ubicadas en otros servidores de toda la Red.

NIS funciona de manera muy similar para Linux, como NDS lo hace para Novell y Active Directory lo hace para Windows. Un sistema que usa NIS podrá acceder a los archivos y a información de cualquier sistema de la Red. Para establecer correctamente esta relación, NIS a menudo trabajará en conjunción con el Sistema de Archivos de Red (NFS). NFS ejecutado en Linux permite a un usuario montar sistemas de archivos que pueden ubicarse en cualquier servidor de la Red a un directorio local del usuario.

La Estructura de NIS En una configuración de NIS, la red consistirá en el servidor NIS, esclavos y clientes. El servidor NIS es donde la base de datos de NIS se crea y mantiene. Los esclavos NIS actúan igual que los servidores NDS actúan en Novell. Las bases de datos NIS se copian a todos los servidores esclavos NIS. Los esclavos son entonces capaces de proporcionar información de directorios NIS a los clientes, pero cualquier cambio efectuado a la base de datos debe llevarse a cabo en el servidor NIS. Los clientes NIS son los sistemas que solicitarán información sobre la base de datos de los servidores y esclavos. Los esclavos NIS llevan a cabo Equilibrio de la Carga para los servidores NIS. La Figura muestra un ejemplo de la disposición lógica de una topología NIS Linux.

Page 126: Documento de Apoyo No. 4 Cisco It Essentials II

126

Configuración de NIS en un Cliente Si un usuario está configurando NIS durante la instalación de Linux, entonces todo lo que se necesitará es seleccionar la opción cuando se presente. Luego el usuario tendrá que seleccionar el nombre de dominio de NIS así como la dirección IP del servidor NIS. Es importante notar que el nombre de dominio de NIS no es necesariamente el mismo que el nombre de dominio DNS. Para configurar NIS después de instalar Linux, el usuario usa la utilidad linuxconf para configurar un cliente NIS. La Figura

muestra un ejemplo de la utilidad linuxconf. En este punto, el usuario necesitará introducir el nombre de dominio NIS y la dirección IP del servidor NIS.

yppassword e ypinit El comando yppasswd cambia la contraseña de red asociada con el usuario username en la base de datos del Servicio de Información de Red (NIS+). yppasswd pide la antigua contraseña NIS, y luego la nueva. Se debe tipear la antigua contraseña correctamente para que el cambio tenga efecto. No se recomienda el uso de yppasswd, ya que ahora es sólo un vínculo al comando passwd, que es el que debería usarse en cambio. Usar passwd con la opción -r nis logrará los mismos resultados, y será consistente en todos los servcios de nombre diferentes disponibles. La contraseña de los Servicios de Información de Red (NIS) puede ser diferente de una de su propia máquina. En esta instancia se utilizaría el comando yppasswd en lugar del comando passwd. Los usuarios raíz de un servidor NIS pueden cambiar la contraseña de otro usuario sin conocer la contraseña original del usuario. Para ello, el usuario Raíz introduce su contraseña en lugar de la contraseña original del usuario. La yppasswd.

Page 127: Documento de Apoyo No. 4 Cisco It Essentials II

127

Tenga en cuenta que el daemon yppassword debe estar ejecutándose para que los usuarios puedan usar el comando yppasswd. El daemon yppasswdd es un servidor que recibe y ejecuta solicitudes de nuevas contraseñas del comando yppasswd. Estas solicitudes requieren el daemon para verificar la antigua contraseña del usuario y cambiarla. El daemon cambia la contraseña en el archivo que se especifica en el parámetro FileName, que tiene el mismo formato que el archivo /etc/passwd. Para hacer posible la actualización del mapa de contraseñas del Servicio de Información de Red (NIS) desde máquinas remotas, el daemon yppasswdd debe ejecutarse en el servidor master que contiene el mapa de contraseñas NIS. El daemon yppasswdd no se ejecuta por defecto, ni puede iniciarse desde el daemon inetd como otros daemons Llamada de Procedimiento Remoto (RPC). El daemon yppasswdd puede iniciarse y detenerse con los siguientes comandos Controlador de Recursos del Sistema (SRC):

· startsrc -s yppasswdd · stopsrc -s yppasswd

El comando ypinit configura mapas NIS en un servidor master de Servicios de Información de Red (NIS) o servidor esclavo NIS. Sólo los usuarios con autoridad de usuario raíz pueden usar el comando ypinit. La sintaxis de comandos para usar el comando ypinit es la siguiente:

· /usr/sbin/ypinit [ -o] [ -n ] [ -q] -m [ SlaveName ... ] · /usr/sbin/ypinit -s MasterName

El primer comando se usa para configurar NIS en un Servidor Master NIS y el segundo comando configurará NIS en un Servidor Esclavo NIS.

5.4 Otros Servicios de los NOS

5.4.1 Correo

El correo bien podría ser el más importante proceso de red de todos. El correo proporciona a los usuarios un mecanismo para enviar y recibir correo electrónico (e-mail). Los servicios de correo vienen en varias formas. A lo largo de los años, muchas compañías han desarrollado métodos propietarios de intercambiar e-mail. Hoy, virtualmente todos los servicios de correo se basan en TCP/IP o pueden al menos actuar como gateway entre los servicios de correo propietarios y TCP/IP. La Figura representa cómo un cliente puede enviar correo a otro a través de Internet usando servicios TCP/IP.

Es un error pensar que el correo se envía de la computadora de un usuario directamente a otra. Aunque este caso es posible, sólo puede ocurrir si ambas PCs están actuando como servidores de correo. La mayor parte del tiempo, el correo del emisor se envía a un servidor de correo que pertenece a su ISP o a su empleador, no directamente al destino. El servidor de correo luego envía el correo (de ser necesario) a un servidor usado por el destinatario.

Page 128: Documento de Apoyo No. 4 Cisco It Essentials II

128

Por ejemplo, María tipea un e-mail a [email protected]. El programa de correo de María envía el correo a un servidor de correo usado por María. Se trata en general de un servidor de correo ejecutado por el ISP de María o su compañía. El servidor de correo intenta entonces enviar el mensaje a un servidor de correo usado por John. El servidor de correo de María usa la información que se encuentra después del símbolo @ de la dirección de John para determinar dónde enviar el mensaje. En este caso, el servidor de María busca servidores de correo que manejen correo para foo.com. Una vez que el mensaje llega al servidor de correo de foo.com, espera ahí hasta que el programa de e-mail de John lo recupera.

Los servicios de correo están compuestos por una combinación de los siguientes componentes:

· Mail Transfer Agent (MTA) · Mail User Agent (MUA) · Mail Delivery Agent (MDA)

Sendmail es el nombre del MTA más popular usado en servidores UNIX y Linux. Sendmail se basa en el Protocolo de Transferencia de Mail Simple (SMTP) para recibir correo de clientes y enviar correo a otros servidores de correo. SMTP es parte de la suite de protocolos TCP/IP.

Clientes de correo populares (MUAs) incluyen a Microsoft Outlook, Eudora, y Pine. Los MUAs pueden componer y enviar correo a los MTAs, como Sendmail. Los clientes de correo envían correo a servidores usando SMTP.

Un MDA es un programa que es responsable de enrutar correo recibido a las bandejas de correo apropiadas en el servidor de correo. Algunos MDAs incluyen funciones de seguridad y filtros que pueden evitar la dispersión de virus de e-mail.

El e-mail no se lee usualmente cuando un usuario ha iniciado sesión a una cuenta de shell en el servidor de correo. En cambio, se usa software para recuperar el correo de una bandeja de correo, que reside en el servidor. Para recuperar correo de un servidor de correo, los clientes de correo remotos usan dos protocolos comunes:

· Post Office Protocol versión 3 (POP3) · Internet Message Access Protocol (IMAP)

Post Office Protocol versión 3 (POP3) Un protocolo simple usado por los clientes de correo para autenticar servidores de correo y recuperar correo. POP3 no cifra nombres de usuario ni contraseñas, por lo cual puede ser un riesgo de seguridad en algunas LANs.

Internet Message Access Protocol (IMAP) Un protocolo complejo que normalmente resulta en una más alta sobrecarga del servidor que POP3. IMAP puede cifrar contraseñas y tiene otras funciones. Las implementaciones de IMAP están generalmente diseñadas para almacenar e-mail en el servidor de correo y permitir a los usuarios acceder desde varios clientes.

Al implementar servicios de correo, recuerde que los clientes envían correo a los servidores usando SMTP y recuperar correo de los servidores usando POP3 o IMAP.

Además, muchos servidores de correo incluyen otras funciones, incluyendo soporte para otras actividades:

· Protocolo de Acceso a Directorio Liviano (LDAP) proporciona libreta de direcciones corporativa compartida

· Programas de interfaz de web que permiten a los clientes leer y componer correo usando un navegador web

Page 129: Documento de Apoyo No. 4 Cisco It Essentials II

129

No es necesario que cada NOS de una red ejecute el servicio de correo. En general, solamente un servidor de una red es necesario para llevar a cabo deberes relacionados con el e-mail para todos los usuarios. Este servidor ejecuta el servicio de correo en todo momento, y los usuarios se conectan al servidor cuando envían y leen e-mail. La Figura es una actividad de arrastrar y colocar sobre agentes de correo comunes.

5.4 Otros Servicios de los NOS

5.4.2 Impresión

Aunque el mundo se dirige rápidamente a una era electrónica, aún existe necesidad de impresiones físicas de datos. En redes grandes y en algunas pequeñas, es impráctico proporcionar una impresora a cada estación de trabajo. La solución es proporcionar impresoras en red para soportar a todos los usuarios dentro de una locación física. Por esta razón, los administradores de red usan servicios de impresión para ayudar a administrar estas impresoras de red y sus respectivas colas de impresión.

Cuando un usuario decide imprimir en un entorno de impresión en red, el trabajo se envía a la cola apropiada para la impresora seleccionada. Las colas de impresión "apilan" los trabajos de impresión entrantes y los sirven usando un orden "Primero en Entrar, Primero en Salir" (FIFO). Es decir, cuando un trabajo se agrega a la cola, se lo coloca al final de la lista de trabajos en espera y se lo imprime después de todos los trabajos anteriores a él. La espera para un trabajo de impresión en ocasiones puede ser larga, dependiendo del tamaño de los trabajos de impresión introducidos en la cola antes que él. De esta manera, un servicio de impresión en red proporcionará a los administradores del sistema las herramientas necesarias para administrar la gran cantidad de trabajos de impresión que se enrutan a lo largo de toda la red. Esto incluye la capacidad de priorizar, hacer pausa, e incluso borrar trabajos de impresión que están esperando para ser impresos. Los servicios de impresión usualmente se confinan a un entorno de intranet local por razones de mantenimiento y capacidad administrativa. La Figura muestra un ejemplo del administrador de trabajos de impresión para Windows 2000.

Page 130: Documento de Apoyo No. 4 Cisco It Essentials II

130

5.4 Otros Servicios de los NOS

5.4.3 Archivos compartidos

La capacidad de compartir archivos mediante una red es un importante servicio de red. Existen muchos protocolos y aplicaciones para compartir archivos en uso hoy. Dentro de una red corporativa u hogareña, los archivos en general se comparten usando Windows File Sharing o el protocolo Network File Sharing (NFS). En tales entornos, un usuario final puede ni siquiera saber si un determinado archivo se encuentra en el disco rígido local o en un servidor remoto. Windows File Sharing y NFS permiten a los usuarios mover, crear, y borrar archivos fácilmente en directorios remotos.

En contraste a compartir archivos dentro de una red en el hogar o la oficina, compartir archivos en Internet se efectúa a menudo usando el Protocolo de Transferencia de Archivos (FTP). FTP es un protocolo cliente-servidor que requiere que los clientes inicien sesión antes de transferir archivos. Los archivos siempre están disponibles con Windows File Sharing y NFS pero las sesiones FTP se efectúan solamente en la duración de la transferencia de archivos. La mayoría de los NOSs con capacidad TCP/IP incluyen servicios FTP, aunque los comandos soportados por cada NOS pueden variar levemente.

Hoy, muchos usuarios finales comparten archivos usando protocolos peer-to-peer por Internet. Gnutella es un ejemplo de protocolo de networking peer-to-peer. Los protocolos peer-to-peer funcionan sin un servidor central. Cada host que participa en la red peer-to-peer es considerado el igual del resto de los hosts. El networking peer-to-peer es popular entre los usuarios hogareños, pero aún tiene que implementarse la tecnología como solución de negocio difundida. Las redes peer-to-peer a menudo se basan en protocolos TCP/IP comunes para compartir archivos. Por ejemplo, los peers Gnutella usan HTTP para descargar archivos de un peer a otro. La Figura muestra un ejemplo de un dominio con los directorios y archivos compartidos a los que puede accederse mediante una conexión peer-to-peer.

5.4 Otros Servicios de los NOS

5.4.4 FTP (Transferencia de Archivos)

Muchas organizaciones hacen disponibles archivos a empleados remotos, clientes y al público en general mediante el Protocolo de Transferencia de Archivos (FTP). Los servicios FTP se hacen disponibles al público en conjunción con los servicios web. Por ejemplo, un usuario puede navegar por un sitio web, leer acerca de una actualización de software en una página web, y después descargar la actualización usando FTP. Compañías más pequeñas pueden usar un único servidor para proporcionar servicios FTP y HTTP, mientras que compañías más grandes pueden elegir usar servidores FTP

Page 131: Documento de Apoyo No. 4 Cisco It Essentials II

131

dedicados. La Figura muestra un programa FTP típico, que puede usarse para descargar archivos desde un servidor remoto.

Aunque los clientes FTP deben iniciar sesión, muchos servidores FTP se configuran para permitir un acceso anónimo. Cuando los usuarios acceden a un servidor anónimamente, no necesitan tener una cuenta de usuario en el sistema. El protocolo FTP también permite a los usuarios cargar, renombrar, y borrar archivos, por lo cual los administradores deben tener cuidado al configurar un servidor FTP de controlar niveles de acceso.

FTP es un protocolo orientado a la sesión. Los clientes deben abrir una sesión con el servidor, autenticarse, y después llevar a cabo una acción como descargar o cargar. Si la sesión del cliente está inactiva durante un cierto tiempo, el servidor desconecta al cliente. Este periodo inactivo se denomina tiempo vencido por inactividad. La longitud de un tiempo vencido por inactividad FTP varía dependiendo del software.

Las conexiones FTP se establecen mediante programas GUI o usando el siguiente comando CLI estándar:

ftp nombre_host o dirección_IP

Ejemplos incluyen las siguientes situaciones:

ftp computadora.compañía.com o ftp 123.45.67.90

Los servicios FTP en general no son habilitados por defecto en los NOSs. Esto se hace para evitar que los administradores inadvertidamente hagan disponibles para la descarga archivos restringidos. Además, los programas de servidor FTP han sido históricamente un blanco de los DoS y otros ataques maliciosos. Los atacantes que intentan evitar que usuarios legítimos obtengan acceso a un servicio, como un servicio FTP, caracterizan un ataque DoS. Ejemplos incluyen a:

· Intentos de inundar una red evitando el tráfico legítimo de la red · Intentos de perturbar las conexiones entre dos máquinas evitando el acceso a un servicio · Intentos de evitar a un individuo en particular el acceso a un servicio · Intentos de perturbar el servicio para un sistema o usuario específico

Page 132: Documento de Apoyo No. 4 Cisco It Essentials II

132

Un administrador de red deberá estar preparado para monitorear este tipo de actividad antes de implementar un servicio FTP de alto perfil. La Figura muestra comandos FTP comunes.

Los Capítulos 9 y 10 describirán específicamente cómo configurar servicios FTP en Red Hat Linux 7 y Windows 2000.

5.4 Otros Servicios de los NOS

5.4.5 Servicios web

La World Wide Web es ahora el servicio de red más visible. En menos de una década, la World Wide Web se ha convertido en una red global de información, comercio, educación y entretenimiento. La Figura muestra un gráfico que representa el crecimiento exponencial de Internet. Millones de compañías, organizaciones, e individuos mantienen sitios web en Internet. Los sitios web son colecciones de páginas web almacenadas en un servidor o en un grupo de servidores.

La World Wide Web se basa en un modelo cliente-servidor. Los clientes intentan establecer sesiones TCP con servidores web. Una vez establecida una sesión, un cliente puede solicitar datos al servidor. El Protocolo de Transferencia de Hipertexto (HTTP) gobierna en general las solicitudes de los clientes y las transferencias de los servidores. Software cliente web incluye navegadores web GUI, como Netscape Navigator e Internet Explorer. La Figura muestra un ejemplo del navegador web Windows Explorer. Los clientes web también pueden ser navegadores de texto. Un navegador de texto puede mostrar una red usando caracteres tipográficos, pero no gráficos. Ejemplos de navegadores de texto incluyen a Lynx (usado en sistemas UNIX/Linux) y navegadores web inalámbricos (en teléfonos celulares).

Page 133: Documento de Apoyo No. 4 Cisco It Essentials II

133

A principios de los '90, HTTP se usaba para transferir páginas estáticas compuestas de texto e imágenes simples. Estas primeras páginas web estaban escritas casi exclusivamente usando HyperText Markup Language (HTML). A medida que se desarrolló la World Wide Web, el rol de HTTP se ha expandido. Los sitios web ahora usan HTTP para entregar contenido dinámico y transferir archivos. Protocolo de Transferencia de Hipertexto Seguro (HTTPS) es una extensión del protocolo HTTP que se usa para soportar datos enviados seguramente por Internet. HTTPS está diseñado para enviar mensajes individuales con seguridad. Un ejemplo de Aplicación Web que podría usar HTTPS es un banco que tiene sitios web para sus clientes que les permite llevar a cabo transacciones financieras.

Las páginas web se hospedan en computadoras que ejecutan software de servicio web. Los dos paquetes de software de servidor web más comunes son Microsoft Internet Information Services (IIS) y Apache Web Server. Microsoft IIS sólo puede ejecutarse en una plataforma Windows, mientras que Apache Web Server se usa en general en plataformas UNIX y Linux. Existen docenas de otros programas de servidor web. Existe algún tipo de servicio web disponibles para virtualmente todos los sistemas operativos actualmente en producción.

El uso más obvio de los servicios web es comunicarse usando Internet. Las compañías publicitan y venden sus productos usando sitios web, las organizaciones hacen disponible información, y las familias colocan fotos y diarios online para compartir con amigos. No obstante, los servicios web también se usan en redes públicas o privadas para implementar aplicaciones de computadoras, colaborar en proyectos, y administrar sistemas remotos. Las siguientes secciones tratan redes World Wide Web privadas, llamadas Intranets, así como la administración remota basada en la web. La Figura muestra un ejemplo del navegador web Netscape Navigator.

Page 134: Documento de Apoyo No. 4 Cisco It Essentials II

134

5.4 Otros Servicios de los NOS

5.4.6 Intranet

Los servicios web juegan un rol significativo en redes privadas y corporativas. Una organización puede implementar una red World Wide Web privada con una variedad de propósitos:

· Información interna, memorandos, e informes · Directorios de personal y empleados · Calendarios y cronogramas de citas · Implementación de aplicaciones y software · Información sobre nómina de pagos · Servicios a los empleados · Herramientas colaborativas

Los servicios web juegan un rol significativo en redes privadas y corporativas. Una organización puede implementar una red World Wide Web privada con una variedad de propósitos:

· Información interna, memorandos, e informes · Directorios de personal y empleados · Calendarios y cronogramas de citas · Implementación de aplicaciones y software · Información sobre nómina de pagos · Servicios a los empleados · Herramientas colaborativas

Las organizaciones en general no desean que tal información y servicios se hagan públicos en Internet. En cambio, las organizaciones construyen servidores web para crear una intranet privada. El prefijo en latín "inter" significa "entre", y así puede considerarse que la palabra Internet significa literalmente "entre redes". Este significado literal tiene sentido, ya que Internet proporciona una forma de interconectar diferentes redes de computadoras de todo el mundo. La Figura proporciona un ejemplo de representación lógica de una Intranet. Existen varias redes ubicadas en todo el mundo que están conectadas y usan su propia Intranet para intercambiar información y mostrar páginas web, que es una alternativa mucho más segura a mostrarlas en la Internet externa. El prefijo en latín "intra" significa "dentro", por lo tanto una intranet es una red dentro de alguna frontera o límite.

Las intranets usan la misma tecnología usada por Internet, incluyendo HTTP sobre TCP/IP, servidores

Page 135: Documento de Apoyo No. 4 Cisco It Essentials II

135

web y clientes web. La diferencia entre una intranet e Internet es que las intranets no permiten el acceso público a servidores privados.

Una forma de construir intranets es configurarlas para que sólo los usuarios en el sitio puedan acceder a los servidores de intranet. Esto se logra en general usando un firewall Internet.

No obstante, puesto que muchos empleados trabajan en su casa o de viaje, las organizaciones han hallado formas de extender las intranets más allá de las fronteras geográficas del edificio o campus de la oficina. Este tipo de intranet, que permite a los usuarios de afuera conectarse a los servidores web privados, a veces se llama Extranet.

Las extranets se configuran para permitir a los empleados y clientes acceder a la red privada por Internet. Para evitar un acceso no autorizado a la red privada, los diseñadores de la extranet deben usar una tecnología tal como un networking privado virtual. La Figura proporciona un ejemplo de representación lógica de cómo se establece un Túnel Virtual mediante Internet para proporcionar una conexión remota segura a la red interna de una compañía. Una red privada virtual (VPN) hace posible para los empleados usar un cliente web conectado a Internet para acceder a la red privada de manera segura. Las VPNs se basan en software de cifrado, nombres de usuario, y contraseñas para asegurar que la comunicación tenga lugar privadamente, y sólo entre usuarios autorizados. La Figura ilustra cómo una VPN también puede usarse como un medio seguro de transferir datos de manera segura a otra sucursal remota usando Internet como medio de transporte.

5.4 Otros Servicios de los NOS

5.4.7 Extranet

Las extranets son una tecnología emergente que muchas de las más grandes corporaciones del mundo están comenzando a construir. Proporcionan un medio de incluir al mundo exterior, como clientes y proveedores, así como un medio de obtener valiosa investigación del mercado. Por ejemplo, una intranet de una compañía puede estar vinculada a su sitio web externo (o extranet). Esto les puede permitir obtener información acerca de un cliente que navega por su sitio web. La información incluiría dónde están mirando en el sitio, qué productos toman como muestra, qué procesos producen solicitudes de soporte técnico, o qué repuestos están comprando. Las extranets son intranets llevadas al siguiente paso. Una intranet abarca la compañía, mientras que la extranet puede abarcar el mundo. Las extranets pueden particionar y separar datos de la compañía contenidos en la intranet de la compañía de los servicios web ofrecidos al mundo mediante Internet. Unas pocas ventajas de una extranet para una compañía podría ser el e-mail y los programas compartidos. Puede extender las capacidades de la compañía para proporcionar soporte al cliente, así como e-commerce y ventas online. Uno de los peligros obvios de las extranets es la seguridad, no obstante es posible proporcionar seguridad con firewalls y contraseñas cifradas. Esto no garantiza que una extranet sea segura. La Figura delinea algunos de los diversos tipos de redes que han sido tratados.

Page 136: Documento de Apoyo No. 4 Cisco It Essentials II

136

5.4 Otros Servicios de los NOS

5.4.8 Tareas automatizadas con servicios de scripts

El software NOS moderno proporciona a los administradores de sistemas y usuarios muchas herramientas incorporadas y funciones automatizadas para incrementar la productividad. A veces estas funciones y comandos no son suficientes para llevar a cabo ciertas tareas eficientemente. Por esta razón, la mayoría de los NOSs incluyen soporte para "scripts". Un script es un programa de texto simple que permite al usuario llevar a cabo muchas tareas automatizadas a la vez. Dependiendo de su diseño, los scripts pueden ir desde líneas únicas de código a largas cantidades de lógica de programación.

Se considera que los scripts son mucho más simples que los programas y aplicaciones estándar que se encuentran en un NOS. El sistema operativo procesa secuencialmente las líneas de código de un archivo script cada vez que se ejecuta el archivo. La mayoría de los scripts están diseñados para ejecutarse desde la parte superior del archivo hasta la inferior sin requerir ninguna entrada del usuario. Este proceso es bastante diferente a los programas regulares, donde las líneas de código se compilan en archivos ejecutables, y la interacción del usuario típicamente juega un rol fundamental. No obstante, el usuario o administrador de sistemas promedio no tiene tiempo de desarrollar aplicaciones tan complejas y a menudo no tiene necesidad de la potencia de programación adicional que proporcionan. Los scripts proporcionan un buen terreno medio, ofreciendo la capacidad de usar lógica de programación estándar para ejecutar tareas simples y no interactivas.

Existen muchos lenguajes de scripting diferentes, y cada uno ofrece sus propias ventajas al usuario:

· Visual Basic script (VBScript) Un lenguaje de scripting de Microsoft muy popular basado en el lenguaje de programación Visual Basic. VBScript se considera fácil de aprender y es ampliamente usado en Windows 2000.

· JavaScript Otro lenguaje de scripting popular basado en el lenguaje de programación Java. JavaScript se usa más a menudo en páginas web, permitiendo a un navegador web ejecutar el script y proporcionar a los usuarios de la web más funcionalidades.

· Linux shell scripting Específico del NOS Linux, estos scripts de shell consisten en muchos comandos Linux y lógica de programación para llevar a cabo una serie de comandos a la vez.

· Perl, PHP, TCL, REXX, y Python Existen muchos otros lenguajes de scripting con varios grados de dificultad y propósitos. La mayoría de los usuarios no son expertos en tales lenguajes y en cambio se concentran en aprender sólo aquéllos que mejor sirven a sus necesidades.

Aunque difieran en funcionalidad y sintaxis, estos lenguajes de scripting proporcionan a los usuarios las herramientas necesarias para personalizar el NOS. Los NOSs ahora soportan típicamente varios de estos diferentes lenguajes de scripting y proporcionan a los usuarios flexibilidad para determinar qué lenguaje de scripting implementar.

Soluciones en Script La mayoría de los usuarios de NOS promedio no crearán ni ejecutarán sus propios scripts. La mayor

Page 137: Documento de Apoyo No. 4 Cisco It Essentials II

137

parte del scripting es llevado a cabo por administradores de sistemas y usuarios experimentados que se sienten cómodos con los conceptos de programación. Tienden a construir tales scripts con el propósito de automatizar tareas específicas mediante la ejecución de un único archivo script. Estos archivos script pueden luego programarse para que se ejecuten a una hora determinada, cuando ocurre un evento, o para ser ejecutados manualmente por el usuario. Los siguientes ejemplos demuestran casos comunes donde los scripts son una solución apropiada:

· Iniciar sesión en el NOS Un administrador de sistemas puede usar scripts para efectuar tareas adicionales cuando los usuarios inician sesión en la red. Éstas incluyen configuraciones por defecto, inicialización de servicios, y conexión a otra unidades de red, dispositivos e impresoras.

· Imprimir mensajes en la pantalla A menudo se crean scripts personalizados que muestran mensajes a los usuarios de una red. Estos mensajes típicamente notifican a los usuarios de eventos tales como la llegada de nuevo correo, el estado de un trabajo de impresión, o el apagado de un servidor de red.

· Instalar software Un proceso común de instalación de software requiere administradores de sistema que seleccionen y confirmen muchas opciones. Pueden crearse scripts para automatizar este proceso y reducir la cantidad de tiempo necesario para instalar el software en incontables PCs a lo largo de una red.

· Automatizar comandos complicados Algunas tareas muchas veces involucran una serie de comandos complicados que debe repetirse muy a menudo. Para simplificar este proceso, se crean scripts que contienen todos estos comandos, permitiendo así al usuario ejecutar sólo el archivo script y llevar a cabo todas las tareas automáticamente.

Escribir un script en Windows 2000 y Linux se tratará en el Capítulo 10. La Figura delinea algunos de los más importantes lenguajes de programación que se usan en algunos de los sistemas operativos más importantes tratados en este curso.

5.4 Otros Servicios de los NOS

5.4.9 Servicio de Nombre de Dominio (DNS)

El protocolo Servicio de Nombre de Dominio (DNS) traduce un nombre de Internet (como www.cisco.com, por ejemplo) a dirección IP. Muchas aplicaciones se basan en los servicios de directorio proporcionados por DNS para hacer su trabajo. Los navegadores web, programas de e-mail, y programas de transferencia de archivos usan todos ellos los nombres de sistemas remotos. El protocolo DNS permite a estos clientes hacer solicitudes a servidores DNS en la red para la traducción de nombres a direcciones IP. (Ver Figura ). Las aplicaciones pueden luego usar las direcciones para enviar sus mensajes. Sin este servicio de búsqueda de directorio, Internet sería casi imposible de usar.

Page 138: Documento de Apoyo No. 4 Cisco It Essentials II

138

Nombres de host Los nombres de host y los servicios DNS que los sistemas informáticos ejecutan están todos relacionados. El nombre de Internet que el DNS resuelve a la dirección IP también se denomina nombre de host. Para los sistemas informáticos es más fácil trabajar con números, por lo que las computadoras pueden muy fácil y rápidamente distinguir entre diferentes computadoras y localizar diferentes computadoras usando una dirección IP binaria. Es un proceso mucho más difícil para los seres humanos poder hacer esto. Ésta es la razón por la cual los nombres de host se resuelven a direcciones IP mediante los servicios DNS. Por ejemplo, si a un usuario se le dieran dos direcciones IP para dos computadoras, como 192.168.1.5 y 168.5.59.7, sería difícil distinguir a qué sistema informático representaran estas direcciones IP. Especialmente si los servicios DHCP estuvieran habilitados lo que significa que la dirección IP podría cambiar por momentos. Sería imposible para un administrador de sistema o los usuarios finales mantener el rastro. Por otro lado, si el administrador del sistema o los usuarios finales pudieran encontrar esta computadora usando un nombre de host como fileserver_A o fileserver_B por ejemplo, el usuario podría distinguir muy fácil y rápidamente entre sistemas informáticos. Los nombres de host también hacen fácil el localizar sistemas específicos como servidores web o servidores FTP en Internet porque es mucho más fácil recordar un nombre que una dirección IP.

Existen unas pocas reglas que es importante conocer respecto a los nombres de host. Los nombres de host se componen de dos partes, de manera similar a como una dirección IP se compone de dos partes. La primera parte del nombre de host se llama Nombre de la Máquina y la segunda parte se llama Nombre de Dominio. El nombre de la máquina se refiere a la computadora real mientras que el nombre de dominio se refiere a la colección de computadoras a la cual pertenece la computadora específica. Los nombres de dominio son únicos y son nombres registrados para su uso por parte de individuos, pequeños negocios y corporaciones, que pueden asignar los nombres de máquina a sistemas dentro del dominio y vincular esos nombres de máquina a direcciones IP.

Para comprender cómo funciona este proceso entre nombres de máquina y nombres de dominio, es necesario comprender la estructura jerárquica de los dominios de Internet. La estructura está compuesta de Dominios de Nivel Superior (TLDs), que se consideran la parte superior del "árbol-dominio". Ejemplos de TLDs son cosas como .com, .edu, .gov, o .mil, por ejemplo. Los usuarios estarán probablemente familiarizados con estos nombres si alguna vez han estado en Internet. Dentro de cada TLD hay diversos nombres de dominio registrados que representan a individuos específicos, pequeños negocios, corporaciones y organizaciones como cisco.com o linux.com por ejemplo. Estos dominios aún se dividen en subdominios más pequeños dentro del dominio como SanJose.Cisco.com o Phoenix.Cisco.com por ejemplo. La estructura de dominio y subdominio representa agrupaciones lógicas de computadoras dentro de las compañías u organizaciones. Incluso los subdominios pueden dividirse en subdominios más pequeños.

Page 139: Documento de Apoyo No. 4 Cisco It Essentials II

139

Los nombres de host usualmente son asignados por administradores de sistema o tendrán convenciones de nombrado especificadas que se usan para identificar las computadoras según quién las usa, para qué se las usa, o en qué departamento se encuentran. El administrador del sistema usualmente hace esta convención de nombrado de modo tal que cada computadora del dominio pueda ser fácilmente identificada. Por esta razón es muy raro que cualquier computadora de una red que es parte del dominio tenga sus nombres de host configurados por el usuario. Existen algunas instancias que, si se está usando DHCP, los nombres de host pueden asignarse automáticamente. No obstante, estos no se hace por lo general ya que los nombres de host son usualmente controlados por el administrador del sistema y deben configurarse manualmente.

Configuración de Servicios DNS Básicos para Linux Tratar todo lo involucrado en configurar su sistema Linux como servidor DNS iría más allá del alcance de este curso. Esta sección tratará en cambio algunos de los archivos y pasos básicos involucrados en la configuración de servicios DNS.

Según se explicó al principio de la sección, el Sistema de Nombres de Dominio (DNS) es la forma en la cual una dirección IP se resuelve a un URL o nombre de dominio como www.google.com para asignar un nombre fácilmente localizado, administrado y recordado a una dirección IP arbitrariamente numérica.

BIND es una sigla para el proyecto "Berkeley Internet Name Domain" que mantiene a la suite de software relacionada con DNS que se ejecuta bajo Linux. El programa mejor conocido en BIND es "named", el daemon que responde a las consultas DNS desde máquinas remotas. Una vez que BIND ha sido instalado, la primera cosa que hacer sería iniciar el BIND de la siguiente manera:

# /etc/init.d/named start

Para configurar BIND para que se inicie automáticamente cuando el servidor arranca use el siguiente comando:

# chkconfig --level 35 named on

El archivo /etc/resolv.conf es usado por clientes DNS (servidores que no ejecutan BIND) para determinar tanto la ubicación de su servidor DNS como los dominios a los cuales pertenecen. En general tiene dos columnas, la primera contiene una palabra clave y la segunda contiene el o los valor(es) deseado(s) separados por comas. Una lista de las palabras clave se muestra en la Figura .

La configuración DNS principal se guarda en el archivo /etc/named.conf que se usa para decirle a

Page 140: Documento de Apoyo No. 4 Cisco It Essentials II

140

BIND dónde encontrar los archivos de configuración para cada dominio que posee. Por lo general hay dos zonas en este archivo:

· Definiciones del archivo de la zona hacia delante que enumera los archivos para mapear dominios a direcciones IP

· Definiciones del archivo de la zona en reversa que enumera los archivos para mapear direcciones IP a dominios

El archivo /etc/hosts enumera el nombre y la dirección IP de los hosts locales. Su servidor en general verificará este archivo antes de hacer referencia a DNS, si el nombre se encuentra entonces DNS no será consultado. Desgraciadamente, si la dirección IP de ese host cambia, tendrá que actualizarse el archivo. Para que sea fácil la administración, lo mejor es limitar las entradas en este archivo sólo a la interfaz loopback, y también al nombre de host local. El archivo /etc/hosts tiene el siguiente formato:

dirección-ip nombre-dominio-totalmente-calificado alias1 alias2 alias3 etc

dig La utilidad dig (buscador de información de dominio) es una flexible herramienta para interrogar servidores de nombre DNS. Lleva a cabo búsquedas DNS y muestra las respuestas que son devueltas por el o los servidor(es) de nombre que fueron consultado(s). La mayoría de los administradores de DNS usan dig para detectar y solucionar problemas de DNS a causa de su flexibilidad, facilidad de uso y claridad de resultados. Otras herramientas de búsquedas tienden a tener menos funcionalidad que dig. A menos que se le indique que consulte un servidor de nombre específico, dig probará cada uno de los servidores enumerados en /etc/resolv.conf.

Un ejemplo del uso del comando dig es el que sigue:

# dig servidor nombre tipo

· servidor El nombre o dirección IP del servidor de nombre a consultar. Ésta puede ser una dirección IPv4 en notación decimal de punto o una dirección IPv6 en notación delimitada por dos puntos. Cuando el argumento del servidor proporcionado es un nombre de host, dig resuelve ese nombre antes de consultar al servidor de nombre. Si no se proporciona ningún argumento de servidor, dig consulta /etc/resolv.conf y consulta los servidores de nombre enumerados ahí. La respuesta del servidor de nombre se muestra.

· nombre El nombre del registro de recursos donde hay que buscar. · tipo Indica qué tipo de consulta se requiere - ANY, A, MX, SIG, etc. tipo puede ser cualquier

tipo de consulta válido. Si no se proporciona ningún argumento tipo, dig llevará a cabo una búsqueda de un registro A.

5.4 Otros Servicios de los NOS

5.4.10 DHCP

El propósito del Protocolo de Configuración Dinámica del Host (DHCP) es habilitar computadoras individuales en una red IP para extraer sus configuraciones del servidor o los servidores DHCP. Estos servidores DHCP no tienen información exacta acerca de las computadoras individuales hasta que no se solicita información. El propósito general de esto es reducir el trabajo necesario para administrar una red IP grande. La más significativa pieza de información distribuida de esta manera es la dirección IP que identifica al host en la red. DHCP también permite la recuperación y la capacidad de renovar automáticamente las direcciones IP de red mediante un mecanismo de préstamo. Este mecanismo adjudica una dirección IP para un periodo específico, la libera y luego asigna una nueva dirección IP. DHCP permite que todo esto lo haga un servidor DHCP que ahorra al administrador del sistema considerables cantidades de tiempo.

Page 141: Documento de Apoyo No. 4 Cisco It Essentials II

141

Linux tiene la capacidad de usar cualquiera de tres clientes DHCP, pump, dhclient o dhcpd. No todas las distribuciones de Linux contendrán a los tres. Algunas tendrán los tres, algunas solamente dos, y otras solamente uno. No obstante, todas las distribuciones tienen un cliente DHCP por defecto que se usa, si el usuario eligió la opción de usar DHCP durante el proceso de instalación. Las distribuciones que vienen con varios clientes DHCP permiten intercambiarlos quitando el viejo paquete y simplemente instalando el nuevo.

El cliente DHCP Linux inicia cuando se arranca el sistema. La información de configuración se almacena en un archivo de inicio llamado Network o Networking. En este archivo se ubica una línea de texto que indicó si ejecutar o no el cliente DHCP. La línea de texto puede verse a continuación:

BOOTPROTO="dhcp"

La distribución Red Hat de Linux almacena esta información en el archivo /etc/sysconfig/network-scripts/ifcfg-eth0. Borrando el "dhcp" en la línea de texto de más arriba, se detendrán los servicios DHCP.

Configuración de Servicios DHCP Básicos para Linux Tratar todo lo involucrado en configurar su sistema Linux como servidor DHCP iría más allá del alcance de este curso. Esta sección tratará en cambio algunos de los archivos y pasos básicos involucrados en la configuración de los servicios DHCP.

Cuando DHCP inicia, lee el archivo /etc/dhcp.conf. Usa los comandos que hay aquí para configurar su red. Normalmente puede encontrarse una copia de muestra de dhcpd.conf en el siguiente directorio que siempre puede usarse como guía.

/usr/share/doc/dhcp- <número-versión> /dhcpd.conf

Antes de iniciar el servidor DHCP por primera vez, fallará a menos que haya un archivo dhcpd.leases existente. Use el siguiente comando para crear el archivo si no existe.

# touch /var/lib/dhcp/dhcpd. leases

Una vez que el daemon DHCP se ha instalado, lo primero que hacer sería iniciar DHCP de la siguiente manera:

# /etc/init.d/dhcpd start

Page 142: Documento de Apoyo No. 4 Cisco It Essentials II

142

Para configurar dhcpd para que inicie automáticamente cuando el servidor arranca, use el siguiente comando:

# chkconfig --level 35 dhcpd on

5.4 Otros Servicios de los NOS

5.4.11 Dominios

Un dominio es una agrupación lógica de computadoras en red que comparten un directorio o base de datos central. El directorio o base de datos se instala en computadoras llamadas Servidores. Un servidor usualmente administra todas las interacciones entre dominios relacionadas con la seguridad y con los usuarios. También proporciona un lugar centralizado desde el cual administrar estos servicios.

El concepto de dominio no incluye simplemente computadoras que están unas junto a otras, o en una locación específica, o incluso en la misma LAN, aunque puede. También puede incluir computadoras y servidores ubicados en diferentes locaciones en el mundo que pueden comunicarse entre sí con diversos tipos de conexiones para mantener una base de datos sincronizada. La idea de dominio no es física, sino más bien una agrupación lógica de computadoras y servidores de la compañía (ver Figura

). Los dominios tienen varias ventajas:

· Administración centralizada ya que toda la información de los usuarios se almacena centralmente.

· Un único proceso de inicio de sesión que habilita a los usuarios a acceder a recursos de la red, como recursos de archivos, impresión y aplicaciones así como especificar permisos que controlen quién puede y quién no puede acceder a estos servicios.

· Un dominio proporciona la capacidad de expandir una red hasta tamaños extremadamente grandes en cada rincón del mundo.

Resumen

Este capítulo trató los servicios de red. Algunos de los conceptos importantes a retener de él son los siguientes:

· La administración remota permite a un administrador acceder a una base de datos de archivos de un sistema, ejecutar diversos programas, o incluso descargar información o archivos de otra habitación, otra ciudad, u otro país.

· Varias aplicaciones y protocolos pueden usarse para administrar remotamente un servidor de red. El método más común de administración remota es la emulación de terminal.

· Mientras que Novell NDS funciona como servicio que trabaja con el NOS, Microsoft

Page 143: Documento de Apoyo No. 4 Cisco It Essentials II

143

Active Directory funciona como aplicación profundamente integrada al sistema operativo. · Linux usa otra versión de Servicio de Directorio llamada Servicio de Información de la

Red (NIS). NIS proporciona un servicio de búsqueda en la red simple que consiste en bases de datos y procesos.

· La World Wide Web es ahora el servicio de red más visible. Una intranet no permite el acceso público a servidores privados. Es específica de una compañía individual. Una Extranet es una tecnología emergente que combina lo mejor de Internet y una intranet.

Las computadoras con NOS asumen roles especializados para lograr un acceso concurrente a recursos compartidos. El siguiente capítulo trata las características de los NOSs.

6. Introducción a los sistemas operativos de red Descripción general

Un sistema operativo (OS) de computadora es la base de software sobre la cual se ejecutan las aplicaciones y servicios de computadora. De manera similar, un sistema operativo de red (NOS) permite la comunicación entre varios dispositivos y recursos compartidos a través de una red.

Un NOS es, en general, un sistema operativo que se ejecuta sobre un servidor de red, como Linux, UNIX, o Microsoft Windows Server. Este capítulo trata los siguientes sistemas operativos de red:

· Microsoft Windows NT 4.0 · Microsoft Windows 2000/XP · Microsoft Windows 2002/2003 Server · Linux · UNIX

6.1 Características de un Sistema Operativo de Red

6.1.1 Descripción general de las características de los NOS

La función de un sistema operativo (OS) es controlar el hardware de la computadora, el entorno de ejecución de los programas, y la interfaz del usuario. El OS lleva a cabo estas funciones para un único usuario o una cantidad de usuarios que comparten la máquina más serialmente que concurrentemente. Un administrador puede configurar cuentas para más de un usuario, pero los usuarios no pueden iniciar sesión al sistema al mismo tiempo.

En contraste, los sistemas operativos de red (NOSs) distribuyen sus funciones a través de una cantidad de computadoras en red. Un NOS depende del OS nativo de cada computadora individual. Luego agrega funciones que permiten el acceso a los recursos compartidos por una cantidad de usuarios concurrentemente. La Figura compara cómo está diseñada una relación cliente-servidor comparada a otros entornos típicos.

Page 144: Documento de Apoyo No. 4 Cisco It Essentials II

144

Las computadoras NOS asumen roles especializados para lograr un acceso concurrente a recursos compartidos. Los sistemas cliente contienen software especializado que les permite solicitar recursos compartidos que son controlados por sistemas servidores respondiendo a una solicitud del cliente. La Figura ilustra el concepto de cómo los datos que se almacenan en servidores se hacen disponibles ante las solicitudes de los clientes.

6.1 Características de un Sistema Operativo de Red

6.1.2 Diferencias entre las PCs y un NOS

Las PCs funcionan como clientes en un entorno NOS. Usando las funciones del sistema operativo nativo de la PC, el usuario puede acceder a recursos que son locales en relación con la PC. Éstos incluyen aplicaciones, archivos, y dispositivos que están directamente conectados, como impresoras. Cuando una PC se convierte en cliente de un entorno NOS, software especializado adicional permite al usuario local acceder a recursos no locales o remotos como si estos recursos fueran parte del sistema local. El NOS mejora el alcance de la PC cliente haciendo los servicios remotos disponibles como extensiones del sistema operativo nativo local.

Aunque una cantidad de usuarios pueden tener cuentas en una PC, sólo una única cuenta está activa en el sistema en un momento dado. En cambio, un NOS soporta varias cuentas de usuario al mismo tiempo y permite el acceso concurrente a recursos compartidos por varios clientes. Los servidores deben soportar varios usuarios y actuar como repositorios de recursos que son compartidos por muchos clientes. Los servidores requieren software especializado y hardware adicional. La Figura ilustra mejor este concepto. El servidor debe contener varias cuentas de usuario y poder permitir

Page 145: Documento de Apoyo No. 4 Cisco It Essentials II

145

acceso a más de un usuario a la vez a los recursos de la red.

6.1 Características de un Sistema Operativo de Red

6.1.3 Sistemas multiusuario, multitarea y multiprocesador

Para poder soportar varios usuarios concurrentes y proporcionar acceso compartido a servicios, recursos, y dispositivos de la red, los servidores de los NOSs deben correr sistemas operativos con características que se extiendan más allá de aquéllas de las PCs clientes. Una cantidad de sistemas operativos como Linux, Windows NT/2000/XP, y Novell NetWare pueden integrar las características que se requieren para funcionar como servidor NOS.

Un sistema capaz de operar como servidor NOS debe poder soportar varios usuarios concurrentemente. El administrador de la red crea una cuenta para cada usuario, permitiendo al usuario conectarse e iniciar sesión al sistema de servidores. Una cuenta de usuario en el servidor permite al servidor autenticar al usuario y adjudicar los recursos apropiados a los que se permite acceder al usuario. Los sistemas que proporcionan esta capacidad se denominan sistemas multiusuario. UNIX, Linux, y Windows NT/2000/XP soportan todos esta capacidad multiusuario.

Un servidor NOS es un sistema multitarea. Internamente, el OS debe ser capaz de ejecutar varias tareas o procesos al mismo tiempo. Los sistemas operativos de servidor logran esto mediante software de cronograma incorporado al entorno de ejecución. El software de cronograma adjudica tiempo interno del procesador, memoria, y otros elementos del sistema a diferentes tareas de forma tal que les permite compartir los recursos del sistema. Cada usuario del sistema multiusuario es soportado por una tarea o proceso separado internamente en el servidor. Estas tareas internas se crean dinámicamente a medida que los usuarios se conectan al sistema y son borrados cuando los usuarios se desconectan.

Otra función de los sistemas capaz de actuar como servidores NOS es la potencia de procesamiento. Por lo común, las computadoras tienen una única unidad central de procesamiento (CPU) que ejecuta las instrucciones que componen una determinada tarea o proceso. Para poder trabajar eficientemente y entregar rápidas respuestas a las solicitudes de los clientes, un OS que funciona como servidor NOS requiere una CPU potente para ejecutar sus tareas o programas. Sistemas de procesador único con una CPU pueden cumplir las necesidades de la mayoría de los servidores NOS si tienen la velocidad necesaria. Para lograr velocidades de ejecución más altas, algunos sistemas vienen equipados con más de un procesador. Tales sistemas se denominan sistemas multiprocesadores. Son capaces de ejecutar varias tareas en paralelo asignando cada tarea a un procesador diferente. La cantidad agregada de trabajo que el servidor puede llevar a cabo en un momento determinado está muy mejorada en los sistemas multiprocesadores. La Figura ilustra un servidor multitarea típico que está ejecutando varias instancias de servicios de red a los que se está accediendo mediante varios sistemas cliente. Los servidores de esta naturaleza a veces se denominan servidores empresariales a causa de su capacidad de manejar servicios grandes y varios. Los servidores empresariales también son

Page 146: Documento de Apoyo No. 4 Cisco It Essentials II

146

capaces de ejecutar copias concurrentes de un comando en particular. Esto les permite ejecutar varias instancias del mismo servicio llamadas thread. Una thread es un término de programación de computadoras que describe un programa que puede ejecutarse independientemente de otras partes. Los sistemas operativos que soportan multithreading permiten a los programadores diseñar programas cuyas partes divididas y autónomas puedan ejecutarse concurrentemente.

6.1 Características de un Sistema Operativo de Red

6.1.4 Hardware de servidor para un NOS

En un entorno NOS, muchos sistemas cliente acceden a y comparten los recursos de uno o más servidores. Los sistemas de cliente de escritorio están equipados con su propia memoria y dispositivos periféricos como un teclado, monitor, y unidad de disco. Para soportar el procesamiento local, los sistemas servidores deben estar equipados para soportar a varios usuarios concurrentes y varias tareas concurrentes a medida que los clientes hacen demandas de recursos remotos al servidor.

En general, los servidores NOS son sistemas más grandes con memoria adicional para soportar varias tareas que estén todas activas, o residentes, en la memoria al mismo tiempo. También se requiere espacio en disco adicional en los servidores para contener los archivos compartidos y para funcionar como extensión de la memoria interna del sistema. Además, los servidores en general requieren slots de expansión extra en sus placas del sistema para conectar dispositivos compartidos, como impresoras y varias interfaces de red. En servidores multiprocesador, CPUs adicionales mejoran la potencia de procesamiento.

Puesto que los servidores NOS funcionan como repositorios centrales de recursos vitales para la operación de sistemas cliente, los servidores no sólo deben ser eficientes sino también robustos. El término robusto indica que los sistemas del servidor son capaces de funcionar eficazmente bajo cargas pesadas. También significa que los sistemas pueden sobrevivir al fallo de uno o más procesos o componentes sin experimentar un fallo general del sistema. Este objetivo se cumple incorporando redundancia a los sistemas de servidor. Redundancia es la inclusión de componentes de hardware adicionales que pueden tomar el mando si otros componentes fallan. La redundancia es una característica de sistemas tolerantes a fallos que están diseñados para sobrevivir a fallos e incluso ser reparados sin interrupción mientras están funcionando. Un NOS depende de la operación continua de sus servidores. Por lo tanto, los componentes extra de hardware justifican el gasto adicional.

Page 147: Documento de Apoyo No. 4 Cisco It Essentials II

147

6.1 Características de un Sistema Operativo de Red

6.1.5 Elección de un NOS

Las principales características a considerar al seleccionar un NOS incluyen el desempeño, las herramientas de administración y monitoreo, la seguridad, la escalabilidad, y la robustez/tolerancia a fallos. La siguiente sección define brevemente cada una de estas características.

Desempeño Un NOS debe desempeñarse bien leyendo/escribiendo archivos a través de la red entre clientes y servidores. Debe poder sostener un desempeño rápido bajo pesadas cargas cuando muchos, quizás cientos de clientes estén efectuando solicitudes.

Un NOS debe responder a las solicitudes de los clientes de acceso a las bases de datos del servidor. Por ejemplo, una solicitud de transacción para extraer registros de una base de datos albergada en el sistema de servidores del NOS. Un desempeño consistente bajo una fuerte demanda es algo importante para un NOS.

Administración y Monitoreo La interfaz de administración del servidor en un NOS proporciona las herramientas para monitoreo del servidor, administración de clientes, administración de archivos e impresión, y administración de almacenamiento en disco. La interfaz de administración proporciona herramientas para la instalación de nuevos servicios y la configuración de dichos servicios. Además, los servidores requieren un monitoreo y ajuste regulares.

Seguridad Un NOS debe proteger los recursos compartidos bajo su control. La seguridad incluye autenticar el acceso a los servicios de parte del usuario para evitar un acceso no autorizado a los recursos de la red. La seguridad también lleva a cabo el cifrado para la protección de la información a medida que viaja entre clientes y servidores.

Escalabilidad La escalabilidad es la capacidad del NOS de crecer sin degradación en el desempeño. El NOS debe ser capaz de sostener su desempeño a medida que nuevos usuarios se unen a la red y nuevos servidores se agregan para soportarlos.

Robustez/Tolerancia a Fallos Una medida de robustez es la capacidad de entregar servicios de NOS consistentemente bajo pesadas cargas y de sostener sus servicios si los componentes de los procesos fallan. Dispositivos de disco redundantes y equilibrio de la carga en varios servidores pueden mejorar la robustez del NOS.

Page 148: Documento de Apoyo No. 4 Cisco It Essentials II

148

6.1 Características de un Sistema Operativo de Red

6.1.6 Tipos de NOSs

Elegir un NOS puede ser una decisión compleja y difícil. Todo NOS popular tiene sus fortalezas y debilidades. Un NOS puede costar miles de dólares más que los sistemas operativos de escritorio, dependiendo de la cantidad de clientes que estarán conectados al servidor.

Es importante conocer lo básico acerca de las familias de NOS populares. Muchas redes incluyen ahora más de un tipo de servidor, y sabiendo cómo hacer interoperar estos diversos sistemas es una habilidad importante para un administrador de red.

Los sistemas operativos en la red tienen su propio lenguaje. Diferentes fabricantes de NOS usan los mismos términos en diferentes formas. Por ejemplo, en un entorno UNIX, "raíz" se refiere a la cuenta administrativa master, pero en redes NetWare, se usa para identificar un objeto de los servicios de directorio Novell (NDS). En Windows, raíz puede relacionarse con el dominio que se encuentra en la parte superior de un árbol de dominio Windows 2000 o XP o al componente básico de un Sistema de Archivos Distribuido (DFS). La Figura muestra ejemplos de algunos de los diferentes tipos de NOSs que se tratarán en este curso.

En las siguientes secciones, se tratarán las siguientes redes populares basadas en NOS:

· Linux · Windows NT and Windows 2000 · Windows XP

Page 149: Documento de Apoyo No. 4 Cisco It Essentials II

149

6.2 Windows

6.2.1 Terminología Windows

Las redes basadas en servidores Windows que ejecutan Windows NT Server o Windows 2000 Server se basan en el concepto de dominio. Un dominio es un grupo de computadoras y usuarios que sirven como frontera de autoridad administrativa. Los dominios Windows NT y los dominios Windows 2000, aunque de función similar, interactúan entre sí de manera diferente.

Microsoft usa el término "dominio" para describir grupos de computadoras, usuarios y recursos que forman una frontera administrativa. Microsoft usa el término "controlador de dominio" para describir los servidores de autenticación de inicio de sesión que contienen una copia de la base de datos de cuentas de seguridad. También específica de las redes Microsoft es la distinción entre la impresora, usada para describir una construcción de software lógica, y el dispositivo de impresión, que hace referencia a la pieza de hardware real que imprime el documento.

La terminología de networking de Windows 2000 es familiar para aquéllos que hayan trabajado con Windows NT 4.0. No obstante, algunos términos y conceptos, como el árbol y bosque de dominios, podrían ser nuevos para los administradores NT. Además, los administradores que llegan al networking Windows desde un entorno NetWare podrían hallar que algunos términos familiares, como "árbol", ahora tienen significados diferentes.

En las siguientes secciones, se examinan características específicas de Windows NT 4.0 y Windows 2000. La Figura ilustra un ejemplo de las diversas formas en que las computadoras pueden disponerse en una red. Pueden ser autónomas, miembro de un dominio de un único grupo o de un dominio de varios grupos.

6.2 Windows

6.2.2 Windows NT 4.0

Windows NT Workstation fue el primer sistema operativo de escritorio de Microsoft que estaba dirigido al mercado corporativo. La última versión del sistema operativo NT es NT 4.0, que tiene una interfaz de usuario similar a la de Windows 95. Antes del lanzamiento de NT 4.0, Microsoft lanzó NT 3.x, que tiene la interfaz de Windows 3.x. Windows NT fue diseñado para proporcionar un entorno para negocios críticos para la misión que serían más estables que los sistemas operativos para consumidores de Microsoft.

Cuando se lanzó la primera versión de Windows NT, Microsoft afirmó que el acrónimo significaba "Nueva Tecnología". Más recientemente, la compañía ha declarado que "NT" es autónomo y no una

Page 150: Documento de Apoyo No. 4 Cisco It Essentials II

150

sigla.

Algunas ventajas de Windows NT Workstation como sistema operativo de escritorio y cliente de red son las siguientes:

· Es un auténtico sistema operativo de 32 bits, y soporta multitasking preferencial y mayor estabilidad del sistema.

· Incluye seguridad a nivel de los archivos y compresión de datos archivo por archivo. · Es compatible con muchos programas de 16 bits, sin sacrificar confiabilidad. NT ejecuta DOS y

antiguos programas Windows en Máquinas Virtuales (VMs). Usando este método, si una aplicación se cuelga, esto no afecta a otras aplicaciones ni requiere un reinicio del sistema operativo.

La integración de la red es un foco principal en el diseño de Microsoft Windows NT. NT incluye soporte para placas de interfaz de red (NICs) comunes así como el software necesario para conectarse a redes Microsoft y NetWare. También se incorpora la capacidad para funcionar como cliente o servidor de acceso remoto.

Estructura de Dominio de Windows NT La estructura de dominio de Windows NT es enteramente diferente de la estructura de dominio en Windows 2000. En lugar de Active Directory, Windows NT proporciona una herramienta administrativa llamada Administrador de Usuarios para Dominios. La Figura proporciona un ejemplo de la pantalla de administración de cuentas del Administrador de Usuarios para Dominios de Windows NT. Se accede desde el controlador de dominios y se usa para crear, administrar y eliminar cuentas de usuarios de dominios. El Administrador de Usuarios para Dominios permite al administrador crear nuevas cuentas de usuario y grupos, renombrar, modificar y eliminar cuentas, asignar contraseñas, configurar políticas de cuentas, y establecer restricciones sobre los usuarios. Las restricciones sobre los usuarios incluyen especificar cuándo y desde qué estaciones de trabajo pueden iniciar sesión.

Cada dominio NT requiere un (y sólo uno) Controlador de Dominio Principal (PDC). Éste es el servidor "master" que contiene la Base de Datos de Administración de Cuentas de Seguridad (a menudo llamada SAM). Un dominio también puede tener uno o más Controladores de Dominio de Respaldo (BDCs), cada uno de los cuales contiene una copia de sólo lectura de la SAM. La SAM es lo que controla el proceso de autenticación cuando un usuario inicia sesión en el dominio. Cuando un usuario intenta iniciar sesión, la información de cuenta se envía a la base de datos SAM. Si la información para esa cuenta se almacena en la Base de Datos SAM, entonces el usuario será autenticado para el Dominio y tendrá acceso a la estación de trabajo y los recursos de la red.

Los usuarios pueden iniciar sesión y recibir autenticación por un PDC o un BDC. No obstante, los

Page 151: Documento de Apoyo No. 4 Cisco It Essentials II

151

cambios en la SAM sólo pueden hacerse en el PDC. Estos cambios luego se replican en los BDCs regularmente. Los BDCs equilibran la carga de tráfico de autenticación y sirven como respaldos en caso de que el PDC pase a inactividad. Si el PDC pasa a inactividad de manera permanente, un BDC puede ser "promovido" y convertirse en PDC.

6.2 Windows

6.2.3 Sistemas Operativos Windows 2000 y XP

Windows 2000 y Windows XP son unos de los sistemas operativos de Microsoft para el escritorio corporativo. El diseño de Windows 2000 y Windows XP está basado en la tecnología que Microsoft desarrolló con su sistema operativo de red basado en el cliente anterior, Windows NT. Windows 2000 y XP combinan las tecnologías de Windows NT y agregan muchas nuevas funciones y mejoras. Windows 2000 y XP no están diseñados para ser un auténtico NOS para servidores. No proporcionan un controlador de dominio, servidor DNS, servidor DHCP, ni entregan ninguno de los servicios que pueden implementarse con la familia de servidores Windows 2000/2003. Su propósito principal es ser parte de un dominio como sistema operativo del lado del cliente. El tipo de hardware que puede instalarse en el sistema es limitado. Por ejemplo, muchos servidores requieren varios procesadores y/o NICs. Windows 2000 y XP Professional pueden soportar hasta dos procesadores. Si el sistema necesita hacer mucho procesamiento de datos, se requeriría un sistema que soporte más de dos procesadores. Windows 2000 y XP Professional pueden proporcionar algunas capacidades de servidor para pequeñas redes. Por ejemplo, 2000 y XP pueden servir como servidor de archivos, servidor de impresión, servidor FTP, y servidor web. No obstante, será necesario actualizar a Windows 2000/2003 Server a un sitio FTP o sitio web que vaya a recibir mucho tráfico simultáneo. Windows 2000 y XP Professional sólo soportarán hasta diez conexiones simultáneas.

Windows 2000 y XP Professional soportan tecnología plug-and-play. Ambos OSs pueden ser instalados utilizando el sistema de archivos FAT32 o NTFS, e incluyen cifrado de datos para asegurar los datos del disco rígido. La tecnología plug-and-play es una herramienta muy útil que permite a un administrador rápida y fácilmente agregar componentes al sistema. El OS reconocerá automáticamente e instalará los controladores para el dispositivo. Esencialmente, una vez que el componente es conectado al sistema, funcionará automáticamente sin configuración adicional del administrador. Antes, cuando se agregaba un nuevo componente, había que instalar controladores y el dispositivo necesitaba configurarse manualmente. Windows 2000 viene con una enorme base de datos para dispositivos plug-and-play comunes.

Otras ventajas de Windows 2000 y XP Professional como sistema operativo de escritorio y cliente de red incluyen las siguientes:

· Ofrece un mejor soporte para usuarios móviles mediante la Administración Avanzada de Energía (APM) y ACPI. Windows NT no soporta ACPI.

· Proporciona un networking privado virtual más seguro con el Protocolo de Tunneling de Capa 2(L2TP) e IP Security (IPSec). Versiones anteriores de Windows soportaban sólo el Protocolo de Tunneling Punto a Punto (PPTP) para las VPNs. L2TP es una extensión al protocolo PPP que permite a los ISPs operar Redes Privadas Virtuales (VPNs). IPSec es un conjunto de protocolos desarrollados para soportar un intercambio seguro de paquetes en la capa IP, que también se utiliza en conexiones VPN.

· La función carpetas offline permite a los usuarios copiar y sincronizar documentos desde la red al sistema local para que pueda accederse a ellos cuando la computadora no está conectada a la red.

· El Protocolo de Impresión de Internet (IPP) permite a los usuarios imprimir un URL y administrar impresoras mediante una interfaz de navegador web.

· Defragmentadores de disco incorporados y otras herramientas y utilidades ayudan a los usuarios a mantener y administrar el sistema operativo. Éstas tienen que adquirirse separadamente a terceros en Windows NT.

· Soporta seguridad Kerberos (estándar en desarrollo para autenticar a usuarios de red), y las funciones de un dominio Windows 2000 como cliente de Active Directory.

Además de las ventajas anteriores, Windows XP proporciona unas pocas ventajas más allá de las

Page 152: Documento de Apoyo No. 4 Cisco It Essentials II

152

capacidades de Windows 2000. Algunas de ellas son:

· Soporte a hardware y controladores más extensivo. · Archivos compartidos más amigables con el usuario y configuración de red para establecer

redes hogareñas. · Funciones de redes inalámbricas mejoradas. · Mayor seguridad. · Control de Escritorio Remoto. · Mejoras generales a la GUI, incluyendo las adiciones de pantalla de bienvenida, mejoras al

menú inicio, y más fácil administración de archivos con el windows explorer. · Soporte multimedia mejorado para video digital, audio e imágenes.

6.2 Windows

6.2.4 Sistemas Operativos Windows 2000 y 2003 Server

Los sistemas operativos Windows 2000 Server incluyen a Windows 2000 Server y Windows 2000 Advanced Server. Las necesidades específicas de la red determinarán la mejor versión de Windows 2000 para su instalación.

Windows 2000 Server Windows 2000 Server incluye todas las funciones de la sección Windows 2000 Professional así como muchas nuevas funciones específicas de un servidor. Windows 2000 Server también puede operar como servidor de archivos, impresoras, web así como servidor de aplicaciones. Lo que separa a Windows 2000 Server de Windows 2000 Professional es un completo conjunto de servicios de infraestructura basados en servicios de Active Directory. Active Directory, similar a Novell NDS, sirve como punto centralizado de administración de usuarios, grupos, servicios de seguridad, y recursos de la red. Windows 2000 Server también soporta sistemas de Multiprocesamiento Simétrico (SMP) de cuatro vías y permite hasta 4 gigabytes (GB) de memoria física. El multiprocesamiento simétrico es una arquitectura informática que proporciona elevado desempeño haciendo que varias CPUs estén disponibles para procesos individuales. El multiprocesamiento simétrico permite que varios procesadores trabajen en paralelo y aún usen una única imagen de sistema operativo, memoria común y recursos de I/O de disco. En pocas palabras, el Multiprocesamiento simétrico es cuando varios procesadores trabajan juntos para compartir la carga de trabajo en una computadora. Incluye las capacidades multipropósito requeridas para grupos de trabajo y sucursales así como para implementaciones departamentales de servidores de archivos e impresión, servidores de aplicaciones, servidores web, y servidores de comunicación. Windows 2000 Server tiene como objetivo su uso en entornos empresariales de tamaño pequeño a mediano. Algunas otras mejoras que vienen con Windows 2000 Server son soporte incorporado para los más importantes protocolos de red que están en uso en las redes de hoy como TCP/IP e IPX/SPX. Windows 2000 Server proporciona conectividad integrada con sistemas Novell NetWare, UNIX, y AppleTalk. Un Windows 2000 Server configurado como servidor de comunicaciones puede proporcionar servicios de networking de conexión telefónica

Page 153: Documento de Apoyo No. 4 Cisco It Essentials II

153

para usuarios móviles. Windows 2000 Server puede soportar hasta 256 sesiones de conexión telefónica entrantes simultáneas, en contraste con Windows 2000 Professional, que puede proporcionar soporte para sólo una sesión de conexión telefónica a la vez.

Windows 2000 Advanced Server Windows 2000 Server and Windows 2000 Advanced Server son lo mismo excepto en que Advanced Server proporciona soporte para hardware y software que un administrador de sistemas necesitará en una red empresarial y extremadamente grande que puede incluir varios vínculos WAN a oficinas de todo el mundo. Advanced Server es un sistema operativo de servidor de aplicaciones y departamental más potente que incluye todas las funciones de Windows 2000 Server y agrega la avanzada alta disponibilidad y escalabilidad mejorada requerida para grandes redes. Windows 2000 Advanced Server soporta SMP de ocho vías, lo cual sería ideal para trabajo intensivo en base de datos. Advanced Server también proporciona soporte para hardware de alta potencia que soporta una red empresarial. Por ejemplo, Advanced Server proporciona soporte para más de 4 GB de memoria física.

Windows .NET Server Microsoft ha desarrollado Windows .NET Server con la capacidad para proporcionar un sistema seguro y confiable para correr sitios web y FTP a nivel empresarial para competir con los sistemas operativos Linux, UNIX y Novell Netware Server. Con la creciente emergencia del e-commerce, las compañías basadas en la web, y las compañías que están expandiendo sus servicios a Internet, existe la necesidad de un servidor que sea capaz de proporcionar servicios web y FTP seguros y confiables. Windows .NET Server, que está armado sobre el Kernel de Windows 2000 Server, está específicamente adaptado para proporcionar estos tipos de servicios. El Windows .NET Server proporciona servicios web XML a compañías que corren tráfico web de medio a alto volumen. .NET server proporcionará soporte a las compañías que están comenzando en esta nueva generación de negocios así como negocios que han estado proporcionando soluciones de negocios basadas en Internet durante algún tiempo. La Figura proporciona una comparación de la familia de Sistemas Operativos Windows 2000.

Windows 2003 Server Las versiones de Windows 2003 Server incluyen la Standard Edition, Enterprise Edition, Datacenter Edition, Web Edition, y Small Business Server Edition. Siga el vínculo de más abajo para aprender más y comparar las especificaciones de las diferencias entre las ediciones de Windows 2003 Server. Una de las principales funciones que Microsoft ha implementado para su lanzamiento de 2003 Server es soporte disponible para sistemas de 64 bits para poder competir en la arena de los servidores a nivel empresarial. Muchas de las mismas funciones que se incluyeron en la edición Windows 2000 Server siguen estando en 2003 Server Edition, no obstante Microsoft afirma que ha mejorado la eficiencia general de las funciones. Algunas de las principales características que han sido agregadas a 2003

Page 154: Documento de Apoyo No. 4 Cisco It Essentials II

154

server que no estaban en 2000 Server son las siguientes:

· Servicios de clustering y equilibrio de carga mejorados. · Construcción y hosting de aplicaciones web, páginas web, y Servicios Web XML. · Desarrollo e implementación de servicios Web XML y aplicaciones que usan la tecnología

ASP.NET. · Arquitectura de Seguridad de Internet. · Servicios de Red Inalámbricos. · Servicios y Soporte Metadirectorio. · Firewall de Conexión a Internet. · Infraestructura de Clave Pública, Servicios de Certificados, y Smart Cards. · Escritorio Remoto para la Administración y Servidor de Terminal Integrados. · Servicios para interoperabilidad con UNIX · Soporte a la Red Privada Virtual (VPN). · Soporte para IPv6.

6.3 Linux

6.3.1 Historia de Linux

Linux es un sistema operativo similar a UNIX. Se ejecuta en computadoras muy diferentes. Linux fue lanzado en 1991 por su autor Linus Torvalds de la Universidad de Helsinki. Desde entonces, Linux ha crecido en popularidad a medida que programadores de todo el mundo adoptaron la idea de construir un sistema operativo gratuito, agregar funciones y resolver problemas. Linux es popular entre la generación actual de usuarios de computadoras por la misma razón que las primeras versiones del sistema operativo UNIX tentaron a los usuarios hace más de 20 años. Linux es portátil, lo que significa que las versiones pueden hallarse funcionando en PCs de marca o clones, Apple Macintosh, estaciones de trabajo Sun, o computadoras basadas en Alpha de Digital Equipment Corporation. Linux también viene con código fuente, para que el usuario pueda cambiar o personalizar el software para adaptarlo a sus necesidades. Finalmente, Linux ofrece muchas características adoptadas de otras versiones de UNIX. La Figura muestra una línea de tiempo del desarrollo de UNIX/Linux.

La Iniciativa Fuente Abierta La Iniciativa Fuente Abierta proporciona una marca registrada para desarrolladores de software que desean compartir, modificar y redistribuir su código. Para usar la marca registrada, el software debe cumplir con ciertos criterios. Debe ser distribuido gratuitamente sin restricción y el código fuente debe estar disponible. Ejemplos de software que cumplen estos requisitos son Linux, la versión Berkeley

Page 155: Documento de Apoyo No. 4 Cisco It Essentials II

155

Software Design (BSD) de UNIX, el Sistema X Window, y las aplicaciones desarrolladas bajo el proyecto GNU.

6.3 Linux

6.3.2 ¿Qué es UNIX?

Es importante mencionar las funciones y usos de UNIX al tratar Linux. El NOS UNIX fue desarrollado en 1969, y ha evolucionado en muchas variedades. El código fuente es abierto, es decir, disponible sin costo a cualquiera que desee modificarlo. Además, está escrito en lenguaje de programación C, para que los negocios, instituciones académicas, e incluso individuos puedan desarrollar sus propias versiones.

Los sistemas operativos UNIX se usan en estaciones de trabajo de alto propósito, como máquinas Silicon Graphics y Sun. UNIX puede ejecutarse como sistema operativo de línea de comandos o con una interfaz gráfica del usuario (GUI) como X Window. La Figura proporciona un ejemplo de la GUI X Window de UNIX.

Sistemas Operativos UNIX Hay cientos de diferentes versiones de UNIX. Algunas de las más populares son las siguientes:

· Berkeley Software Design, Inc, (BSD UNIX, que ha originado variantes como FreeBSD) · Santa Cruz Operation (SCO) UNIX · Sun Solaris · AIX (IBM's UNIX) · HP-UX (Hewlett Packard UNIX)

El código de fuente abierta es tanto la fortaleza como la debilidad del sistema operativo UNIX. Los desarrolladores se ven libres de mejorar y personalizar el sistema operativo. Aunque esto resulta en una falta de normalización que pueda frustrar a los usuarios, administradores y desarrolladores de aplicaciones, hay un gran cuerpo de software de aplicaciones que puede usarse en plataformas UNIX y Linux.

A pesar de la popularidad de Windows y NetWare en LANs corporativas, gran parte de Internet todavía corre en potentes sistemas UNIX. UNIX se asocia en general con hardware caro y se considera "no amigable con el usuario" pero recientes desarrollos han cambiado esa imagen. En particular, el surgimiento en los '90 de Linux ha llevado la informática UNIX al mundo de la PC.

Page 156: Documento de Apoyo No. 4 Cisco It Essentials II

156

6.3 Linux

6.3.3 Sistema Operativo Linux

Linux se denomina en ocasiones "UNIX Lite", y está diseñado para ejecutarse en PCs compatibles con Intel. No obstante, Linux se ejecutará en otras máquinas también. Linux lleva las ventajas de UNIX a las computadoras hogareñas y de pequeños negocios.

Al igual que sucede con UNIX, existen numerosas distribuciones de Linux. Una distribución incluye elementos tales como un programa de instalación, un kernel, scripts de inicio, archivos de configuración, y software de soporte crítico. Las diferentes distribuciones pueden usar versiones completamente diferentes de cualquiera o todas estas características, lo cual producirá un aspecto claramente diferente. En total, existen de 24 a 36 distribuciones importantes diferentes disponibles. Además de eso, hay varias otras menos populares y especializadas ediciones de Linux. Algunas de estas distribuciones son descargas gratuitas de la World Wide Web, y otras se distribuyen comercialmente. Las siguientes son algunas de las más populares.

Red Hat Linux (http://www.redhat.com/) Red Hat Linux es una de las versiones más antiguas de Linux y ha sido también una de las distribuciones más influyentes. Red Hat Linux es famosa por crear el formato RPM que ahora es usado por otras distribuciones ni siquiera basadas en Red Hat. Red Hat contiene un proceso de instalación de la GUI así como herramientas para la configuración de la GUI. Red Hat es compatible con varias CPUs, incluyendo x86, IA-64, y Alpha. Un gráfico de muestra del packaging de Red Hat Linux se muestra en la Figura .

Linux Mandrake (http://www.mandriva.com/en/ community/resources/about_mandriva_linux) Mandrake es una versión de Linux de origen francés y probablemente la versión más similar a Red Hat Linux. Mandrake se desarrolló originalmente como una versión de Red Hat con el Entorno de Escritorio K (KDE). Desde entonces Mandrake ha desarrollado una identidad propia que tiene un proceso de instalación de la GUI así como diferentes características para su configuración de servidor. Por ejemplo, Mandrake usa Postfix, en lugar de Sendmail como servidor de correo. Mandrake es compatible con diversos tipos de CPUs incluyendo x86, IA-64, SPARC, Alpha, y PowerPC. Una captura de pantalla de muestra de Mandrake Linux se muestra en la Figura . Note cómo se parece a Red Hat.

Page 157: Documento de Apoyo No. 4 Cisco It Essentials II

157

Caldera eDesktop and eServer (http://www.caldera.com/) Como se nota por sus nombres, esta versión de Linux ha sido lanzada por Caldera, así como Red Hat lanza Red Hat. También Caldera Linux tiene dos versiones, una de las cuales está dirigida a estaciones de trabajo solamente y la otra está dirigida a servidores solamente. Como Red Hat, Caldera Linux está basado en RPM y tiene herramientas de configuración de la GUI muy sofisticadas. No obstante, la distribución Caldera de Linux no deriva de Red Hat en absoluto. Caldera Linux está sólo disponible en una CPU x86. Una captura de pantalla de muestra de Caldera Linux se muestra en la Figura .

Debian GNU/Linux (http://www.debian.org/) Esta distribución de Linux es diferente de las otras distribuciones en que fue construida únicamente para usos sin fines de lucro. Las otras distribuciones fueron construidas principalmente para compañías con fines de lucro. Esto hace de Debian Linux una opción muy popular para muchos de los usuarios a quienes les interesa la iniciativa de fuente abierta. También otorga a los usuarios la capacidad para personalizar estos archivos según su propio gusto. Debian usa muchas de las herramientas de configuración de la GUI usadas por las otras versiones de Linux. Debian Linux puede usarse en procesadores x86, PowerPC, Alpha, SPARC, y 680x0. La Figura muestra una captura de pantalla de Debian Linux.

Page 158: Documento de Apoyo No. 4 Cisco It Essentials II

158

Corel Linux (http://corel.linux.com) La distribución Corel Linux se basa en Debian GNU/Linux pero tiene algunas características amigables con el usuario que han sido agregadas, como un nuevo proceso de instalación y nuevas herramientas de configuración de la GUI. Por ello, no obstante, ejecutar comandos Linux tradicionales desde la línea de comandos no siempre funcionará. Corel Linux está diseñado principalmente para uso en escritorio/estación de trabajo y está dirigido a principiantes en Linux que están familiarizados en el uso de Microsoft Windows. Corel Linux sólo está disponible en una CPU x86. Una captura de pantalla de muestra de Corel Linux se muestra en la Figura .

LinuxPPC Esta distribución de Linux está específicamente diseñada para su uso en sistemas con una CPU PowerPC. La CPU PowerPC es la CPU que se usa en todo sistema Macintosh moderno y por lo tanto LinuxPPC también está diseñada para el mercado Macintosh. Esta distribución es un derivado de Red Hat que tiene como propósito el uso en PCs Macintosh. Una captura de pantalla de LinuxPPC se muestra en la Figura .

Page 159: Documento de Apoyo No. 4 Cisco It Essentials II

159

Slackware (http://www.slackware.com/) Slackware es una distribución de Linux que es muy similar a Debian Linux en que está dirigida a usuarios avanzados que prefieren el entorno estándar UNIX en Linux. Slackware usa todas las herramientas de configuración basadas en texto y no usa ninguna GUI para estas configuraciones. Es también la más antigua distribución Linux disponible y es la única distribución que se basa en la administración de paquetes. Slackware puede ejecutarse en CPUs x86, Alpha, y SPARC.

Storm Linux (http://www.stormlinux.com/) Storm Linux es distribuida por Stormix. Como Slackware, Storm Linux es una variante de Debian Linux. Storm Linux también es similar a Corel Linux en el hecho de que agrega herramientas de configuración para la GUI al núcleo de Debian. No obstante, Storm Linux difiere de Corel Linux en que no es tan dependiente de estas herramientas como lo es Corel Linux. Storm Linux sólo puede ejecutarse en procesadores x86.

SuSE Linux (http://www.suse.com/) Esta distribución de Linux es popular en Europa y es producida por una compañía alemana. Al igual que Red Hat Linux, SuSE Linux puede usar RPMs, pero en otros aspectos no se basa en Red Hat. SuSE usa software DVD-ROM para abrir paquetes, si el sistema tiene una unidad de DVD-ROM. A diferencia de las otras distribuciones, SuSE Linux incluye alrededor de media docena de CDs, que contienen prácticamente cualquier paquete que un usuario podría desear para el sistema Linux. A veces puede ser difícil buscar en estos CDs para encontrar el paquete que se necesita. SuSE Linux también viene con las herramientas de configuración e instalación de la GUI esenciales. SuSE Linux puede instalarse en sistemas que usen procesadores x86, IA-64, PowerPC, y Alpha.

Turbo Linux (http://www.turbolinux.com/) Turbo Linux está estrictamente dirigido hacia el mercado de servidores y se deriva de Red Hat Linux. Turbo Linux contiene fuerte soporte para Idiomas Asiáticos. Turbo Linux puede instalarse en procesadores x86, IA-64, y Alpha.

Yellow Dog Linux (http://www.yellowdoglinux.com/) Yellow Dog Linux es similar a LinuxPPC en dos aspectos. Primero, también se deriva de Red Hat Linux, y está principalmente diseñado para ejecutarse en procesadores PowerPC, lo que lo hace principalmente para sistemas Macintosh.

Una reciente tendencia ha sido crear versiones de Linux que encajen en uno o dos diskettes. Una versión así recortada se llama "Linux On A Floppy" (LOAF), que entra en un disco. DOS Linux es otro NOS Linux pequeño y puede instalarse en un sistema DOS existente. Un tercero, Coyote Linux, es una distribución pequeña y especializada diseñada para compartir una conexión a Internet.

Page 160: Documento de Apoyo No. 4 Cisco It Essentials II

160

Con todas las diferentes distribuciones de Linux disponibles en el mercado puede resultar difícil elegir cuál usar. Pero algunos de los factores obvios, como el procesador que el sistema informático está usando, ayudarán a decidir qué de qué distribuciones elegir. Algunos de los otros factores que pueden ayudar a reducir la decisión son qué tipo de sistema está construyendo el usuario. Si el sistema es un servidor entonces podría pensarse en Caldera eServer o Turbo Linux, que están específicamente dirigidos hacia el mercado de servidores. No obstante, tenga en cuenta que muchas de las otras distribuciones de Linux pueden usarse para ejecutarse en servidores también. Otro factor que podría determinar qué versión usar sería si el usuario está interesado en usar una GUI o no. Por último, los usuarios podrían pensar en sus niveles de experiencia. Si son nuevos para Linux entonces Caldera eDesktop, Corel, o Mandrake Linux podrían ser una buena opción para ellos.

6.3 Linux

6.3.4 Clientes Linux

Los clientes Windows pueden acceder a recursos y servidores Linux. El sistema de archivos cliente/servidor usado por la mayor parte de variedades de servidores de archivos Linux es un Sistema de Archivos de Red (NFS), que fue desarrollado por Sun Microsystems. Puede instalarse en clientes Windows que usan software tal como Solstice Network Client de Sun. NFS requiere TCP/IP, u otro software cliente NFS, para la transferencia de archivos. Los sistemas operativos Windows no incluyen un cliente NFS.

Los clientes Windows pueden acceder a los servidores Linux sin software cliente si los servidores UNIX ejecutan Samba, que es un programa que usa el protocolo de capa de aplicación Server Message Block (SMB). Las computadoras Windows usan SMB para el acceso a archivos a través de la red. Samba les permite ver el sistema de archivos Linux. La Figura ilustra cómo un servidor Samba permitirá que diferentes tipos de sistemas accedan al servidor de archivos Samba.

6.4 Determinación de los Requisitos de Software para un NOS Linux

6.4.1 Software y programas de la estación de trabajo

La mayor parte del software y los programas que un usuario encontraría en una estación de trabajo Linux están diseñados para ayudar al usuario a hacer su trabajo. Una Estación de Trabajo Linux no necesitará ninguno de los programas o software que el usuario normalmente encontraría en un sistema Linux configurado como servidor. Si cualquier software o programas de servidor de correo se instalaran en una estación de trabajo Linux, ésta sería un servidor de correo, que proporciona servicios locales para enviar y recibir e-mail.

Page 161: Documento de Apoyo No. 4 Cisco It Essentials II

161

El Sistema X Window El Sistema X Window (abreviado, X) es lo que forma el entorno GUI de Linux. Linux es capaz de correr sin una GUI, no obstante, si un usuario está configurando Linux como estación de trabajo entonces lo más probable es que el usuario quiera asegurarse de que el Sistema X Window está instalado mediante el paquete Xfree86. Instalar y configurar X Window y el paquete Xfree86 se tratará en detalle en posteriores capítulos. Existen varias razones por las cuales el Sistema X Window debe instalarse en una estación de trabajo Linux. La más importante es porque casi todos los programas de una estación de trabajo requieren X Window para poder ejecutarse.

Existen varias herramientas adicionales que también son parte del Sistema X Window que ayudan a la GUI a operar y ejecutarse sin problemas. Éstas incluyen Window Managers, que proporciona límites y control en torno a las ventanas, y Desktop Environments. Desktop Environments incluye varias utilidades adicionales que ayudan a un usuario a personalizar y controlar su entorno de trabajo. Dos de los más populares Desktop Environments que vienen con Linux son el Entorno de Escritorio K (KDE, http://www.kde.org/) y el GNU Network Object Model Environment (GNOME, http://www.gnome.org/).

Herramientas de Oficina Tener un software de suite de oficina eficiente es obligatorio para cualquier estación de trabajo, especialmente si la estación de trabajo es parte de una red y se encuentra en una compañía. Si Linux ha tenido algún defecto, ha sido en su falta de proporcionamiento de software de suite de oficina que se ejecute en Linux pero que sea tan bueno como Microsoft Office. No obstante, Linux sí tiene la capacidad de ejecutar software de suite de oficina. WordPerfect de Corel y Sun StarOffice son los dos software de suite de oficina principales de los capaces de ejecutarse en Linux. StarOffice puede ser una opción popular en Linux porque también puede usarse en Windows. Esto ayuda a evitar cualquier problema de compatibilidad en un entorno donde hay computadoras tanto Linux como Windows. Otras alternativas de suite de oficina son ApplixWare de Applix (http://www.applix.com/). La Figura muestra un ejemplo de la suite de oficina ApplixWare. También hay paquetes únicos en lugar de suites de oficina completas que vienen con Linux y algunos son instalados por defecto durante el proceso de instalación. Algunos ejemplos de ellos son LyX (http://www.lyx.org/) y AbiWord (http://www.abisource.com/). La Figura muestra un ejemplo de la herramienta procesadora de texto LyX. La Figura muestra un ejemplo de la herramienta procesadora de texto AbiWord. Éstos son dos procesadores de texto populares que pueden instalarse sin tener que instalar una suite de oficina completa.

Page 162: Documento de Apoyo No. 4 Cisco It Essentials II

162

Clientes de Red Una estación de trabajo que funciona en una red empresarial o incluso una pequeña red necesitará poder acceder a recursos de networking. Las estaciones de trabajo usan una variedad de software de cliente de red para ello. Ejemplos incluyen navegadores web como Netscape u Opera, lectores de correo como KMail, y clientes FTP como gFTP. Existe una amplia variedad de clientes de red que se incluyen con cada distribución de Linux que un usuario podría necesitar. No obstante, si hay un cliente de red que se necesite que no se incluye en los CDs de instalación, éstos son fácilmente descargables desde Internet.

Programas y Software Audiovisuales Con la cantidad de funciones multimedia que las computadoras son capaces de realizar, una estación de trabajo no podría competir a menos que proporcionara los programas y el software disponibles para ver, reproducir y editar archivos de video, gráficos y de música. Estas funciones no sólo son importantes para el usuario hogareño sino que también pueden ser importantes en un negocio. Artistas gráficos, diseñadoresde web y arquitectos, todos necesitarán tener estas características disponibles en sus sistemas. Algunos de los programas audiovisuales populares disponibles para Linux incluyen herramientas para visualizar y editar gráficos como XV (http://www.trilion.com/) y GIMP (http://www.gimp.org/); reproductores multimedia como Xanim (http://xanim.va.pubnix.com); editores de audio/video como Broadcast (http://heroines.sourceforge.net/bcast2000.php3) y Linux Video Studio (http://ronald.bitfreak.net/lvs/). La Figura proporciona un ejemplo de algunas de las herramientas de edición disponibles con GIMP. Los programas audiovisuales son otra área en la que Linux, en pasados años, no ha podido competir, al igual que ocurre con las suites de oficina. No obstante, desde entonces, un mejor software ha comenzado a emerger que se ha vuelto capaz de proporcionar estas funciones multimedia a un usuario Linux.

Page 163: Documento de Apoyo No. 4 Cisco It Essentials II

163

6.4 Determinación de los Requisitos de Software para un NOS Linux

6.4.2 Software y programas para servidores

El software y los programas instalados en un servidor lo son con el propósito de proporcionar alguna clase de servicio a otros sistemas informáticos que están conectados a él a través de una red. El software y los programas que se ejecutan en un servidor se usan de manera diferente que el software y los programas que se instalan en una estación de trabajo. Los usuarios no usan directamente el software o los programas que están en el servidor. En general, el administrador del servidor será el único usuario que usa el software e incluso entonces no será muy usado. En cambio, el software y los programas que se instalan en los servidores se están ejecutando constantemente en segundo plano en el servidor. Cuando una computadora cliente hace una solicitud, el servidor responderá a esa solicitud.

Servidores Web Uno de los usos más populares de un sistema Linux en el mundo de hoy es como servidor web. El software de servidores web usa el Protocolo de Transferencia de Hipertexto (HTTP) para entregar archivos a usuarios que lo solicitan, usando un navegador web desde su estación de trabajo. El software de servidor web más popular disponible para Linux es Apache (http://www.apache.org/), un programa de fuente abierta que viene incluido con el CD de instalación. Otro software de servidor web disponible para Linux es Roxen y thttpd. Roxen está diseñado como servidor web comercial de alta potencia y thttp está más orientado a sitios web pequeños y de bajo tráfico.

Servidores de Correo Un Servidor de Correo es un sistema que está configurado con los programas y servicios apropiados que permiten al servidor manejar el intercambio de e-mail que se está enviando de un cliente a otro. Este intercambio se tratará en capítulos posteriores. Cada distribución de Linux incluye un servidor de correo. Una versión que es popular y viene con Red Hat es Sendmail (http://www.sendmail.org/). Otros servidores de correo populares disponibles para Linux incluyen Exim (http://www.exim.org/) y Postfix (http://www.postfix.org/). Estos servidores de correo usan una variedad de protocolos para recibir el correo entrante y luego distribuir el correo saliente a las ubicaciones apropiadas. Por ejemplo, el Protocolo de Transferencia de Mail Simple (SMTP) se usa para entregar correo entre servidores de correo a través de Internet. SMTP también se usa en redes de área local (LANs) para transferir correo. Cada distribución de Linux incluye servidores Post Office Protocol (POP) e Internet Message Access Protocol (IMAP). Estos protocolos se usan para enviar el correo a los usuarios finales o a la computadora de destino dentro de la LAN.

Muchos servidores Linux se basan en el protocolo SMTP para otros servicios también. Por ejemplo, el SMTP se usa para entregar importantes informes del estado del sistema al administrador del sistema. Por esta razón, se recomienda que el servidor SMTP de un sistema Linux nunca se inhabilite, incluso aunque no sea un servidor de correo.

Page 164: Documento de Apoyo No. 4 Cisco It Essentials II

164

Servidores de Inicio de Sesión Remoto Acceder a un servidor remotamente así como los muchos diferentes programas que podrían usarse se trató en el Capítulo 5, "Descripción General de los Servicios de Red". El servidor de inicio de sesión más conocido es Telnet. En Linux, el servidor telnetd o in.telnetd ejecuta el protocolo Telnet.

El servidor Telnet está incluido en cada distribución de Linux. No obstante, no está habilitado por defecto. Nunca use el protocolo Telnet en un sistema Linux, y manténgalo inhabilitado a causa de los problemas de seguridad. Telnet no es un protocolo seguro y es susceptible de ser interceptado mientras se transfieren archivos entre dos sistemas, comprometiendo así datos importantes. Otros servidores de inicio de sesión remoto están disponibles pero una mejor alternativa a Telnet es el Protocolo de Shell Seguro (SSH). SSH cifra todos los datos que se envían entre dos sistemas haciendo inservibles a los datos interceptados.

Servidores de Acceso a Archivos El sistema operativo Linux proporciona un medio excelente de servidor de archivos en un entorno Linux o en un entorno multiplataforma que consista en estaciones de trabajo Windows, Macintosh, UNIX, u OS/2. La razón es que Linux soporta muchos protocolos para compartir archivos que pueden configurarse para permitir el acceso mediante todos estos sistemas operativos.

Un servidor de archivos Linux permite a los usuarios leer y escribir archivos y directorios desde una ubicación remota. Existen varios protocolos que pueden usarse para lograr esto. El Protocolo de Transferencia de Archivos (FTP) es más bien un medio tradicional de transferir archivos a un servidor de archivos. Existen otros protocolos, software y programas que pueden instalarse en un servidor Linux que permitirán que una computadora trate a los archivos y directorios ubicados en el servidor de archivos como si fueran locales. El Sistema de Archivos de Red (NFS) de Sun es un ejemplo de este tipo de programa, que puede usarse para compartir archivos entre sistemas UNIX y Linux. El Server Message Block (SMB) funciona casi de la misma forma que el NFS pero se usa para permitir que otros OSs como sistemas DOS, Windows, NetWare, Macintosh, y OS/2 accedan a un servidor de archivos Linux. Los sistemas DOS y Windows usan el protocolo SMB. NetWare usa los paquetes mars_new y lwared. Macintosh usa Applshare a través de Netatalk.

Otros Servidores Linux Los diferentes tipos de servidores y programas Linux que se instalan y se mencionaron antes son los que un usuario más probablemente encuentre en una mayoría de servidores de cualquier compañía de tamaño mediano a grande. No obstante, esta lista está lejos de ser completa. Muchos de los otros tipos de servidores que se usan pueden no serlo tan ampliamente o simplemente no pueden clasificarse en ninguna categoría específica. Algunos ejemplos de estos tipos de servidores incluyen a Squid (http://www.squid-cache.org/), que es un servidor proxy Linux. Los servidores proxy controlan cosas como la seguridad de la red restringiendo el acceso a Internet. Los servidores DHCP y DNS recaen también en esta categoría.

También es importante mencionar aquí las herramientas ipchains e iptables, incluso aunque pueden no considerarse servidores de verdad. Estas herramientas se usan al configurar un sistema Linux como firewall, lo cual se trató en capítulos anteriores. Estas herramientas son herramientas de seguridad que pueden bloquear el acceso al servidor basándose en direcciones IP o números de puerto. La diferencia entre los dos es que ipchains se usa en sistemas Linux que corren el kernel serie 2.2.x e iptables funciona con los kernels más nuevos 2.4.x.

Page 165: Documento de Apoyo No. 4 Cisco It Essentials II

165

6.4 Determinación de los Requisitos de Software para un NOS Linux

6.4.3 Software y programas adicionales

Las dos secciones anteriores trataban muchos de los programas y software esenciales que es necesario instalar en una estación de trabajo o servidor. No obstante, existen programas y software esenciales para agregar a un sistema Linux independientemente de si está configurado como estación de trabajo o servidor. Estos programas ayudarán a un usuario a llevar a cabo tareas comunes del usuario en su estación de trabajo pero permiten a un administrador administrar apropiadamente un sistema.

Editores de Texto Los editores de texto son una herramienta valiosa que recibirá mucho uso en cualquier sistema Linux, ya sea estación de trabajo o servidor. Algunos ejemplos de editores de texto disponibles en Linux son vi, jed, pico, o Emacs. Cómo usar estos editores de texto se tratará en detalle en posteriores capítulos. Estos editores de texto son esenciales para llevar a cabo cualquier tipo de tareas de mantenimiento que un usuario o administrador pueda necesitar hacer.

Los cuatro editores mencionados más arriba son todos ellos editores basados en texto, un par de ellos tienen algunas extensiones X, lo cual les permite ejecutarse en un entorno GUI. Un ejemplo de estas extensiones X es XEmacs (http://www.xemacs.org/), que es una versión mejorada de Emacs. La Figura

proporciona un ejemplo del editor de texto XEmacs. Existe otros editores de texto también que están diseñados como editores de texto estrictamente GUI. Nedit (http://www.nedit.org/), que se muestra en la Figura , gEdit (se ejecuta con GNOME), que se muestra en la Figura , y KEdit (se ejecuta con KDE), que se muestra en la Figura , son todos ejemplos de editores de texto GUI. Estos editores de texto GUI pueden ser más fáciles de usar. No obstante, hay algunas instancias en las cuales éstos no pueden usarse y sí en cambio un editor de texto no GUI. Por lo tanto, es una buena idea sentirse cómodo también en el uso de uno de los editores de texto no GUI. Un ejemplo de cuándo esto podría ocurrir es cuando un usuario está haciendo telnet a un servidor remoto. Cuando el usuario hace telnet al servidor, estará restringido al modo sólo texto y por lo tanto se verá forzado a usar uno de los editores de texto. Otra instancia es que no todos los sistemas Linux tiene instalado X Window. Si la GUI no está instalada, la opción de usar un editor de texto GUI no estará disponible.

Page 166: Documento de Apoyo No. 4 Cisco It Essentials II

166

Herramientas de Programación Las herramientas de programación son muy útiles para cualquier administrador que esté ejecutando servidores Linux así como para usuarios específicos en estaciones de trabajo si son programadores. Estas herramientas de programación también se denominan compiladores o intérpretes. Un compilador convierte el código fuente del programa, que está escrito por el programador, a forma binaria que la computadora pueda leer. Si el lenguaje de programación es interpretado entonces el lenguaje de programación no es convertido, sólo es traducido a código de máquina inmediatamente. Linux incluye una variedad de diferentes tipos de compiladores. El más conocido e importante de estos compiladores es probablemente el Compilador GNU C (GCC). No obstante, como administrador, si un administrador está instalando estos compiladores en una estación de trabajo para un usuario, es una buena idea preguntarle al usuario qué herramientas de programación específicas necesitará.

Algunos otros tipos de herramientas de programación son dignas de mención porque dependiendo de los usuarios o del tipo de servidor, puede ser necesario instalar estas otras herramientas de programación. Algunos de estos tipos de herramientas de programación se denominan lenguajes de script. Lenguajes de script comunes incluyen Javascript, Python, y Perl. Estas herramientas de programación pueden ser usadas tanto por programadores que usan una estación de trabajo para crear scripts para software que podrían estar desarrollando o por administradores que usan un servidor para ejecutar scripts en él.

Page 167: Documento de Apoyo No. 4 Cisco It Essentials II

167

Librerías Las librerías no se consideran software en general sino que son conjuntos de rutinas que son usadas por el software. El código Linux está principalmente escrito en código de programación C. Cada sistema Linux se basa en una librería llamada la librería C (libc). Los sistemas Linux se basan en la librería C para las rutinas que son necesarias para que los programas C se ejecuten en Linux. Si un usuario está intentando instalar un paquete, el usuario también debe tener la librería apropiada instalada para que el programa se ejecute. Si el usuario no tiene instalada la librería apropiada, se generará un mensaje de error para advertir al usuario sobre el problema.

6.4 Determinación de los Requisitos de Software para un NOS Linux

6.4.4 Verificación de la compatibilidad del software

En su mayor parte, al instalar software en un sistema Linux de paquetes que se incluyen en el CD, los paquetes funcionarán. Algunos paquetes tienen una dependencia, lo cual significa que requieren la instalación de otros paquetes también para que se ejecuten correctamente. Todas las distribuciones importantes tienen administradores de paquetes, que se trataron en capítulos anteriores, que rastrean esto y cuando notan que un paquete que está siendo instalado tiene dependencias, aparecerá un mensaje proporcionando al usuario información sobre qué paquetes adicionales necesitarán instalarse. Puede que sea necesario tomar medidas extra cuando se instalan paquetes no incluidos en el CD de distribución. Siempre es una buena práctica verificar con el sitio web del fabricante o en la documentación de los paquetes para ver qué requisitos puede ser necesario instalar. Algunos de estos requisitos incluyen sistemas operativos soportados, distribuciones soportadas, requisitos de CPU, requisitos de librerías, y herramientas y librerías de desarrollo.

Sistemas Operativos Soportados Al instalar un paquete, el primer paso deberá ser siempre verificar y asegurarse de que el sistema operativo soporta el paquete. En general, cualquier software y paquetes Linux puede instalarse en cualquier sistema operativo semejante a UNIX. No obstante, ésta no es siempre la regla. Siempre es una buena idea verificar primero. El software y los paquetes UNIX deberán ejecutarse en general en la mayoría de los sistemas Linux porque serán capaces de compilar el código fuente. No obstante, deberá tenerse cuidado al hacerlo, ya que éste no siempre es el caso. A veces si un paquete es muy grande, la instalación puede encontrarse con algunos problemas si no está explícitamente diseñada para ejecutarse con Linux.

Distribuciones Soportadas Las mismas reglas que se aplican a la verificación de la compatibilidad con el sistema operativo se aplican a la compatibilidad con la distribución. En general, es posible instalar paquetes diseñados para instalarse en una distribución, para que se ejecuten en otra. A menudo este proceso es simple y otras veces el usuario tendrá que instalar una serie de dependencias para que un paquete funcione cuando no está explícitamente diseñado para ejecutarse en esa distribución en particular.

Requisitos de CPU Es importante verificar la compatibilidad con la CPU al instalar software que viene en código fuente y debe ser compilado por la CPU. La razón principal para esto es que no todas las CPU son capaces de compilar el software correctamente. Un ejemplo de esto son los programas sólo binario que sólo se ejecutarán en CPUs x86 o PowerPC.

Requisitos de librerías Las librerías se trataron en las secciones anteriores y también se mencionó cómo determinados paquetes requieren la instalación de determinadas librerías para poder ejecutarse. Es una buena práctica verificar qué librería requiere un paquete en particular.

Herramientas y Librerías de Desarrollo Las herramientas de desarrollo y las librerías de desarrollo no son algo por lo que el usuario cotidiano necesitará preocuparse. Éstas son herramientas para programadores que deseen compilar programas por sí mismos. La principal preocupación a tener en cuenta aquí es que un usuario necesita estar seguro de que estén instaladas las herramientas de y librerías de desarrollo. Por ejemplo, si un programa está escrito en C++, el usuario necesitará un compilador C++.

Page 168: Documento de Apoyo No. 4 Cisco It Essentials II

168

Resumen

Este capítulo trató los sistemas operativos de red (NOSs). Algunos de los conceptos importantes a retener de este capítulo incluyen los siguientes:

· Los NOSs distribuyen sus funciones a través de una cantidad de computadoras en red. Dependen del OS nativo de cada computadora individual y luego agregan funciones para que los recursos puedan compartirse concurrentemente.

· Los servidores NOS deben ejecutar sistemas operativos con características que se extienden más allá de las de las PCs cliente. Para poder soportar varios usuarios concurrentes y para proporcionar acceso compartido a los servicios, recursos y dispositivos de la red, los servicios NOS deben ser multiusuario, multitareas, y soportar varios procesadores.

· Linux es un sistema operativo semejante a UNIX que incluye código fuente, para que el usuario pueda cambiar o personalizar el software para que se adapte a necesidades específicas. La Iniciativa Fuente Abierta proporciona una marca registrada par los desarrolladores de software que deseen compartir, modificar y redistribuir su código.

· Existen diversas distribuciones diferentes de Linux disponibles. Cuál de ellas utilizar depende de muchas cosas. Algunas de las consideraciones básicas al decidir qué versión de Linux usar son factores tales como quién va a usar el sistema y qué tipo de trabajo va a hacer con él. Otros factores pueden incluir qué tipo de hardware puede instalarse si el sistema va a utilizarse como estación de trabajo o servidor.

· Incluso después de una instalación exitosa de Linux, habrá otros tipos de problemas de compatibilidad de software que será necesario tratar. Varios criterios, como el hardware o para qué se utilizará el sistema determinarán qué tipo de software instalar.

7. Instalación Descripción general

A un profesional IT se le pide en general que efectúe instalaciones de software, incluyendo software de aplicaciones y sistemas operativos. Instalar un sistema operativo (OS), especialmente un sistema operativo de red (NOS), puede ser una de las tareas de instalación más complejas. Este capítulo es una descripción general del proceso de instalación de un NOS, incluyendo cómo planificar la instalación y cómo resolver los problemas que se presenten.

7.1 Preparación para la Instalación

7.1.1 Instalación de un NOS

La instalación de un sistema operativo de red (NOS) se refiere al proceso de crear y copiar archivos del sistema del NOS a un disco rígido. Los archivos del sistema son los archivos que permiten el funcionamiento del sistema operativo. Muchos fabricantes envían las computadoras con el sistema operativo ya instalado. Esto es especialmente cierto en el caso de las computadoras de escritorio.

Los sistemas operativos (OSs) preinstalados o software NOS tienen varias ventajas. Adquiriendo una PC o servidor con un OS preinstalado, un cliente evita el complejo proceso de instalación y configuración. Además, un OS que está pre-cargado en un sistema está en general optimizado para la configuración de hardware particular de ese sistema.

Page 169: Documento de Apoyo No. 4 Cisco It Essentials II

169

La desventaja de la preinstalación es que un cliente puede no ser capaz de controlar las características, paquetes y configuración exactos del OS o NOS. Aunque es posible hacer cambios a un OS después del proceso de instalación, hay algunas configuraciones que no pueden deshacerse o que sólo pueden modificarse con extrema dificultad.

A pesar de estas desventajas, algunos clientes pueden desear que el fabricante del servidor instale un NOS antes de enviar el sistema. No obstante, la mayoría de las organizaciones instalan el NOS ellas mismas. Hacer la instalación en la organización asegura que el servidor esté optimizado para las funciones específicas de la organización. Además, los administradores de NOS usualmente prefieren tener un control directo de las versiones de software, actualizaciones, y patches instalados en el sistema. La Figura ilustra un ejemplo de configuraciones específicas que un administrador puede necesitar configurar. Si el sistema viniera con un sistema operativo preinstalado, ciertas cosas como las configuraciones del cargador de inicio Linux Loader (LILO) pueden no configurarse apropiadamente.

7.1 Preparación para la Instalación

7.1.2 Planificación del sistema

La instalación del NOS deberá prepararse cuidadosamente. Primero, haga un inventario del hardware del sistema. No existe un NOS que funcione con todo el hardware de computadoras, de modo que determine si el hardware actualmente disponible funcionará con el NOS. Segundo, determine si el NOS soporta o no todo el software de aplicaciones que se cargará en el sistema. Tercero, familiarícese con el NOS en sí mismo. Como parte del proceso, tendrán que tomarse importantes (y a veces irreversibles) decisiones de configuración.

Cada fabricante de NOS establece lo que se denomina "requisitos mínimos del hardware" para su software. Los requisitos mínimos de hardware en general se concentran en el tipo y velocidad de la unidad central de procesamiento (CPU), cantidad de RAM, y la cantidad de espacio disponible en el disco rígido. La siguiente sección proporciona una revisión de estos componentes clave.

Es relativamente fácil determinar si un sistema cumple o no los requisitos mínimos del NOS. También determine si el NOS puede soportar los periféricos de hardware del sistema. Esto es especialmente importante para periféricos caros o críticos para la misión, como equipo de video de alto rendimiento o hardware de almacenamiento de alta capacidad.

Al planificar instalar un NOS, lleve a cabo un inventario de hardware completo. En entornos de producción, deberá compilarse un inventario formal escrito. Una vez completado, verifique con los sitios web de los fabricantes, personal de soporte, e incluso grupos de noticias para determinar si se soporta el hardware del inventario. Puede ser necesario descargar e instalar controladores de software o actualizaciones de firmware antes de que el hardware funcione apropiadamente con el NOS.

Page 170: Documento de Apoyo No. 4 Cisco It Essentials II

170

Haga un inventario de cualquier aplicación que se ejecutará en el mismo servidor. Si la organización se apoya en software personalizado o software heredado, verifique con los fabricantes para asegurar la compatibilidad. El software se considera software heredado si es antiguo y no puede actualizarse, pero aún está en uso porque algunos componentes de la red necesitan los servicios que proporciona. La mayor parte de los administradores eligen cargar y probar las aplicaciones en el NOS antes de presentar un NOS a una red.

Finalmente, conozca los conceptos básicos acerca de un NOS en particular antes de instalarlo. Por ejemplo, sepa cómo un NOS en particular maneja el particionamiento de unidades, el formateo de disco, y las cuentas administrativas. El siguiente es un listado de verificación de planificación del sistema:

· Hacer un inventario del hardware del sistema y determinar la compatibilidad con el NOS. · Verificar que todas las aplicaciones de software deseadas están soportadas por el NOS. · Investigar el NOS y familiarizarse con el procedimiento de instalación antes de realmente

instalarlo.

Estos temas se tratan posteriormente en este capítulo.

7.1 Preparación para la Instalación

7.1.3 Planificación para la instalación del hardware

El primer paso que el especialista en hardware de servidores debería intentar es verificar que todo lo especificado en el plano de instalación esté listo y disponible antes de comenzar la instalación. Las actividades de verificación incluyen las siguientes:

· Verificar que la ubicación donde el servidor ha de instalarse esté lista para la instalación. · Verificar que la salida de energía del servidor de la red esté disponible y activa. (Probar con un

voltímetro/medidor de ohms). · Verificar que la conexión a la red esté disponible y activa. · Verificar que todo el hardware para el servidor de red ha llegado y que el hardware esté según

lo especificado en el plano de instalación.

Verificación del Sitio de la Instalación Después de leer y verificar el plano de instalación, el especialista en hardware de servidores deberá visitar el sitio de la instalación y verificar que todo este listo en la locación. Una de las primeras cosas a observar es la habitación en sí. Es necesario modificar las necesidades de la habitación para asegurarse de que la vida del servidor no sea limitada. Las dos cosas que tienen el más grande impacto en el servidor son temperatura y humedad. Disponibilidad de energía, espacio en el suelo, supresión de inundaciones e incendios son otros elementos que necesitan observarse antes de comenzar.

Verificación de la Fuente de Alimentación El especialista en hardware del servidor deberá verificar que la energía necesaria para el servidor de la red está realmente disponible y viva. Asegúrese de verificar que el voltaje para la fuente de alimentación sea el correcto usando un voltímetro/medidor de ohms o multímetro digital. El voltaje correcto para Norteamérica y Latinoamérica son 120 volts nominales. El voltaje correcto para Europa,

Page 171: Documento de Apoyo No. 4 Cisco It Essentials II

171

Medio Oriente y África son 230 volts nominales. La fuente de alimentación también debería estar en un circuito de alimentación propio. También verifique que la fuente de alimentación tenga el amperaje correcto y que el enchufe sea de la configuración correcta. Como la fuente de alimentación ininterrumpida (UPS) es el componente que ha de enchufarse a la fuente de alimentación, esta información puede hallarse en la documentación de la UPS. La UPS puede requerir un circuito de 20 amp o 30 amp, en lugar de uno más común de 15 amp. La UPS también puede tener un enchufe con traba especial, que por supuesto requeriría un enchufe de pared especial.

Además de estas áreas clave, cree un inventario de periféricos y placas de expansión usadas con el sistema, según se describe en la siguiente sección.

Verificación del Tamaño de la UPS La UPS deberá ser del tamaño adecuado para mantener al servidor de la red en funcionamiento lo suficiente como para llevar a cabo un apagado normal. Este periodo es usualmente de 5 a 10 minutos. Una UPS de un tamaño inferior al necesario mantendrá al servidor en funcionamiento sólo un tiempo muy breve. Una UPS de un tamaño superior al necesario no sólo mantendrá al servidor de red operativo durante un periodo más largo durante un respaldo de energía sino que también permitirá el crecimiento del servidor de red (agregando componentes al servidor de red a lo largo del tiempo). La UPS deberá ser lo suficientemente grande como para soportar a todos los componentes del servidor de red que están conectados a (enchufados a) la UPS. El tamaño de una UPS se especifica con un índice volt-amp (VA). Cuanto mayor es el índice VA de la UPS, más tiempo la UPS puede mantener el servidor de red en funcionamiento en caso de un fallo en la energía. Un índice VA más grande permite agregar componentes de servidor de red adicionales.

Temperatura Adecuada en la Sala de Servidores El sitio deberá tener capacidad de acondicionamiento de aire adecuada para manejar la adición del servidor de red a instalar. El plano de instalación deberá enunciar la salida de calor de los dispositivos que serán parte de la instalación de servidores de red (chásis, monitor, UPS, etcétera). Puede ser difícil determinar la carga de calor actual (medida en Unidades Térmicas Británicas, BTUs) de la habitación donde el servidor de red ha de ser instalado. Un indicador adecuado de la capacidad de enfriamiento disponible en la sala donde se instalará el servidor de red es la temperatura de la sala. Si la temperatura de la habitación es más de 72 grados Fahrenheit (alrededor de 22 grados centígrados) sin que el nuevo servidor de red esté instalado, es dudoso que haya una refrigeración adecuada para el nuevo servidor de red. Es por eso que es una buena idea tener una unidad de aire acondicionado dedicada sólo para la sala de servidores.

La mayoría de los servidores usan ventiladores internos como refrigeración. Para que estos ventiladores funcionen apropiadamente y proporcionen una refrigeración adecuada tiene que haber un espacio despejado adecuado alrededor del servidor para un flujo de aire apropiado. De acuerdo a la mayoría de las especificaciones, un área de tres pies (aproximadamente un metro) en el frente y detrás del servidor proporcionará una refrigeración adecuada. La Figura ilustra un ejemplo de un servidor con el espacio apropiado alrededor. Esto permitirá que un flujo de aire y temperatura apropiados pasen a través del servidor.

Verificación de la Conexión de Red Es necesario determinar el tipo y velocidad de la conexión correctos según las necesidades del servidor antes de que el servidor realmente sea instalado. El usuario puede probar esto usando otro sistema informático con el adaptador de red apropiado instalado para ver si la conexión de red que será utilizada por el servidor de red es funcional y correcta.

Page 172: Documento de Apoyo No. 4 Cisco It Essentials II

172

7.1 Preparación para la Instalación

7.1.4 Componentes de hardware del servidor

Primero, el administrador de red necesita verificar los componentes que se utilizarán para ensamblar el servidor de red. Algunos fabricantes de servidores de red no ensamblan todo el hardware para un servidor de red cuando se lo encarga. El administrador de red debe poder tomar todos los componentes y ensamblarlos para formar un servidor de red funcional.

Chásis del Servidor Verifique que el chásis del servidor sea del modelo correcto que se encargó y del factor de forma correcto. La mayoría de los chásis de servidor son de una configuración en torre, una configuración en torre ancha o "gorda", o una configuración para montar en un rack. Asegúrese de que si se encargó un modelo X de configuración en torre, que realmente el Modelo X en configuración en torre sea el entregado, y no el Modelo X en configuración para montar en un rack. Las Figuras , , y proporciona ejemplos de los diferentes estilos de servidores. Cuál es mejor dependerá de diversas cosas e incluye cuánto espacio está disponible para el servidor.

Page 173: Documento de Apoyo No. 4 Cisco It Essentials II

173

Rack para el Servidor Un chásis de servidor para montaje en rack debe montarse en un rack para equipo diseñado para hardware montado en rack. La mayor parte de los fabricantes de servidores que venden servidores en un chásis montable en rack también venden el rack para el servidor. Los racks para servidor vienen en varios tamaños (alturas). El tamaño se mide en unidades de rack (U). Una unidad de rack estándar mide 1,75 pulgadas. Un servidor de red nuevo estará instalado en un rack para servidor existente o se adquirirá un rack para servidor nuevo para el nuevo servidor de red. Los racks para servidores en general tienen puertas frontales y traseras y paneles laterales para formar una unidad completamente cerrada. Las puertas y paneles laterales ayudan a formar un entorno seguro y también están diseñados para ayudar a refrigerar el equipo del rack controlando los patrones de flujo de aire. En la mayoría de los casos, varios racks para servidores pueden unirse para formar un espacio de instalación para una gran cantidad de servidores. La Figura muestra un ejemplo de un rack para servidor sin puertas. La Figura muestra un ejemplo de rack para servidor con puertas.

Una instalación de servidor montado en rack conserva espacio en la habitación donde residen los servidores. Si se decidió seguir con una configuración montada en rack, en general, todo el equipo debe estar diseñado para encajar en el rack para servidor. Esto incluye la UPS, el teclado/mouse, y el monitor (LCD o CRT) para el servidor. La instalación del equipo en el rack de servidor deberá hacerse según las especificaciones del fabricante del servidor. Varios fabricantes de servidores ofrecen software para ayudar en la ubicación apropiada del equipo en el rack. Por ejemplo, todos los fabricantes de servidores recomiendan que la UPS se instale en la parte inferior del rack. Esto se hace por varias

Page 174: Documento de Apoyo No. 4 Cisco It Essentials II

174

razones, incluyendo el peso de la UPS montada en rack y la necesidad de evitar el posible daño a un servidor de red ocasionado por una batería de UPS con pérdidas.

Procesador(es) Los servidores de red tienen por lo común más de un procesador. Verifique que la cantidad y tipo correctos de procesadores estén disponibles para el servidor de red. Algunos fabricantes de servidores instalan todos los procesadores que se encargaron. Otros fabricantes proporcionan el servidor con cero o un procesador instalado, y el administrador de red debe instalar cualquier procesador adicional. Verifique que los procesadores sean del mismo tipo, velocidad y stepping (versión). También verifique que cada procesador tenga el mismo tamaño de caché L2. Siga las instrucciones del fabricante de red para instalar procesadores adicionales.

Memoria Los servidores de red en general requieren una cantidad considerable de memoria para que lleven a cabo su función. Algunos fabricantes de servidores instalan toda la memoria que se encargó. No obstante, otros fabricantes de servidores proporcionan el servidor con una cantidad estándar de memoria, y el administrador de red debe instalar la memoria por encima de la cantidad estándar. Verifique que el servidor tenga la cantidad de memoria que se encargó. Si parte de la memoria debe instalarse, verifique que la memoria sea del tipo correcto para el servidor y siga las instrucciones del fabricante de hardware del servidor para la instalación de la memoria adicional. Éste es un paso crítico. Algunos servidores requieren que la memoria se instale en grupos de 2 ó 4 módulos de memoria. (Verifique la documentación del fabricante del servidor para ver si los módulos de memoria deben instalarse en grupos de 2 ó 4, en lugar de a uno). El instalar la memoria incorrectamente resultará en que el servidor no reconocerá toda la memoria instalada o en que el servidor no arranque en absoluto.

Unidades de Disco Muchas configuraciones de servidor de red requieren que una gran cantidad de almacenamiento en disco esté disponible en el servidor. Verifique que las unidades de disco sean del tamaño, velocidad y tipo (IDE/ATA, EIDE/ATA-2, SCSI, SCSI-2, SCSI-3) correctos. Las unidades de disco pueden venir instaladas en el chásis del servidor o podrían venir en cajas acolchadas separadas para evitar daños. El plano de instalación especificará qué unidades de disco (tamaño, velocidad y tipo) deberán instalarse en el servidor de red.

Monitor, Teclado y Mouse Verifique que el monitor para el servidor de la red sea según lo encargado. En general el monitor deberá soportar una resolución VGA de al menos 1024 por 768 puntos por pulgada (dpi). EL monitor puede ser del tipo tradicional CRT o uno de los más modernos monitores planos de LCD. Si el monitor ha de montarse en el rack, será necesario adquirir un estante especial para el monitor. Están disponibles monitores planos de LCD especiales montados en el rack. Éstos a menudo incluyen una combinación de teclado/trackball o touch pad (sustituto para un mouse) en un único cajón de rack.

Fuente de Alimentación Ininterrumpida (UPS) Verifique que una UPS esté disponible para el servidor de red. La UPS deberá ser de tamaño adecuado para soportar el servidor de red durante un breve periodo, que permitirá apagar correctamente el servidor. Las UPSs montadas en rack están disponibles para instalaciones de servidor de red montadas en rack. Todas las UPSs deberán ser capaces de monitorearse por el servidor de red, a través de un cable de comunicaciones USB o serial. Si la UPS ha de ser monitoreada mediante la conexión serial, asegúrese de que una conexión serial esté disponible en el servidor de red. Mediante la adquisición de hardware adicional para la UPS, el administrador de red puede usualmente monitorear una UPS a través de la red. Las UPSs de calidad superior a menudo permiten al administrador de red monitorearlas mediante una consola de administración SNMP o una interfaz web incorporada. Esto permitirá al administrador de red rastrear la UPS desde cualquier conexión de Internet, una característica adicional para un administrador.

Sistema de Respaldo Verifique que el sistema de respaldo sea tal como fue especificado en el plano de instalación y que sea adecuado para soportar el respaldo del servidor de red. El sistema de respaldo es en general una

Page 175: Documento de Apoyo No. 4 Cisco It Essentials II

175

unidad de cinta magnética de una u otra forma. La unidad de cinta deberá ser capaz de respaldar el contenido de las unidades de disco del servidor de la red en el tiempo correcto. La capacidad de la unidad de cinta y la velocidad a la cual los datos pueden transferirse a la unidad de cinta son ambos de importancia crítica. Si el administrador de red determina que dadas las especificaciones de la unidad de cinta, un respaldo completo del servidor de red tomaría 10 horas y el administrador de red sólo tiene 4 horas para llevar a cabo el respaldo, por ejemplo, la unidad de cinta es inadecuada para el trabajo. El administrador de red también puede hacer respaldo de otros dispositivos, como unidades de disco rígido, dispositivos CD-R y dispositivos CD-RW. Los dispositivos de respaldo deberán instalarse en un controlador separado de las unidades de disco del servidor de red, para proporcionar un desempeño pico durante el proceso de respaldo.

Cables SCSI Verifique que se hayan entregado los cables correctos para conectar el controlador de canales SCSI a los dispositivos SCSI (unidades de disco). Los cables SCSI difieren distintamente entre sí (por ejemplo, SCSI-1, SCSI-2, y SCSI-3). Las versiones anchas de SCSI-2 y SCSI-3 utilizan diferentes cables. Los cables SCSI internos son en general cables ribbon, con el pin 1 identificado por una franja (usualmente roja) en el borde del cable. Los cables SCSI externos vienen generalmente en un atado redondo. Verifique que los cables SCSI tengan la cantidad correcta de conectores para la configuración de servidores de red. Asegúrese de que los cables SCSI no excedan los máximos de longitud del canal SCSI. También asegúrese de que los cables SCSI tengan los suficientes conectores como para permitir la conexión de todos los dispositivos SCSI. Si el administrador de red necesita conectar cuatro unidades de disco SCSI a un canal SCSI, por ejemplo, el cable SCSI necesita al menos cuatro conectores para las unidades de disco, más uno donde puede conectarse al adaptador SCSI.

Adaptador(es) SCSI Verifique que el adaptador SCSI correcto esté disponible. Muchos servidores de red tienen uno o más adaptadores SCSI incorporados. Adaptadores SCSI adicionales pueden requerirse para soportar la cantidad de dispositivos SCSI que se utilizarán con el servidor de red. Asegúrese de que el adaptador SCSI y los dispositivos SCSI sean del mismo tipo de SCSI (SCSI-1, SCSI-2, SCSI-3, etcétera). Asegúrese de que la interfaz del adaptador SCSI coincida con el bus que se encuentra en el servidor de red por ejemplo, EISA, PCI, o PCI-64.

Controlador(es) de Redundant Array of Inexpensive Disks (RAID) Si el servidor de red va a usar la versión de hardware de RAID, verifique que el controlador de RAID esté disponible. El controlador de RAID deberá entregarse con el software de configuración. El controlador de RAID debe configurarse antes de poder instalar el sistema operativo de red. La mayoría de los controladores de RAID están diseñados para soportar alguna versión de las unidades de disco SCSI. Asegúrese de que el controlador RAID coincide con el bus que se encuentra en el servidor de la red por ejemplo, EISA, PCI, o PCI-64.

Adaptador de Bus de Host de Canal de Fibra-Bucle Arbitrado Si el servidor de red va a estar usando sistemas de disco de Canal de Fibra-Bucle Arbitrado (FC-AL), verifique que el adaptador de bus de host (HBA) de Canal de Fibra haya sido entregado. El Canal de Fibra puede usar cable de fibra óptica o alambre de cobre para el medio de conexión. Asegúrese de que HBA tenga la conexión correcta (fibra óptica o cobre) y de que se incluyan los cables correctos. La vasta mayoría de instalaciones FC-AL tienen el sistema de discos externos al chásis del servidor de red.

Placa(s) de Interfaz de Red Verifique la disponibilidad de la placa de interfaz de red (NIC) para el servidor de red. Algunos servidores de red tienen la NIC incorporada al servidor de red. Si se requieren NICs redundantes para el servidor de red, verifique que todas las NICs estén disponibles. Asegúrese de que la NIC soporta el tipo de red donde el servidor de red va a instalarse (Ethernet, Token Ring, etcétera). También podrían instalarse varias NICs en un único servidor de red si éste ha de conectarse a varias redes.

Hardware Misceláneo Podría requerirse otro hardware para el servidor de red. El servidor de red sí requiere una adaptadora

Page 176: Documento de Apoyo No. 4 Cisco It Essentials II

176

de video para soportar el monitor del servidor de red. No hay razón para gastar mucho dinero en una adaptadora de video lujosa que tenga una gran cantidad de memoria de video para soportar una resolución de video extremadamente alta y billones de colores. El monitor de video en un servidor de red se utiliza en general sólo para llevar a cabo funciones administrativas en el servidor de red. Un adaptador de video que pueda soportar una resolución VGA de hasta 1024 por 768, y 65.536 colores debería ser adecuado para la mayoría de los servidores de red.

Muchos fabricantes de hardware para vendedores tienen un adaptador de administración de servidor especializado que puede adquirirse e instalarse en sus servidores de red. Estos dispositivos en general monitorean la "salud" del hardware de servidores y pueden ser usados por un software de administración de servidores ejecutándose en una computadora de administración designada. Algunos de estos dispositivos tienen un módem incorporado, que permitirá el monitoreo del hardware de servidores mediante una conexión telefónica de entrada.

Un servidor de red montado en rack podría incluir un switch teclado/video/mouse (KVM) para permitir el uso de un teclado, una pantalla y un mouse de parte de varios servidores de red en un único rack. El switch KVM permite al teclado, mouse y pantalla de video alternar (usualmente desde el teclado) entre los servidores de red del rack. Esto ahorra espacio en el rack, porque cada servidor de red no requerirá su propio teclado, mouse y monitor. Algún ahorro de costos también está asociado al hecho de compartir el teclado, mouse y monitor, porque el administrador de red no tiene que comprarlos para cada servidor.

Un servidor de red también debería tener algunos dispositivos encontrados comúnmente en la mayoría de los sistemas de computadora de escritorio, como una disquetera de 3,5 pulgadas y una unidad de CD-ROM o DVD-ROM. Estos dispositivos se requieren para instalar software del sistema operativo, controladores del hardware, y otro software en el servidor de red.

7.1 Preparación para la Instalación

7.1.5 Requisitos de hardware

Las versiones más actuales de NOSs populares, como Windows XP y Red Hat 7, sólo pueden ejecutarse en determinadas configuraciones de hardware. Las Figuras , , y bosquejan los requisitos mínimos del sistema para los sistemas operativos Windows y Linux. Al elegir instalar una versión de NOS, verifique que los elementos clave del hardware del sistema cumplan con los requisitos mínimos del NOS. Estas áreas clave son el tipo de CPU (arquitectura), velocidad de la CPU (medida en megahertz [MHz] o gigahertz [GHz]), cantidad de RAM, y cantidad de espacio en el disco rígido disponible.

Page 177: Documento de Apoyo No. 4 Cisco It Essentials II

177

Los fabricantes de NOS publican estos requisitos mínimos para que los administradores puedan planear sus sistemas. Algunos programas de instalación de NOS no se completarán si detectan un sistema que no cumple con los requisitos mínimos de hardware.

Además de estas áreas clave, cree un un inventario de periféricos y placas de expansión usadas con el sistema, tal como se describe en la siguiente sección.

Microsoft ha hecho disponible al público su herramienta Upgrade Advisor en su sitio web:

http://www.microsoft.com/windowsxp/ pro/howtobuy/upgrading/advisor.asp

Esta herramienta verifica el hardware y software del sistema para ver si está listo para una actualización a Windows XP. La Figura proporciona un ejemplo de una función de Windows XP que automáticamente verificará si el sistema tiene suficientes recursos para ser actualizado a Windows XP. El CD-ROM de Windows XP también incluye esta utilidad.

Page 178: Documento de Apoyo No. 4 Cisco It Essentials II

178

7.1 Preparación para la Instalación

7.1.6 Creación de un inventario de hardware

El inventario de hardware deberá crearse antes de ejecutar cualquier programa de instalación o antes de cualquier intento de preparar el disco duro para la instalación. De ser necesario, abra el gabinete del sistema y examine las placas de expansión para determinar el fabricante y chipset que se están usando. Si han venido manuales con el sistema, consúltelos también. Finalmente, si otro sistema operativo ya está instalado en el sistema, use las utilidades del sistema, como el Administrador de Dispositivos de Windows, para obtener información acerca del hardware instalado, lo que se muestra en la Figura .

El inventario de hardware deberá incluir la siguiente información sobre cada dispositivo:

· Tipo de dispositivo · Fabricante · Número de modelo · Versión del controlador del dispositivo · Número de revisión del BIOS

Un inventario de hardware también enumera todas las placas de expansión y dispositivos periféricos conectados al sistema.

Algunas instalaciones pueden requerir más detalles acerca del software, como el slot donde está ubicada una placa de expansión, o incluso las configuraciones de jumper de una placa en particular. La mayor parte de esta información puede obtenerse usando una utilidad como el Administrador de Dispositivos. Las Figuras , , y muestran las diferentes pantallas que se usan para ver las propiedades, detalles extra, y recursos que el dispositivo está usando.

Page 179: Documento de Apoyo No. 4 Cisco It Essentials II

179

Las últimas versiones de la mayor parte del software y los NOSs usan diversos métodos para detectar y configurar el hardware. No obstante, las placas de expansión y software más antiguos pueden no ser compatibles con estos métodos de detección automáticos, como plug-and-play. En algunos casos, será necesario inspeccionar físicamente la placa de expansión para registrar sus configuraciones de jumpers y número de slot. La Figura presenta una muestra de un inventario de hardware.

7.1 Preparación para la Instalación

7.1.7 Identificación del hardware utilizando el Administrador de Dispositivos

Antes, los dispositivos estaban instalados sólo si el usuario instaló los controladores de dispositivo. Hoy, el nuevo método es plug-and-play basado en PCI. Aún es fácil ver qué dispositivos no han tenido controladores instalados. En el OS Windows 2000, el dispositivo aparecerá con un signo de interrogación amarillo junto al nombre del dispositivo en el Administrador de Dispositivos. Un ejemplo

Page 180: Documento de Apoyo No. 4 Cisco It Essentials II

180

de esto se muestra en la Figura .

Windows 2000 En Windows 2000, la forma más fácil de identificar si el controlador de hardware no ha sido instalado es observar el dispositivo y ver si tiene un signo de interrogación en un círculo amarillo junto a él. Este ícono significa que Windows 2000 reconoció el dispositivo pero no pudo encontrar un controlador adecuado para él. En el Administrador de Dispositivos, el usuario tiene la opción de actualizar el controlador. El usuario puede ordenarle a Windows 2000 que busque en el CD o en Internet el controlador más apto. El usuario también puede borrar el controlador y reiniciar la PC y Windows pedirá al usuario nuevamente que busque un controlador apropiado.

7.1 Preparación para la Instalación

7.1.8 Verificación de listas de compatibilidad de hardware

Una vez completo el inventario de hardware, verifique con los fabricantes del NOS y el hardware que éste último es compatible con el NOS. Aunque los manuales de software y hardware pueden contener información de compatibilidad, la fuente más actualizada de esta información es la World Wide Web. El sitio web del fabricante de hardware proporciona la última información acerca de una placa de expansión o periférico en particular. Estos sitios web en general incluyen controladores de software, actualizaciones de firmware, y, si cabe, información sobre configuraciones de jumpers.

El sitio web de Red Hat ofrece una lista de compatibilidad de hardware, como lo muestra la Figura . La página de soporte de Microsoft puede usarse para hallar información de compatibilidad sobre hardware específico de terceros.

Page 181: Documento de Apoyo No. 4 Cisco It Essentials II

181

La última lista de compatibilidad de hardware para los siguientes sistemas operativos de red puede hallarse en los siguientes sitios web:

· Microsoft Windows NT and Windows 2000 - http://www.microsoft.com/whdc/ hcl/default.mspx

· Linux (Red Hat) - http://www.redhat.com/ support/hardware/ · Linux (SuSE) - http://cdb.suse.de/index.php?%20LANG=enUK&amp;PHPSESSID=

%2082afbdf72 c0c31537924627564e4c66c · Caldera OpenLinux - http://wdb1.caldera.com/ chwp/owa/hch_search_form

7.1 Preparación para la Instalación

7.1.9 Verificación de la red

La configuración de red consiste en seleccionar el protocolo de red y configurarlo para que opere correctamente en la red. La mayoría de los servidores de red usan el protocolo TCP/IP o el protocolo IPX/SPX o ambos.

Para configurar TCP/IP, el usuario necesita la siguiente información:

· Dirección IP · Máscara de subred · Gateway por defecto · Dirección IP del o de los servidor(es) DNS

El usuario puede usar los siguientes comandos para ver o cambiar la configuración de la red para diversos sistemas operativos:

· Windows NT/Windows 2000 Server - ipconfig · UNIX/Linux - ifconfig

Verificación de la Conectividad de la Red Para probar la conectividad de la red cuando se usa el protocolo TCP/IP, todos los sistemas operativos de red usan el comando ping.

Un comando ping exitoso usando una dirección TCP/IP en un sistema Windows debería tener el aspecto de la imagen mostrada en la Figura . Un ping exitoso en Linux se parecería a la imagen de la Figura . Un comando ping no exitoso en Windows se muestra en la Figura y el comando ping sin éxito en

Page 182: Documento de Apoyo No. 4 Cisco It Essentials II

182

Linux se muestra en la Figura .

La mejor dirección IP para hacer ping es la dirección IP del gateway por defecto, porque siempre debería estar disponible para devolver la solicitud ping si el sistema está apropiadamente configurado para acceder a la red o a Internet. Ésta es una técnica de resolución de problemas común que se usa cuando un sistema no se está conectando a la red para determinar si el problema reside dentro del sistema en sí o en otro lugar de la red.

7.2 El Proceso de Instalación

7.2.1 Medios de instalación

Una vez seleccionado el NOS que cumple con los requisitos de la red y el hardware, debe determinarse el medio de instalación, como un CD-ROM, la red o diskettes. En general, un NOS se instala usando un CD-ROM que contiene los archivos del sistema y un programa de instalación. En algunos casos, un NOS se instala mediante diskettes. La instalación usando diskettes se ha venido haciendo cada vez menos común a medida que los sistemas operativos han crecido en tamaño y las unidades de CD-ROM se han vuelto estándar en virtualmente todos los modelos de PC.

Si se dispone de una conexión a Internet de alta velocidad, puede ser posible instalar una versión de Windows, UNIX o Linux mediante una red. Con una conexión LAN, es posible instalar la mayoría de

Page 183: Documento de Apoyo No. 4 Cisco It Essentials II

183

NOSs usando la red local. La siguiente lista resume los métodos de instalación más comunes.

CD-ROMs Booteables Si el sistema tiene una unidad de CD-ROM y puede bootearse desde el CD, puede llevarse a cabo una instalación local por CD-ROM. Este método es relativamente rápido y es el más simple método de instalación. Puede ser necesario descargar patches y otras actualizaciones del sitio web del fabricante antes de colocar a la computadora en producción.

Booteo desde el Diskette y CD-ROM Si el sistema tiene una unidad de CD-ROM pero no es posible bootear desde el CD, aún puede realizarse una instalación local desde un CD-ROM después de bootear desde un diskette (o, en algunos casos, un disco rígido). Al bootear desde un diskette, asegúrese de que los controladores de software del CD-ROM estén cargados desde el disco booteable o desde alguna otra fuente. Sin los controladores de software, no puede accederse al CD-ROM. Bootear desde un diskette y después instalar desde un CD-ROM tiene las mismas ventajas y desventajas que bootear directamente desde el CD, con la complicación agregada de la necesidad de crear el disco booteable primero. La mayoría de los fabricantes de NOS proporcionan programas que crean los diskettes de instalación apropiados.

Solamente Diskette Algunos NOSs más antiguos o muy pequeños pueden cargarse enteramente desde una serie de diskettes. Una ventaja de este método es que no se requiere un CD-ROM. La obvia desventaja es que copiar archivos desde varios diskettes es increíblemente lento.

Booteo desde Diskette/Disco Rígido/o CD e Instalación desde la Red En este caso, el sistema se bootea mediante un diskette y el NOS se instala después desde un servidor de red local. Este método también puede usarse al bootear desde una unidad de disco rígido o un CD. Las instalaciones desde la red pueden ser rápidas y convenientes, pero requieren complejas configuraciones y pruebas. Para que este método funcione, un administrador debe cargar una copia o imagen del NOS en un servidor y configurar el servidor para permitir acceso a clientes. En general, las instalaciones de red se basan en el Sistema de Archivos de Red (NFS) o el Protocolo de Transferencia de Archivos (FTP). Unos pocos NOSs permiten la opción de bootear mediante un diskette (o incluso un CD-ROM) e instalar la última versión del NOS a través de Internet. La ventaja de este método es que se instala la última versión del NOS. Otra ventaja de menor importancia es que la instalación puede llevarse a cabo incluso si el sistema no tiene una unidad de CD-ROM. No obstante, este método requiere una conexión a Internet de relativamente alta velocidad. Además, instalar a través de Internet es en general complejo y poco confiable.

Page 184: Documento de Apoyo No. 4 Cisco It Essentials II

184

7.2 El Proceso de Instalación

7.2.2 Configuración del BIOS

En particular con motherboards antiguos y sistemas operativos antiguos, las configuraciones del Sistema Básico de Entrada/Salida (BIOS) juegan una parte importante en el proceso de instalación. El BIOS del sistema en general reside en la ROM en el motherboard y es el primer programa ejecutado cuando se enciende un sistema. Es responsable de probar los dispositivos de hardware usando un proceso llamado Auto-Prueba de Encendido (POST). El BIOS también carga el sistema operativo desde diversos medios, incluyendo discos rígidos, diskettes y usualmente CD-ROMs.

Al configurar sistemas más antiguos, la información acerca de cada unidad de disco conectada puede tener que ser introducida manualmente en la utilidad de configuración del BIOS. En el caso de hardware y sistemas operativos nuevos o con sólo algunos años de antigüedad, el BIOS del sistema es capaz de detectar automáticamente las unidades de disco y otro hardware.

Para instalaciones basadas en CD de estos sistemas más nuevos, la única configuración del BIOS que es importante es la que permite bootear desde el CD-ROM. La Figura muestra la utilidad de configuración del BIOS de un BIOS Award. Para este BIOS, la opción "Boot Sequence" determina si el sistema booteará o no primero desde un CD-ROM, el disco rígido o un diskette.

7.2 El Proceso de Instalación

7.2.3 El programa de instalación

Un programa de instalación controla y simplifica el proceso de instalación. Dependiendo del NOS, el programa de instalación pide al usuario la información de configuración. La mayoría de los programas de instalación permiten el particionamiento y formateo del disco rígido antes de copiar los archivos del sistema. El particionamiento y el formateo se tratan en las siguientes secciones.

En Windows, el programa de instalación se llama setup.exe. En un sistema Red Hat Linux, el programa de instalación se llama actualmente Anaconda. Estos programas guían al usuario a través del proceso de instalación del NOS.

El programa de instalación hará una serie de preguntas. Las Figuras y proporcionan ejemplos de cómo el programa de instalación de Red Hat 7.X pregunta qué idioma y disposición del teclado usar. Estas preguntas son típicas de los programas de instalación.

Page 185: Documento de Apoyo No. 4 Cisco It Essentials II

185

Los programas de instalación también dan al usuario la opción de instalar un conjunto por defecto de componentes o elegir cada componente de manera manual. La Figura muestra la pantalla de instalación de Linux en la cual los usuarios elegirían si quisieran personalizar sus opciones de instalación. Si se instala un NOS por primera vez, o si se instala un NOS en un servidor de no producción, considere el uso de uno de estas opciones por defecto. Usar una configuración por defecto simplifica el proceso de instalación y asegura que no se creará un sistema que funcione mal o no funcione.

Si el servidor va a ser puesto en producción, considere seriamente una instalación personalizada. Elegir manualmente los componentes y funciones garantizará que el sistema esté armado para las tareas específicas requeridas en un entorno específico.

7.2 El Proceso de Instalación

7.2.4 Particiones del disco

Para usar eficientemente el espacio de almacenamiento de un disco rígido, el disco se divide en secciones llamadas particiones. Cada partición es una división lógica del disco rígido. Un disco puede tener una o más particiones. En general, un servidor de red se configura con varias particiones antes de instalar el NOS. Un sistema con varias particiones de disco tiene las siguientes ventajas:

· Varios sistemas operativos pueden instalarse en el mismo disco.

Page 186: Documento de Apoyo No. 4 Cisco It Essentials II

186

· Los datos pueden separarse físicamente de los archivos de sistema para proporcionar seguridad, administración de archivos, y/o tolerancia a fallos.

· Puede crearse una partición específica, llamada partición de intercambio, para suplementar la RAM del sistema y mejorar el desempeño.

Una vez que un disco se divide en particiones, cada partición debe formatearse para que los datos puedan almacenarse ahí. En un sistema Windows, las particiones formateadas en un disco rígido se etiquetan usando una letra del alfabeto. La primera partición se etiqueta con una C, la segunda partición, si la hay, con una D, etcétera. Hay tres tipos de particiones que pueden existir en una unidad de disco rígido. Una partición principal es lo mismo que una partición original. Las particiones extendidas son variantes de una partición principal, que actúa como placeholder para las particiones lógicas. Las particiones lógicas son particiones que se crean dentro de las particiones extendidas. En cualquier sistema operativo, puede haber hasta cuatro particiones principales o tres particiones principales y una partición extendida.

La disposición de las particiones se almacena en la tabla de particiones. La Figura proporciona una representación lógica de cómo se dispone una tabla de particiones de muestra. A partir de este ejemplo, las dos particiones lógicas (hda5 y hda6) están contenidas en la partición extendida hda2. La tabla de particiones se ubica en el primer sector del disco rígido, donde está instalado el sistema operativo. Este sector del disco rígido se denomina Master Boot Record (MBR). La Figura ilustra cómo el MBR contiene información sobre todas las otras particiones que se crean. Esta sección también contiene determinados parámetros y código, que la computadora necesita para funcionar una vez que se inicializa el BIOS. Incluso aunque las particiones lógicas están almacenadas dentro de la partición extendida, que está fuera del MBR, aún se las considera parte de la tabla de particiones porque definen ubicaciones de particiones.

Requisitos para las Particiones Linux Linux maneja los esquemas de particiones principal, extendida y lógica de manera un poco diferente a otros sistemas operativos. Linux numera sus particiones principal y extendida de uno a cuatro y las particiones lógicas son los números de cinco en adelante. Por ejemplo, si el usuario creara dos particiones principales y una partición extendida, las particiones principales se numerarían uno y dos respectivamente y la partición extendida se numeraría cuatro. La partición extendida se numeraría cuatro y no tres porque los slots uno a tres están reservadas para particiones principales incluso aunque no se usen todas. En el caso de arriba, se crearon solamente dos particiones principales, así que sólo se omitió el slot tres. Por otro lado, las particiones lógicas siempre se numeran 5, 6, 7, etcétera, independientemente de la cantidad. No obstante las particiones lógicas siempre comienzan en cinco.

Linux tiene una partición raíz, que es la partición en la cual se instaló el OS y desde donde se arranca. La Figura muestra un ejemplo de los archivos raíz siendo instalados en la partición raíz. Como

Page 187: Documento de Apoyo No. 4 Cisco It Essentials II

187

mínimo, Linux necesita tener al menos una partición para que el sistema operativo sea instalado y permitirle arrancar. La partición raíz también se identifica como /. Esto hace referencia a la partición raíz porque toda la estructura de archivos se identifica por su ubicación en relación a /.

Opciones de Partición Al particionar un disco en Linux así como en otros sistemas operativos, hay varias opciones disponibles para que el administrador elija. Existen varias ventajas que vienen con el particionamiento de un disco rígido además de tener una partición raíz gigante. La partición montada en /boot contiene el kernel del sistema operativo, junto con los archivos usados durante el proceso bootstrap. Debido a las limitaciones de la mayoría de los BIOS de las PC, crear una partición pequeña para guardar estos archivos es una buena idea. Para la mayoría de los usuarios, una partición de 100 MB es suficiente.

Las particiones de intercambio se usan para soportar memoria virtual. En otras palabras, los datos se escriben en una partición de intercambio cuando no hay la suficiente RAM para almacenar los datos que su sistema está procesando. El tamaño de su partición de intercambio debería ser igual a dos veces la RAM de su computadora, o 32 MB; la cantidad más grande.

Particionamiento de Volúmenes RAID La idea básica detrás de RAID es combinar varias unidades de disco pequeñas y de bajo costo en un conjunto para lograr objetivos de buen rendimiento o redundancia que no se pueden lograr con una única unidad grande y de alto costo. Este conjunto de unidades parecerán a la computadora una única unidad de almacenamiento lógica.

RAID es un método en el cual la información se esparce a lo largo de diversos discos, usando técnicas tales como disk striping (RAID Nivel 0), disk mirroring (RAID Nivel 1), y disk striping con paridad (RAID Nivel 5) para lograr redundancia, más baja latencia y/o un incremento en el ancho de banda para leer o escribir en discos, y maximizar la capacidad para recuperarse de cuelgues en el disco rígido.

Los dispositivos RAID no pueden particionarse, como sí pueden los discos comunes, tienen que montarse como volúmenes usando LVM (Administración del Volumen Lógico). Un punto de montaje es la locación dentro de la jerarquía de directorios en la cual existe un volumen RAID; el volumen se "monta" en esta locación. Este campo indica dónde se montará la partición. Si existe una partición RAID, pero no está configurada, será necesario definir el punto de montaje para el volumen RAID.

Varios Discos Al instalar varios discos, el usuario debe crear por defecto más de una partición. El usuario debe crear al menos una partición para cada disco que se instala. La ventaja de hacer esto es que la partición puede instalarse en un único disco mientras que otro directorio, como el directorio /home puede instalarse en el

Page 188: Documento de Apoyo No. 4 Cisco It Essentials II

188

otro disco. Colocar los discos del directorio /home contendría todos los datos de los usuarios que se guardan en su directorio home y esos datos se guardarían en caso de que el directorio raíz falle.

Mejores Opciones de Seguridad Particionar una unidad de disco duro puede mejorar también la seguridad en la unidad. El acceso seguro para una partición puede ser mayor o menos que el acceso seguro para otra. Por ejemplo, si el directorio /home estuviera ubicado en su propia partición, el administrador podría tener una seguridad más estricta para el acceso a esa partición que contiene los directorios home de los usuarios.

Protección contra Multiplicación de los Datos Cualquier persona que use cualquier sistema operativo ha aprendido que suceden errores o ataques. A veces uno de estos errores pueden hacer que un archivo crezca continuamente a tamaños enormes tomando así todo el espacio de una partición y haciendo que el sistema de archivos colapse porque ya no puede crear archivos o directorios en esa partición. Particionar un disco rígido puede ayudar a reducir la cantidad de daño efectuado y a veces permitir al administrador detectar el problema antes de que pueda ocasionar demasiado daño. Esto se logra porque se reduce la cantidad de espacio en el disco rígido que este proceso puede consumir.

Protección contra Errores en el Disco Particionar un disco también puede ayudar en el caso de que un sector de la unidad de disco rígido se estropea o de que un virus corrompa una porción del disco rígido. El usuario sólo perderá los datos en esa unidad de disco rígido que no hayan sido almacenados como respaldo en otro lado. Si el usuario no había particionado la unidad de disco rígido todos los datos de la unidad entera podrían perderse.

Sistemas de Archivo Ideales Particionar un disco puede ser útil en el caso de que el usuario necesite usar varios sistemas de archivo. El usaurio puede tener un único sistema de archivos en el cual el sistema operativo se instala y luego el usuario puede tener otro sistema de archivos en otra partición que ciertos archivos o programas podrían necesitar operar.

Dependiendo del OS, el particionamiento se hace antes de ejecutar el programa de instalación o desde el programa de instalación mismo. El particionamiento puede hacerse manualmente o automáticamente. Muchos programas de instalación permiten un particionamiento automático. Aunque esta opción es de ayuda para los administradores novicios, el particionamiento automático puede no resultar en un sistema optimizado para necesidades específicas.

Para particionar manualmente un disco con eficacia, es importante comprender qué tipos de particiones son requeridas por el NOS. Cómo se usará el servidor también dicta cómo se lo particiona. Por ejemplo, si se configura un servidor Linux para ser un servidor de correo, asegúrese de que la partición apropiada sea lo suficientemente grande como para contener el correo no leído de cada usuario.

7.2 El Proceso de Instalación

7.2.5 Particionamiento de un disco

La información acerca de la cantidad de particiones, su tamaño y su ubicación en el disco se guarda en el primer sector del disco. Esta información se denomina tabla de partición. Las tablas de partición pueden conformarse a uno de varios formatos, incluyendo DOS y BSD/Sun.

En sistemas que usan una tabla de partición tipo DOS, como Windows y Linux, el primer sector del disco se llama a veces Master Boot Record (MBR) o Master Boot Sector. Las tablas de partición tipo DOS pueden describir hasta cuatro particiones principales. En BSD y Sun UNIX, el primer sector de la unidad de disco rígido se llama etiqueta de disco, o Tabla de Contenidos del Volumen (VTOC). La tabla de partición tipo Sun puede describir hasta ocho particiones principales. La Figura 1 proporciona un ejemplo de una tabla de partición de muestra de hasta ocho particiones.

Page 189: Documento de Apoyo No. 4 Cisco It Essentials II

189

La tabla de partición incluye información que le indica al OS qué particiones son booteables. Una partición booteable es una partición que contiene un sistema operativo. Al definir manualmente las particiones, debe configurarse una configuración para que sea booteable para poder bootear desde ella. El MBR o etiqueta de disco contiene un programa que ubica el primer sector de un sistema operativo booteable y luego entrega el control del sistema nuevamente al OS.

Si el MBR o la etiqueta de disco se corrompe o pierde de algún modo, el sistema ya no booteará apropiadamente. Por esta razón, deberá guardarse una copia del MBR/etiqueta de disco como respaldo en un diskette.

Herramientas de Particionamiento Antes de que un sistema operativo pueda instalarse en un disco rígido éste debe particionarse apropiadamente. Existen varias herramientas disponibles que permitirán al usuario particionar una unidad de disco rígido. No obstante, hay sólo unas pocas que deberán usarse si el usuario está instalando Linux en la unidad de disco rígido.

FDISK La mayor parte del software de instalación de NOS incluye un programa llamado FDISK. FDISK significa fixed disk. Los programas FDISK están diseñados para manipular la tabla de partición de un disco rígido. Un programa FDISK puede usarse para crear particiones, borrar particiones, y configurar particiones como "activas". La Figura muestra las opciones que están disponibles para administración de disco usando la herramienta fdisk en un sistema Linux (usando el switch -l).

Page 190: Documento de Apoyo No. 4 Cisco It Essentials II

190

Microsoft proporciona una versión del programa FDISK lista para usar. El programa proporciona un medio basado en texto de crear particiones en una unidad de disco rígido que Linux puede usar.

Linux proporciona también una versión de FDISK, aunque la versión que Linux usa es fdisk, con todas letras minúsculas. La versión Linux de fdisk también es basada en texto pero proporciona un medio más flexible de particionar un disco duro que la versión de Microsoft.

Herramientas en Tiempo de Instalación de Linux Linux proporciona sus propias herramientas que pueden usarse al instalar un sistema sólo Linux. Éstas son herramientas GUI que son mucho más fáciles de usar que fdisk. Ésta es probablemente la forma mejor y más fácil de particionar un sistema Linux.

Herramientas de Particionamiento de Terceros Existen algunas herramientas de terceros que pueden usarse para particionar un sistema Linux. La herramienta mejor conocida para ello es PowerQuest PartitionMagic (http://www.powerquest.com/). PartitionMagic es una herramienta basada en GUI que puede usarse para particionar una unidad de disco rígido formateada con una variedad de sistemas de archivos incluyendo FAT, NTFS, HPFS, ext2, y ext3. PartitionMagic se basa en DOS pero viene con un diskette que puede usarse en un sistema operativo que no sea Windows. Proporciona un excelente medio de particionar un disco que tiene más de un tipo de sistema operativo o sistema de archivos en él. PartitionMagic es también de ayuda para hacer otras cosas también. Puede usarse para cambiar el tamaño de una partición sin dañar los archivos dentro de la partición existente.

FIPS First Nondestructive Interactive Partitioning Splitting (FIPS) se incluye en el CD de instalación que viene en la mayor parte de las distribuciones Linux. FIPS es una gran herramienta de particionamineto que puede usarse para dividir una partición FAT en dos particiones. FIPS se usa más comúnmente en sistemas Windows que necesitan hacer una partición separada para instalar Linux en ella. FIPS lo hace dividiendo en primer lugar la partición FAT existente. Luego el usuario puede borrar esa partición e instalar Linux en esa nueva partición. La Figura proporciona un ejemplo de una herramienta de particionamiento FIPS.

Page 191: Documento de Apoyo No. 4 Cisco It Essentials II

191

Directrices Generales para el Particionamiento Existen algunas reglas generales que es importante conocer al particionar una unidad de disco rígido. Seguir estas reglas ahorrará muchísimo tiempo en detectar y resolver problemas o reparar un sistema de archivos sobre la marcha. En general, cualquier OS puede instalarse en cualquier partición que es creada por cualquier herramienta de particionamiento, mientras esa herramienta use la tabla de partición estándar x86. No obstante, esto no siempre funciona. Hay dos reglas que en general deberán seguirse al particionar una unidad de disco rígido.

Una buena idea es usar una herramienta de particionamiento trans-plataforma como PartitionMagic. Como se describió antes, esta herramienta de particionamiento puede usarse para particionar una unidad de disco rígido para su uso con prácticamente cualquier sistema operativo.

Si usar una herramienta de particionamiento de terceros no es una opción entonces la segunda mejor idea es usar la herramienta de particionamiento que viene con el OS. Linux y Windows 2000/XP vienen con sus propias herramientas de particionamiento que pueden usarse durante la instalación del OS.

7.2 El Proceso de Instalación

7.2.6 Archivos de intercambio

Un archivo de intercambio es un área del disco rígido que se usa para la memoria virtual. La memoria virtual es espacio en el disco rígido que se usa como suplemento de la RAM. Refiérase a la Figura para un ejemplo de las Configuraciones de Memoria Virtual de Windows. Los datos se escriben en el archivo de intercambio (también llamado archivo de paginación) cuando no hay la suficiente RAM disponible. Luego los datos se intercambian entre la RAM y el archivo de intercambio, según sea necesario. Si el sistema tiene la suficiente RAM, el archivo de intercambio puede ser pequeño y usado infrecuentemente. Si el uso de la RAM se incrementa, el archivo de intercambio puede agrandarse y los intercambios pueden ocurrir más frecuentemente. Esto permite a los programas ser ejecutados, algo que el sistema no podría soportar de otro modo.

Page 192: Documento de Apoyo No. 4 Cisco It Essentials II

192

Aunque Windows usa un archivo de intercambio, éste no tiene que configurarse. El archivo de intercambio se crea como archivo en la partición NOS.

Los sistemas UNIX en general dedican una partición entera al espacio de intercambio. Esta partición se denomina la partición de intercambio. El tamaño mínimo de la partición de intercambio deberá ser igual a dos veces la RAM de la computadora, o 32 MB, lo que sea más grande, pero no más de 128 MB en un sistema Red Hat Linux. Es importante no obstante, administrar el uso del espacio de intercambio porque si el sistema comienza a quedarse sin espacio de intercambio el OS puede comenzar a sufrir las consecuencias.

Configuración del/de los Archivo(s) de Intercambio Los sistemas operativos de red que usan memoria virtual (Windows NT, Windows 2000, UNIX, y Linux) tienen un archivo de intercambio en la unidad de disco del servidor de red. Para un desempeño óptimo, el archivo de intercambio deberá instalarse en o mudarse a una unidad de disco física diferente a la unidad de disco que contiene los archivos del sistema operativo, o archivos de aplicación a los que se accede frecuentemente (como bases de datos). Las siguientes secciones identifican los nombres de los archivos de intercambio y los tamaños por defecto de diversos sistemas operativos de red.

Windows 2000 Server Las configuraciones por defecto de Microsoft Windows 2000 Server incluyen las siguientes:

· Nombre del archivo de intercambio: C:\PAGEFILE.SYS · Tamaño por defecto: 1,5 veces la cantidad de RAM en el servidor · Se permite un único archivo de intercambio por volumen

Para cambiar la cantidad de archivos page o cambiar el tamaño de un archivo page, seleccione Inicio > Configuración > Panel de Control > Sistema > Avanzado > Opciones de Desempeño> Cambiar Memoria Virtual.

Linux Usar el comando free en Linux permitirá al usuario verificar la memoria del sistema. La Figura proporciona un ejemplo de la salida de este comando. Este comando mostrará el uso de la memoria total. Hay varias opciones que pueden emitirse junto con este comando para manipular la salida del comando. Éstas se muestran en la Figura .

Page 193: Documento de Apoyo No. 4 Cisco It Essentials II

193

Usar este comando puede ser muy útil al determinar el desempeño general de un sistema y también cuando podría ser necesario agregar RAM. Evaluando las columnas de total, usada y libre, First Nondestructive Interactive Partitioning Splitting puede ver cuánta RAM tiene el sistema, cuánta está siendo usada, y cuánta está siendo usada actualmente. Si la columna de usada comienza a acercarse al mismo valor que la columna de total, podría ser una buena idea agregar más RAM.

La última fila de esta salida muestra el espacio y uso del archivo de intercambio. Los mismos principios se aplican para evaluar si agregar o no más espacio de intercambio que para agregar más RAM. La única diferencia es que es difícil obtener una estimación del uso del archivo de intercambio sólo observando esta salida unos segundos. Es necesario hacer una mejor evaluación durante un periodo cuando el sistema esté siendo usado regularmente. Una manera de hacer esto es capturar la salida y guardarla en un archivo de texto que pueda leerse y evaluarse después. Para ello el usuario usaría la opción - que se trató antes junto con el comando > que redirigiría la salida a un archivo de texto. El comando para hacerlo aparecería como:

free - 900 > swapeval.txt

Esto haría que la salida se mostrara durante 900 segundos y luego la salida del uso del archivo de intercambio durante un periodo de 900 segundos se dirigiría a un archivo que podría leerse después.

Agregado de un Archivo de Intercambio Una forma de agregar espacio de intercambio es agregar un archivo de intercambio. La forma de agregar un archivo de intercambio a un sistema Linux es la siguiente:

1. El primer paso que es necesario tomar es crear un archivo que tome el espacio equivalente al tamaño del archivo de intercambio que se va a crear. Para ello, el usuario necesitará usar el comando dd. La salida es la siguiente:

# dd if=/dev/zero of=swap.swp bs=1024 count=131072

Este comando enuncia que los bytes se copiarán de /dev/zero y luego se creará un archivo swap.swp que tiene un tamaño de 128 MB.

2. A continuación, el archivo swap.swp que se creó necesitará inicializarse para que el sistema Linux pueda usarlo para intercambiar memoria al disco. Usando el comando mkswap el usuario puede habilitar Linux para que pueda usar el nuevo archivo de intercambio pero no estará activo. La salida de este comando es la siguiente:

Page 194: Documento de Apoyo No. 4 Cisco It Essentials II

194

# mkswap /swap.swp

3. Para activar este archivo de intercambio el usuario necesitará usar el comando swapon. Para desactivar este archivo de intercambio simplemente use el comando swapoff en lugar del comando swapon. La salida es la siguiente:

# swapon /swap.swp

Este archivo de intercambio que acaba de crearse no se usará la próxima vez que se reinicie el sistema a menos que se coloque una entrada en /etc/fstab (ver Figura ). El usuario necesitará enumerar en este archivo la ruta completa donde está ubicado el archivo de intercambio.

Agregar espacio de intercambio usando este método es definitivamente la forma más rápida y fácil. No obstante, tiene algunas desventajas. Al crear este archivo de intercambio en una partición que ya está siendo usada, el archivo puede fragmentarse a medida que la partición se va usando. Esto hará que el archivo de intercambio se fragmente a través de la partición también, lo cual degrada el rendimiento. La única otra opción que hay es crear una partición de intercambio enteramente nueva. No obstante, esto es mucho más complejo y no se recomienda a menos que sea absolutamente necesario.

7.2 El Proceso de Instalación 7.2.7 Formateo del disco

Una vez creadas las particiones, será necesario formatearlas. En general, el programa de instalación presentará las opciones de formato disponibles. Las particiones pueden formatearse con diversas utilidades, como FORMAT.EXE en Windows.

El proceso de formateo define el sistema de archivos de la partición. La Figura muestra la GUI para seleccionar particiones en Red Hat. Dentro de cada partición, el sistema operativo mantiene un registro de todos los archivos almacenados ahí. Cada archivo es realmente almacenado en el disco rígido en uno o más clusters o espacios de disco de un tamaño uniforme predefinido.

Page 195: Documento de Apoyo No. 4 Cisco It Essentials II

195

Al formatear una partición en un NOS Windows, elija entre los siguientes sistemas de archivos:

· New Technology File System (NTFS) (Recomendado para servidores de red) · FAT32 · FAT

Linux permite la creación de diferentes tipos de partición, basándose en el sistema de archivos que utilizarán. La siguiente es una breve descripción de los diferentes sistemas de archivos disponibles, y de cómo pueden utilizarse.

· ext2 - Un sistema de archivos ext2 soporta tipos de archivos Unix estándar (archivos regulares, directorios, vínculos simbólicos, etc.). Proporciona la capacidad de asignar nombres de archivo largos, de hasta 255 caracteres. Versiones anteriores a Red Hat Linux 7.2 usaban sistemas de archivo ext2 por defecto.

· ext3 - El sistema de archivos ext3 se basa en el sistema de archivos ext2. Su principal ventaja sobre ext2 son sus capacidades de journaling. Usar un sistema de archivos con journaling reduce el tiempo usado en recuperar un sistema de archivos después de un cuelgue, ya que no hay necesidad de escanear y verificar el sistema de archivos. El sistema ext3 se selecciona por defecto y es altamente recomendado.

· volumen físico (LVM) - Crear una o más particiones de volumen físico (LVM) permite la creación de un volumen lógico LVM.

· software RAID - Crear dos o más particiones RAID de software permite la creación de un dispositivo RAID. Para más información respecto a RAID, vea las siguientes secciones.

· intercambio - Las particiones de intercambio se usan para soportar la memoria virtual. En otras palabras, se escriben dats en una partición de intercambio cuando no hay RAM suficiente para almacenar los datos que está procesando su sistema.

· vfat - El sistema de archivos VFAT es un sistema de archivos Linux compatible con los nombres de archivos largos de Microsoft Windows en el sistema de archivos FAT.

Otro sistema de archivos notable es HFS (Sistema de Archvos H), que se usa con OS/2.

7.2 El Proceso de Instalación

7.2.8 Creación de cuentas administrativas iniciales

Una de las partes más importantes de cualquier instalación de NOS es la creación de la cuenta del usuario administrativo. Como se trató en capítulos anteriores, un NOS es un sistema multiusuario. La cuenta administrativa tiene acceso irrestricto para crear y borrar usuarios y archivos. La Figura muestra las capacidades de un administrador en Windows XP. Por esta razón, la cuenta administrativa se llama "cuenta de súper usuario" en algunos sistemas. La Figura presenta una lista parcial de los

Page 196: Documento de Apoyo No. 4 Cisco It Essentials II

196

nombres otorgados a la cuenta del usuario administrativo por NOSs comunes.

Al instalar el NOS, el programa de instalación pedirá al usuario que cree una cuenta administrativa. Puesto que esta cuenta es muy poderosa, es crítico que se asigne una contraseña "fuerte". Una contraseña se considera fuerte cuando contiene ocho caracteres o más y no usa nombres reconocibles o palabras del diccionario. Las contraseñas fuertes también usan una combinación de letras mayúsculas y minúsculas, números, y otros caracteres.

7.2 El Proceso de Instalación

7.2.9 Completando la instalación

Después de proporcionar al programa de instalación la información necesaria, el programa creará los archivos del sistema NOS en el disco rígido. Otras aplicaciones y componentes básicos también se copiarán al disco rígido, según lo determine el programa de instalación. Dependiendo del tamaño del NOS, la cantidad de componentes seleccionados, y la velocidad del servidor, puede llevar desde pocos minutos a más de una hora completar el proceso de copiado.

Una vez completo el proceso de copiado, el programa de instalación puede hacer algunas preguntas de configuración finales antes de reiniciar el sistema. Una vez reiniciado el sistema, el administrador deberá poder iniciar sesión en el recientemente instalado NOS usando la cuenta administrativa creada durante el proceso de instalación.

Page 197: Documento de Apoyo No. 4 Cisco It Essentials II

197

7.3 El Proceso de Arranque

7.3.1 Los pasos del proceso de arranque

El proceso de arranque del sistema operativo Windows 2000 es muy diferente al de Windows 9x. El proceso de arranque de Windows 9x es mucho más simple y directo. Tanto Windows 9x como Windows 2000 tienen archivos completamente diferentes que se usan para iniciar los sistemas operativos. Aunque Windows 9x tiene unos pocos archivos que cargan los programas de inicio y verifican controladores de dispositivos, el proceso de arranque de Windows 2000 involucra mucho más y requiere el uso de muchos más archivos. Windows 2000 requiere unos pocos pasos y archivos extra a causa de las funciones adicionales que ofrece, como las funciones de seguridad y de inicio de sesión. Además, muchas de las características que se soportan en Windows 98, como controladores de dispositivo específicos, no son soportadas por el sistema operativo Windows NT/2000.

Windows 2000 atraviesa una serie de pasos al arrancar la computadora. Si todo funciona, al usuario no le importarán mucho los detalles del proceso. No obstante, al resolver problemas de arranque, sirve comprender cómo funciona el proceso de arranque. Como se muestra en la Figura , el proceso de arranque de Windows 2000 tiene lugar en cinco etapas:

· La pre-secuencia de arranque · La secuencia de arranque · La carga del kernel · La inicialización del kernel · El proceso de inicio de sesión

Page 198: Documento de Apoyo No. 4 Cisco It Essentials II

198

Aprender acerca del proceso de arranque y los archivos que se usan en las etapas de este proceso ayudarán a resolver eficazmente problemas del sistema operativo.

NOTA:

Esta sección trata el proceso de arranque en lo que se refiere al sistema operativo Windows 2000. Tenga en cuenta que mientras que aquí se trata el proceso de arranque de Windows 2000, los mismos pasos tienen lugar en Linux aunque los nombres de archivo serán diferentes. El proceso de arranque de Linux se tratará posteriormente en el capítulo.

7.3 El Proceso de Arranque

7.3.2 Archivos básicos requeridos

Antes de observar los detalles del proceso de arranque, puede ser una buena idea observar los archivos que se requieren para completar un arranque exitoso y ver dónde deben ubicarse estos archivos. La Figura enumera algunos de los archivos más importantes que un sistema Windows 2000 necesita para arrancar apropiadamente.

Es importante notar que este capítulo se refiere al proceso de arranque basado en Intel. El proceso de arranque será levemente diferente en sistemas no basados en Intel porque NTLDR no es necesario. En estos sistemas, hay un archivo llamado OSLOADER.EXE que lleva a cabo esta función. El archivo

Page 199: Documento de Apoyo No. 4 Cisco It Essentials II

199

NTDETECT.COM no es necesario tampoco en sistemas no basados en Intel, porque esa función se lleva a cabo durante la POST, y la información reunida por la POST se da a NTOSKRNL.EXE a través de OSLOADER.EXE. Desde ese punto, los sistemas basados y no en Intel arrancan de la misma manera.

7.3 El Proceso de Arranque

7.3.3 Interacción con el BIOS

El proceso de arranque no puede funcionar sin el BIOS porque el BIOS controla todos los aspectos del proceso de arranque. Las instrucciones y los datos en el chip ROM que controlan el proceso de arranque y el hardware de la computadora se denominan Sistema Básico de Entrada/Salida (BIOS). Durante el proceso de arranque, el BIOS lleva a cabo una serie de interacciones con el hardware del sistema. Éstas incluyen verificar el hardware necesario para asegurarse de que esté presente y sea operativo. Esto ocurre durante la Auto-Prueba de Encendido (POST). Durante la POST, una computadora probará su memoria y verificará que tenga todo el hardware necesario, como un teclado y un mouse. Esta información es usada por el BIOS para controlar todos los aspectos del proceso de arranque. Cuando surge un problema durante la POST, el BIOS produce códigos de error de audio y video. El BIOS proporciona a la computadora las instrucciones básicas para controlar los dispositivos en el sistema durante el proceso de arranque. El BIOS también localiza cualquier código BIOS en placas de expansión y lo ejecuta durante el proceso de arranque. Finalmente, el BIOS localiza un volumen o sector de arranque en las unidades para arrancar el sistema operativo. La Figura proporciona un ejemplo de la pantalla que aparece durante el proceso de arranque cuando la POST se ha completado y se ha verificado que todo el hardware necesario está presente.

7.3 El Proceso de Arranque

7.3.4 Pasos detallados del proceso de arranque

Paso 1: Pre-Secuencia de Arranque Una vez encendida la máquina, el primer paso del proceso de arranque es la POST. Esto es realmente algo que hará la computadora, independientemente de su sistema operativo. Una vez que la computadora completa la POST, permitirá que otras placas adaptadoras ejecuten sus propias POSTs, como una placa SCSI que está equipada con su propio BIOS, por ejemplo. Una vez que la rutina de la POST se ha completado, la computadora localizará un dispositivo booteable y cargará el Registro de Arranque Maestro o Master Boot Record (MBR) en la memoria, el cual a su vez localiza la partición activa y la carga en la memoria. El MBR permite al sistema operativo cargarse en la RAM. Hasta este punto, el hardware de la computadora ha jugado un rol importante, y sin hardware que funcione apropiadamente, el sistema operativo no se cargará. En este punto la computadora carga e inicializa el archivo NTLDR, que es el cargador del sistema operativo, y comienza a cargar el sistema operativo. La Figura muestra una captura de pantalla de la pre-secuencia de arranque.

Page 200: Documento de Apoyo No. 4 Cisco It Essentials II

200

Paso 2: Secuencia de Arranque Una vez que la computadora carga el NTLDR, la secuencia de arranque comienza a reunir información acerca del hardware y los controladores. NTLDR usa los archivos NTDETECT.COM, BOOT.INI, y BOOTSECT.DOS. El archivo BOOTSECT.DOS sólo se utilizará en el caso de que la computadora esté configurada para un arranque dual. Una función importante proporcionada por NTLDR se pasar el procesador a modo de memoria plana de 32 bits. Hasta este punto, la computadora se estaba ejecutando en modo real, como las antiguas CPUs 8086/8088. A continuación, NTLDR arranca el sistema de archivos, FAT o NTFS, para que pueda leer los archivos del disco. NTLDR ahora leerá el archivo BOOT.INI para habilitar la visualización del menú de arranque en la pantalla. Aquí es donde el usuario podrá seleccionar qué sistema operativo cargar si la computadora está configurada para arranque dual. Si se selecciona un sistema operativo que no es Windows 2000, NTLDR carga entonces el archivo BOOTSECT.DOS y le pasa el control, para que luego arranque el otro OS. La Figura muestra un ejemplo de un menú de arranque. Si se selecciona Windows 2000 o si la computadora no tiene arranque dual, entonces NTLDR ejecuta NTDETECT.COM, que reunirá información acerca del hardware de la computadora. Es también en este paso que puede presionarse F8 para resolver problemas y para opciones de inicio avanzadas. NTDETECT.COM detectará los siguientes componentes de hardware:

· ID de la computadora · Tipo de bus/adaptador · Teclado · Puertos com · Puertos paralelos · Diskettes · Adaptadores SCSI · Mouse/dispositivos de señalamiento · Coprocesador de punto flotante · Adaptadores de video - Una vez que NTDETECT.COM ha recogido la información sobre el

hardware, NTLDR cargará NTOSKRNL.EXE y le pasará esa información.

Page 201: Documento de Apoyo No. 4 Cisco It Essentials II

201

Paso 3: Carga del Kernel La fase de carga del kernel comienza con la carga de NTOSKRNL.EXE junto con el archivo. En este punto NTLDR aún juega un papel en el proceso de arranque. NTLDR también leerá la clave de registro del sistema de la memoria, y seleccionará la configuración de hardware que está almacenada en el registro. Cargará la configuración necesaria para que la computadora arranque. En este punto del proceso de arranque, es posible seleccionar qué perfil de hardware ha de cargarse, si hay más de un perfil de los cuales elegir, como muestra la Figura . A continuación, cualquier controlador de dispositivo que tenga un valor de inicio de 0x0 será cargado desde el registro por NTLDR. Después de este paso todos los archivos del kernel tienen que cargarse en la memoria.

Paso 4: Inicialización del Kernel La fase inicial de carga del kernel ya está completa y el kernel comenzará a inicializarse. Esto simplemente significa que está reconociendo todo lo que se cargó previamente de modo tal que NTLDR puede ahora otorgar control al kernel del sistema operativo. El sistema operativo puede ahora comenzar las etapas finales de carga. La interfaz gráfica del usuario (GUI) ahora puede verse y mostrará una barra de estado indicando que la GUI se está cargando. Cuatro pasos adicionales tendrán lugar ahora:

Se crea la clave del hardware. Una vez que el kernel ha completado el proceso de inicialización, usa la información recolectada

Page 202: Documento de Apoyo No. 4 Cisco It Essentials II

202

durante la fase de detección del hardware para crear la clave del registro HKEY_LOCAL_MACHINE\ HARDWARE. Este registro contiene toda la información acerca del hardware que está ubicado en el motherboard de la computadora así como las interrupciones usadas por los dispositivos de hardware.

Se crea el control de clones. El kernel hace referencia a la subclave del registro HKEY_LOCAL_MACHINE\ SYSTEM\Select y luego crea un clon (o copia) del valor del registro Configuración de Control Actual. La computadora usa entonces este clon para mantener una copia idéntica de los datos usados para configurar la computadora de modo tal que este valor del registro no reflejará los cambios efectuados durante el proceso de inicio.

Los controladores de dispositivos se cargan e inicializan. Durante este paso, el kernel inicializa primero los controladores de dispositivos de bajo nivel que se cargaron en la fase de carga del kernel del proceso de arranque. Ahora el kernel debe escanear la subclave del registro HKEY_LOCAL_MACHINE\ SYSTEM\CurrentControlSet\Services para controladores de dispositivos con un valor de 0x1. Este valor de controlador de dispositivo indica en qué punto del proceso se cargará el controlador. Esto es lo mismo para el valor del controlador de dispositivo en la fase de carga del kernel.

Se inician los servicios. El paso final que es necesario completar es el inicio del Administrador de Sesión. El Administrador de Sesión se inicia cuando se carga el archivo SMSS.EXE. El Administrador de Sesión es responsable de cargar los programas en su Entrada del Registro BootExecute. El Administrador de Sesión también carga los subsistemas requeridos, que dan inicio al archivo Winlogon.exe. Este archivo inicia el archivo de Administración de Seguridad Local (LSASS.EXE), y aparece la ventana de Ctrl + Alt + Delete, como lo muestra la Figura . El Controlador de Servicios (SCREG.EXE) verificará el registro en busca de servicios con un valor de inicio de 0x2 y los cargará. Servicios con valores de inicio de 0x3 se inician manualmente, y servicios con valores de inicio de 0x4 están inhabilitados.

Paso 5: Inicio de Sesión La pantalla de inicio de sesión, como la muestra la Figura , da comienzo al paso final en el proceso de arranque. Aunque se trata del paso final, un arranque no se considera completo o exitoso hasta que el usuario no inicia sesión. Una vez que el usuario ha iniciado sesión, el clon del valor de Configuración de Control Actual del cuarto ítem, en el Paso 4, se copia al Último Bueno Conocido valor de configuración de control en el registro. Ésta es una medida de seguridad que lleva a cabo el OS para que un usuario pueda reiniciar la computadora si surge un problema donde el proceso de arranque se corrompe. Un ejemplo sería si un controlador de dispositivo defectuoso se carga y no permite que el usuario inicie sesión. Seleccionar este valor durante el inicio carga la última configuración de arranque

Page 203: Documento de Apoyo No. 4 Cisco It Essentials II

203

exitosa que se guardó sin este controlador de dispositivo defectuoso, permitiendo que el usuario inicie sesión.

7.3 El Proceso de Arranque

7.3.5 Proceso de arranque de Linux

Antes de que Red Hat Linux pueda iniciarse en su sistema, debe indicársele que arranque mediante instrucciones especiales colocadas en un boot loader, código que existe en su unidad de disco rígido principal u otro dispositivo de medio que sepa cómo iniciar el kernel Linux. El proceso de arranque entre Windows 2000 y Linux es muy similar. Obviamente una diferencia principal son los tipos de archivo que se usan. Los nombres de los tipos de archivo que se usan para iniciar los dos sistemas pueden ser diferentes, pero esencialmente llevan a cabo las mismas funciones. Por ejemplo, Windows 2000 usa el archivo NTLDR como archivo principal que arranca el sistema hasta que el sistema operativo asume el control del proceso. En Linux el archivo LILO lleva a cabo esta función. La Figura proporciona un ejemplo de la pantalla de LILO, que se usa para arrancar el sistema operativo. Esta pantalla es también donde un usuario decidiría qué sistema operativo desea el usuario que LILO comience a arrancar si el arranque es dual. Ambos sistemas inician el proceso de arranque localizando el registro de control maestro y cargándolo. A continuación, en Windows 2000, los archivos del kernel (NTDETECT, NTOSKRNL, y HAL) son cargados por NTLDR. En Linux tiene lugar el mismo proceso, usando el Kernel Linux. En este punto en ambos sistemas, los archivos raíz se están cargando para preparar al sistema operativo para que asuma el control. El siguiente paso del proceso de arranque de Windows es cargar los servicios, lo cual es efectuado por el archivo SMSS.EXE. En Linux este proceso lo hace INIT. En este punto los procesos de arranque toman rutas separados al empezar Linux a cargar su sistema operativo y Windows a cargar el suyo. Al final, ambos sistemas llegarán a un prompt de inicio de sesión que pedirá un nombre de usuario y contraseña para autenticarse ante el sistema.

Page 204: Documento de Apoyo No. 4 Cisco It Essentials II

204

LILO Arrancar Linux requiere que se instale un programa para cargar el kernel a su computadora. La mayoría de las distribuciones Linux de hoy usan el cargador de arranque LILO o GRUB. El archivo de configuración principal de LILO se llama lilo.conf. Editar lilo.conf es fácil. Asegúrese de que ha iniciado sesión como raíz, y cargue el archivo en un editor de texto, asegurándose de guardar sus cambios. Editará lilo.conf por una cantidad de razones:

· Está probando un nuevo kernel y desea poder arrancar la misma partición Linux con más de un kernel.

· Desea agregar protección por contraseña a una partición. · Tiene una configuración de hardware que requiere que especifique opciones especiales, como

arrancar un sistema de archivos remoto. · Su kernel es llama de otra manera que /vmlinuz o se encuentra en un lugar no estándar, como

/etc.

GRUB El otro cargador de arranque principal usado en Linux es GRUB. GNU GRUB (GRand Unified Bootloader) es un programa que instala un cargador de arranque en el MBR, que existe en los sectoresde inicio de un disco. Permite aplicar instrucciones específicas en el MBR que carga un menú o entorno de comandos GRUB, permitiéndole iniciar el sistema operativo de su elección, pasar instrucciones especiales a kernels cuando arrancan, o descubrir parámetros del sistema (como RAM disponible) antes de arrancar.

GRUB es muy simple de instalar. Si durante el proceso de instalación de Linux no se instaló GRUB, puede instalarse y hacerlo el cargador de arranque por defecto. Tenga en cuenta que si ya está usando LILO como cargador de inicio, no tiene que eliminarlo para poder usar GRUB. Una vez instalado, GRUB será el cargador de arranque por defecto de su sistema. Siga los pasos a continuación para instalar y configurar el cargador de arranque GRUB.

1. Primero, asegúrese de que tiene el último paquete GRUB disponible. También puede usar el paquete GRUB de los CD-ROMs de instalación de Linux.

2. A continuación, ejecute el comando /sbin/grub-install <ubicación> desde el prompt del shell, donde <ubicación> es la ubicación donde GRUB deberá ser instalado, como /dev/hda1. (La partición que contiene el MBR).

3. Al reiniciar su sistema, verá el cargador de arranque GRUB.

Page 205: Documento de Apoyo No. 4 Cisco It Essentials II

205

7.4 Resolución de Problemas de la Instalación del NOS

7.4.1 Incapacidad de arrancar desde el medio de instalación

Si el sistema no arranca desde el medio de instalación (como un CD o diskette), entonces el programa de instalación no podrá ejecutarse. Hay varios pasos a dar si el sistema no arranca desde un CD-ROM:

· Consulte el menú de configuración del BIOS del sistema como muestra la Figura . En general se requiere una combinación de teclas para entrar al monitor del BIOS. La secuencia de teclas varía de fabricante a fabricante. El BIOS es software incorporado que contiene todo el código requerido para controlar los dispositivos de hardware del sistema. Éstos pueden incluir el teclado, el monitor, las unidades de disco rígido, los puertos paralelo y serial, y una cantidad de otras funciones. El BIOS de la PC en las computadoras de hoy está estandarizado, así que dejando de lado diferencias de los fabricantes, todos funcionarán de manera bastante similar.

· Asegúrese de que el BIOS sea capaz de soportar y arrancar desde un CD-ROM, y de que esté configurada la secuencia de arranque correcta en el BIOS. Si el BIOS del sistema no puede soportar o arrancar desde un CD-ROM, el sistema tendrá que arrancarse usando un diskette booteable.

· Consulte la documentación que vino con el CD. Asegúrese de que el CD contenga archivos del sistema y esté diseñado para ser booteable. Algunos CDs contienen los archivos de instalación, pero no son booteables. De ser éste el caso, intente arrancar desde un diskette.

· Verifique que el CD sea reconocido por el sistema operativo y que estén disponibles controladores de dispositivos apropiados.

· Verifique para ver si otro sistema puede arrancar desde el CD o leer el CD. Si otro sistema no puede leer el disco, entonces el problema está muy probablemente relacionado con el disco en sí. Si otro sistema puede hacerlo, entonces el problema es muy probablemente una unidad de CD defectuosa.

· Inspeccione el lado de los datos en busca de rayones, huellas digitales o polvo, si se sospecha que el problema es el disco en sí. Limpie el CD usando un paño de algodón seco y limpiando suavemente del centro del disco hasta el borde. Repita este proceso hasta que toda la superficie del CD parezca limpia. Vuelva a poner el CD en la unidad e intente arrancar otra vez. Si el arranque falla, obtenga otra copia del disco de instalación.

· Determine si el problema está en la unidad de CD-ROM. Hágalo desconectando la energía, abriendo el gabinete e inspeccionando la conexión de cables entre la unidad de CD-ROM y el motherboard. Asegúrese de que el cable esté enchufado firmemente en ambos extremos. Después de verificar el cable, verifique la configuración del CD-ROM tal como master/esclavo, selección de cables, ID SCSI, o terminación SCSI, dependiendo del tipo de unidad. Si el CD-ROM aún falla, reemplace la unidad o el cable. Si el arranque todavía falla, consulte la documentación del hardware antes de proceder.

Page 206: Documento de Apoyo No. 4 Cisco It Essentials II

206

7.4 Resolución de Problemas de la Instalación del NOS

7.4.2 Problemas durante el proceso de instalación

En ocasiones, algo sale mal durante el proceso de instalación. Si se toma una decisión incorrecta mientras se usa el programa de instalación, busque un botón o tecla "atrás" para que la configuración pueda invertirse. He aquí algunos otros problemas comunes.

El particionamiento o formateo del disco rígido falla. Verifique la configuración del BIOS y la documentación del disco rígido para resolver este problema. El disco rígido puede estar defectuoso. Verificar la página del BIOS que contiene la información acerca de las unidades de disco rígido instaladas en el sistema permitirá hacer una prueba para ver si el sistema está reconociendo al disco.

El sistema "se cuelga" durante el proceso de instalación. Un cuelgue es definido como un periodo de varios minutos durante el cual no hay actividad discernible en el sistema. Esto significa que la pantalla de instalación parece congelada o negra, y el LED de actividad en la unidad de disco rígido no está parpadeando. Espere al menos cinco minutos bajo estas condiciones antes de declarar un cuelgue. Si el sistema se cuelga, apague y vuelva a encender la máquina. Después de volver a encender la máquina, el programa de instalación puede dar la opción de reanudar o reparar la instalación previa. Si no lo hace, entonces inicie nuevamente el proceso de instalación. Si vuelve a ocurrir el cuelgue en el mismo punto durante el proceso de instalación, lo más probable es que sea un problema de compatibilidad del hardware. Verifique el inventario de hardware contra la lista de compatibilidad del fabricante.

El medio de instalación no puede leerse en algún punto durante el proceso de instalación. Este problema tiene lugar al instalar con un CD que está sucio o rayado. En algunos casos se trata de un "mal quemado", vale decir un CD-RW que ha tenido los archivos de instalación copiados en él incorrectamente. Si la limpieza del CD no corrige este problema, obtenga otra copia de los archivos de instalación.

7.4 Resolución de Problemas de la Instalación del NOS

7.4.3 Problemas post-instalación

Una vez instalado el NOS, el sistema puede no cargar el NOS apropiadamente o no permitir un inicio de sesión. Si el sistema falla al cargar el NOS, consulte con el sitio web y la documentación del fabricante. Los fallos de la primera carga son difíciles de resolver. Será necesario reunir información muy específica acerca del sistema y el NOS. Si el sistema informa errores específicos, escríbalos y busque información sobre ellos en la web o en la documentación. De ser necesario, llame a una línea

Page 207: Documento de Apoyo No. 4 Cisco It Essentials II

207

de soporte técnico y pida ayuda.

Si no puede iniciar sesión, el problema es usualmente información sobre la cuenta del administrador olvidada que fue configurada durante el proceso de instalación. Recuerde que, en muchos sistemas, los nombres de usuario y contraseñas son sensibles al uso de mayúsculas y minúsculas, así que asegúrese que Bloq Mayús del teclado no esté encendido. La Figura ilustra una muestra de mensaje de error que un usuario recibiría al dejar la tecla Bloq Mayús encendida durante el proceso de inicio de sesión.

Resumen

Este capítulo trató cómo planificar, instalar y solucionar problemas en la instalación de un NOS. Algunos de los conceptos importantes a retener de este capítulo son los siguientes:

· El proceso de planificación incluye la reunión de información acerca de los requisitos mínimos del sistema y problemas de compatibilidad de hardware conocidos. En algunos casos, puede usarse un programa de utilidades que pueda verificar si el sistema funcionará con el NOS.

· El inventario de hardware debería incluir el tipo de dispositivo, fabricante, número de modelo, e información de versión de controlador de dispositivos para cada dispositivo.

· Los dos tipos de particiones son principal y extendida. Cada sistema requiere al menos una partición principal. La primera partición principal siempre se etiqueta con una C en un sistema Windows. Sólo puede haber una única partición extendida en un sistema, pero una partición extendida puede subdividirse en varias particiones lógicas. Las particiones lógicas que componen una partición extendida se denominan volúmenes, o unidades lógicas.

· El proceso de formateo define al sistema de archivos de la partición. Al formatear una partición en un NOS Windows, elija entre el Sistema de Archivos de Nueva Tecnología (NTFS), FAT32, y FAT. NTFS se recomienda para servidores de red. Al formatear una partición UNIX o Linux, elija entre el Sistema de Archivos UNIX (UFS) y EXT3.

· El proceso de arranque de Windows 2000 es similar a Linux. Sus cinco etapas son secuencia previa al arranque, secuencia de arranque, carga del kernel, inicialización del kernel, y proceso de inicio de sesión.

· Ocasionalmente, hay problemas en la instalación. Cuando esto ocurre, invierta el proceso para asegurarse de que todos los pasos se siguieron correctamente. Reúna toda la información acerca del sistema y busque una resolución en la web o en la documentación. De ser necesario, llame a una línea de soporte técnico y pida ayuda.

· El siguiente capítulo detalla el sistema operativo Windows 2000. El alumno aprenderá los pasos para completar la instalación a través del inicio de sesión

Page 208: Documento de Apoyo No. 4 Cisco It Essentials II

208

administrativo.

8. Windows 2000 Professional Descripción general

Este capítulo detalla el sistema operativo Windows 2000. Hay cuatro pasos para la instalación. Una vez que se verifica que el sistema es compatible, Windows 2000 guía al administrador al paso final de iniciar sesión. El capítulo también trata la administración de cuentas de usuario y sistemas de archivo para proporcionar al administrador la información necesaria para compartir carpetas, archivos y asignar permisos. El alumno también aprenderá acerca de los servicios de Windows 2000 que se configuran para proporcionar acceso a la web, e-mail y otras computadoras.

8.1 Instalación

8.1.1 Instalación de Windows 2000

Hay unas pocas cosas a considerar antes de instalar Windows 2000. Primero, verifique para asegurarse que el hardware es capaz de ejecutar Windows 2000. Microsoft recomienda que los usuarios observen los siguientes requisitos antes de instalar el sistema operativo:

· Microprocesador Pentium 133 MHz o superior · 64 MB de RAM · Unidad de disco rígido de 2 GB o partición con un mínimo de 1 GB de espacio libre · Monitor VGA · CD-ROM de 12X, mínimo · Placa de red

Microsoft tiene una herramienta llamada Lista de Compatibilidad de Hardware (HCL) que puede usarse para verificar que el hardware realmente funcionará con Windows 2000. Microsoft proporciona controladores probados solamente para aquellos dispositivos incluidos en esta lista. Usar hardware que no está en la lista HCL podría ocasionar problemas durante y después de la instalación. Esta HCL puede verse abriendo el archivo Hcl.txt en la carpeta Soporte del CD-ROM de Windows 2000 Professional, o visitando http://www.microsoft.com/hwdq/hcl/. La Figura muestra un ejemplo del archivo de texto HCL que puede verse en cualquier sistema Windows 2000.

Comprensión de los Pasos de la Instalación de Windows 2000 Existen cuatro pasos principales en el proceso de instalación de Windows 2000. La instalación comienza cuando se ejecuta el programa Setup. Esto prepara el disco rígido y copia archivos. Setup luego ejecuta un asistente que proporciona páginas informativas, que se usan para completar el resto

Page 209: Documento de Apoyo No. 4 Cisco It Essentials II

209

de la instalación. Hay cuatro pasos en el proceso de instalación de Windows 2000:

· El programa Setup · El asistente Setup · Instalación del networking de Windows · Completar el programa Setup

El Programa Setup El primer paso del proceso de instalación es preparar el disco rígido para las otras etapas de instalación. Los archivos necesarios para ejecutar el asistente de setup se copian y se muestra la porción de texto de setup. La instalación de Windows 2000 puede iniciarse usando los Discos de Arranque de Setup o arrancando desde el CD-ROM.

Si se eligen los Discos de Arranque de Setup, inserte el primer disco en la computadora y enciéndala. Siga los pasos para insertar los otros discos para comenzar a copiar los archivos.

Usar el CD-ROM Windows 2000 Professional puede ser mucho más fácil. Después de arrancar desde el CD-ROM, una versión mínima de Windows 2000 se copia a la memoria, que se usa para iniciar el programa Setup.

Aquí es donde comienza la porción basada en texto de Setup. El administrador hará lo siguiente:

· Leer y aceptar el acuerdo de licencia · Reconfigurar las particiones del disco rígido o borrar una partición de ser necesario · Crear and formatear una nueva partición para instalar Windows 2000 o reformatear una

partición existente · Seleccionar FAT o NTFS como tipo de sistema de archivos

Setup formateará entonces la partición con el sistema de archivos seleccionada. El tipo de sistema de archivos seleccionado puede ser FAT o NTFS. La Figura muestra las opciones disponibles durante el proceso de instalación. Recuerde que FAT puede convertirse a NTFS pero NTFS no puede convertirse a FAT sin reinstalar el OS. Ésta es una de las características de seguridad que proporciona NTFS. Al instalar el OS en una red, NTFS se prefiere a causa de la seguridad del sistema de archivos para el usuario y el administrador del sistema. Una vez que la partición ha sido formateada, el programa Setup comenzará a copiar los archivos necesarios al disco rígido y a guardar la información de configuración. Setup reiniciará automáticamente la computadora e iniciará el asistente de Setup de Windows 2000. Por defecto, los archivos del sistema operativo Windows 2000 se instalan en la carpeta C:\Winnt.

Page 210: Documento de Apoyo No. 4 Cisco It Essentials II

210

El Asistente Setup El Asistente Setup comienza la porción de Interfaz Gráfica del Usuario (GUI) del proceso de instalación y guía al administrador a través de la siguiente etapa del proceso de instalación. La Figura muestra un ejemplo de la pantalla de Setup GUI de Windows 2000. Reúne información acerca del administrador, la organización y la computadora. Este paso instala las funciones de seguridad y configura los dispositivos del sistema. Se guiará luego al administrador a través de una serie de pantallas de instalación en las cuales el asistente Setup de Windows 2000 pide alguna información:

· Configuración regional Windows 2000 fue diseñado para ser un sistema operativo global. Aquí debe introducirse la información concebida para personalizar las configuraciones de idioma, ubicación y teclado. Windows 2000 puede configurarse para usar varios lenguajes y configuraciones regionales.

· Nombre y organización Introduzca el nombre de la persona que va a ser el usuario de la computadora y la organización a la cual esta copia de Windows 2000 Professional es licenciada.

· Clave del producto Microsoft envía cada copia de Windows 2000 con una Clave de Producto de 25 caracteres usualmente ubicada en la parte trasera de la caja del CD.

· Nombre de la computadora Al conectar la computadora a una red, cada computadora de la red necesitará un nombre único para poder ser identificada en la red. Debe introducirse un nombre de computadora. No puede ser más largo que 15 caracteres. El asistente Setup de Windows 2000 mostrará un nombre por defecto, usando el nombre de la organización que se introdujo anteriormente en el proceso de instalación, pero se recomienda cambiarlo.

· Contraseña para la cuenta de Administrador Windows 2000 tiene la capacidad de tener muchos perfiles diferentes para los usuarios de la computadora. También hay una cuenta de administrador incorporada que incluye privilegios para hacer cualquier cambio en la computadora. En este punto el administrador debe proporcionar la contraseña para la cuenta de administrador. Esta contraseña puede ser cambiada después, pero sólo por el usuario que tiene los privilegios administrativos locales del sistema.

· Información sobre marcado del módem Puesto que las redes modernas usan LANs y placas de red, esta opción dependerá primero de si se está o no usando un módem. La mayoría de las laptops todavía los usan, de modo que podría ser necesario introducir información aquí. Primero seleccione el país o región donde está ubicada la computadora. A menudo esto ya está completado, basándose en la configuración regional seleccionada. El área (o ciudad) de la ubicación de la computadora también debe introducirse así como el número para obtener línea externa. Finalmente, seleccione si el sistema telefónico es de marcado por tonos o de marcado por pulsos.

· Configuraciones de fecha y hora Deben especificarse la fecha y hora correctas así como la zona horaria. Si Windows 2000 ajusta automáticamente la configuración del reloj para cambios

Page 211: Documento de Apoyo No. 4 Cisco It Essentials II

211

por horario de verano también puede seleccionarse.

Instalación del Networking de Windows 2000 Puesto que Windows 2000 fue diseñado para ser un Sistema Operativo de Red (NOS), instalar la configuración de red es un paso importante del proceso de instalación. Después de reunir información acerca de la computadora, el programa Setup de Windows 2000 instala automáticamente el software de la red. La Figura muestra la pantalla de configuración de la red que se usa para configurar el sistema para acceder a la red durante el proceso de instalación. Windows 2000 Professional instala los componentes de networking en una serie de pasos:

· Detectar las placas adaptadoras de red El sistema operativo necesita primero detectar las placas de red. Si no hay placas instaladas, este paso se salteará.

· Instalar los componentes de networking Hay archivos necesarios que deben instalarse para permitir a la computadora conectarse a otras computadoras, redes, e Internet.

El programa Setup pide al administrador que elija si usar la configuración típica o una configuración personalizada para configurar los siguientes componentes de networking. Si se elige típica, el sistema instalará la configuración por defecto. Eligiendo la opción personalizada, el administrador puede introducir la información que es específica de la red de la compañía. Por ejemplo, Cliente para Redes

Page 212: Documento de Apoyo No. 4 Cisco It Essentials II

212

de Microsoft le permite a la computadora obtener acceso a los recursos de la red. Archivos e Impresoras Compartidos para Redes Microsoft permite que otras computadoras obtengan acceso a recursos de archivos e impresión en la computadora así como permitir a la computadora local obtener acceso a archivos e impresoras compartidos en la red. TCP/IP es el protocolo de networking por defecto que permite a una computadora comunicarse a través de Redes de Área Local (LANs) y Redes de Área Amplia (WANs). En esta etapa, otros clientes, servicios, y protocolos de red pueden instalarse si la red los requiere. Éstos pueden incluir Interfaz del Usuario Mejorada NetBIOS (NetBEUI), AppleTalk, y NWLink IPX/SPX/transporte compatible con NetBIOS.

· Unirse a un grupo de trabajo o dominio El administrador necesita decidir si la computadora será o no parte de un dominio o grupo de trabajo. Es información deberá conocerse antes de este paso. Si la cuenta de una computadora se crea en el dominio para la computadora durante la instalación, el asistente Setup Windows 2000 pide al administrador el nombre y la contraseña para unirse al dominio.

· Instalar componentes El último paso es instalar y configurar los componentes de networking que acaban de seleccionarse.

Completar el Programa Setup Una vez que los componentes de networking han sido instalados, el asistente Setup copia archivos adicionales para configurar Windows 2000 Professional. El programa Setup iniciará automáticamente el cuarto paso del proceso de instalación. Hay cuatro pasos básicos en la etapa final del proceso de instalación, que se muestra en la Figura :

1. Instalar los elementos del menú Inicio Aquí es donde se instalan todos los elementos de acceso directo que aparecen en el menú inicio.

2. Componentes del registro Windows 2000 comienza a aplicar la configuración que se especificó en el asistente Setup de Windows 2000.

3. Guardar la configuración Una vez aplicada la configuración, es necesario guardarla en el registro para poder usarla cada vez que se inicia la computadora.

4. Eliminar los archivos temporales Mientras se instala el sistema operativo, es necesario copiar muchos archivos para ejecutar estos pasos de instalacion. Después de la instalación, los archivos ya no se usan. El asistente de instalación borrará automáticamente estos archivos. Una vez que este paso está completo la computadora se reiniciará automáticamente y el administrador puede iniciar sesión para finalizar el procedimiento de instalación.

Opciones de Instalación de Windows 2000 Los pasos de instalación que se mencionan en la sección anterior son los procedimientos típicos o por

Page 213: Documento de Apoyo No. 4 Cisco It Essentials II

213

defecto. Hay otras tres opciones de instalación que pueden seleccionarse al instalar Windows 2000:

· Una instalación Típica es el tipo básico de instalación que se presentó en la sección anterior. · Una instalación Portátil instalará las opciones que podrían ser necesarias con una

computadora portátil, como una laptop. · Una instalación Compacta deberá usarse al instalar Windows 2000 en una computadora con

una cantidad limitada de espacio en el disco rígido.

Deberá elegirse una instalación personalizada si son necesarias selecciones personalizadas para las configuraciones de dispositivos. Por ejemplo, si no son plug-and-play

8.1 Instalación

8.1.2 Instalación de opciones adicionales del OS

Una vez que se instaló exitosamente el sistema operativo Windows 2000, el usuario puede necesitar algunas funciones que se consideran opciones adicionales. Por ejemplo, los Servicios de Información de Internet (IIS) deberán instalarse si el usuario configurará un FTP o servidor web. La mayor parte de estos adicionales pueden instalarse desde el CD de instalación desde el cual se instaló inicialmente el sistema operativo. Al iniciar estos servicios, se pedirá al usuario insertar el CD para que los archivos necesarios puedan copiarse a la unidad de disco rígido. El proceso está automatizado, y todo lo que el usuario tendrá necesidad de hacer es insertar el CD.

Otros adicionales post-instalación incluyen los paquetes de servicios o actualizaciones al sistema operativo que han sido hechos desde que el CD de instalación fue adquirido. Éstos pueden descargarse e instalarse desde el sitio web del fabricante en cualquier momento. Actualizaciones e instalaciones de paquete de servicios se instalan usualmente inmediatamente después de la instalación del sistema operativo para evitar que ocurran errores después. La Figura proporciona un ejemplo de la pantalla Agregar o Quitar Componentes de Windows.

8.2 Interfaz Administrador/Usuario

8.2.1 Procedimientos de inicio de sesión

El primer paso en el uso de cualquier Sistema Operativo de Red (NOS) es iniciar sesión en el sistema. Windows 2000 implementa una Interfaz Gráfica del Usuario (GUI) y permite a un usuario iniciar sesión en el sistema usando la ventana Iniciar Sesión en Windows, que se muestra en la Figura . Después de arrancar la computadora por primera vez a Windows 2000, puede pedirse a los usuarios que presionen las teclas Ctrl, Alt, y Supr simultáneamente para mostrar esta ventana. El nombre de usuario y contraseña requeridos pueden introducirse en esta pantalla, así como información más detallada, tal como el dominio de red asignado al usuario. Por razones de seguridad, los caracteres de la contraseña se enmascaran con asteriscos (*) a medida que se los tipea. Note que sólo la contraseña es sensible al

Page 214: Documento de Apoyo No. 4 Cisco It Essentials II

214

uso de mayúsculas o minúsculas y deberá introducirse exactamente como se creó. Si la contraseña se introduce incorrectamente, el sistema pedirá al usuario que reintroduzca la información de cuenta hasta que sea correcta.

8.2 Interfaz Administrador/Usuario

8.2.2 Interfaz gráfica del usuario (GUI) de Windows

En este punto el usuario ya debería estar familiarizado con la navegación básica a través de la Interfaz Gráfica del Usuario (GUI), por ejemplo, cómo operar un mouse. A partir de aquí, el usuario está listo para explorar el NOS Windows 2000 señalando y haciendo clic con el mouse en los diversos elementos de la interfaz. Windows 2000 tiene varios elementos básicos.

Íconos Los íconos son el aspecto más básico de Windows 2000. Los íconos son pequeñas imágenes con nombres de texto que se usan para representar una mayor funcionalidad. La Figura muestra algunos íconos comunes de Windows 2000. Haciendo doble clic en un ícono, el usuario invoca la funcionalidad representada por dicho ícono. Por ejemplo, hacer doble clic en el ícono Mi PC abre una ventana de sistema, mientras que hacer doble clic en el ícono Internet Explorer ejecuta el programa Microsoft Internet Explorer. Otros íconos pueden representar archivos o documentos almacenados en la computadora, y hacer doble clic sobre ellos tanto ejecutará el programa apropiado como mostrará el contenido del archivo. En este caso, hacer doble clic en el ícono para British History.doc lanzará Microsoft Word así como abrirá el documento dentro del programa.

Botones Los botones de Windows 2000 son muy similares a los íconos con unas pocas diferencias importantes. Primero, los botones vienen en una más amplia variedad de formas y tamaños que los íconos estándar. Pueden tener sólo texto, sólo imágenes, o tanto texto como imágenes. Usualmente están diseñados en la interfaz de una aplicación como control para que el usuario lleve a cabo una tarea específica. Por ejemplo, los botones pueden usarse para confirmar una opción con un botón Aceptar o para guardar un documento con un botón Guardar

Page 215: Documento de Apoyo No. 4 Cisco It Essentials II

215

Ventanas En la mayor parte de los sistemas GUI populares, los usuarios interactúan con el sistema a través de pantallas conocidas como ventanas. La Figura muestra una ventana que está mostrando el contenido del directorio C:\WINNT. La importancia de este concepto (concebido primero por Xerox y usado por Apple a principios de los '80) se ve reflejado en el nombre dado a la línea de sistemas operativos de Microsoft. Una ventana funciona de manera muy similar a sus contrapartes en el mundo real como portal para ver otras áreas. En el caso de las GUIs, las ventanas proporcionan al usuario acceso a los datos y funcionalidad programada del sistema operativo y sus aplicaciones. Si un programa pide interacción del usuario, como lo hacen la mayoría de las aplicaciones de Windows 2000, en general se muestra en una ventana con controles para entradas del usuario. Varias ventanas pueden verse simultáneamente acomodándolas y estableciendo su tamaño según sea adecuado, permitiendo así al usuario usar las multitareas más eficientemente. En el caso de Windows 2000, el OS en sí tiene la responsabilidad de crear, administrar y cerrar estas ventanas.

Menúes Una característica muy común de todos los programas que usan ventanas es el Menú. Estos grupos de botones de texto usualmente se encuentran alineados en la parte superior de las ventanas y ofrecen funcionalidades específicas relacionadas con esa ventana en particular. Por ejemplo, un programa de procesamiento de texto podría tener un encabezado llamado Herramientas, bajo el cual hay una opción de menú llamada Conteo de Palabras. Las opciones de menú disponibles cambiarán de ventana a ventana así como entre diferentes secciones de la misma ventana. Los encabezados de menú más comunes son Archivo y Editar, donde el usuario puede emitir comandos para abrir, cerrar y guardar documentos así como copiar y pegar datos. Otros menúes importantes de Windows 2000 incluyen el menú Inicio (haga clic en el botón Inicio ubicado en la barra de tareas) y el menú contextual (se lo encuentra haciendo clic con el botón derecho del mouse en casi cualquier parte).

Barra de Tareas Usualmente hallada en la parte inferior de la pantalla, la barra de tareas de Windows 2000 lleva a cabo muchas funciones importantes. El menú Inicio (para lanzar aplicaciones) y la bandeja del sistema (que muestra programas en segundo plano y el reloj) están ubicados en la barra de tareas. Más importante, la barra de tareas mantiene un rastreo de todas las ventanas abiertas. La Figura muestra ejemplos de un menú y de la barra de tareas de Windows 2000. Un botón horizontal que muestra el ícono de la aplicación y un título representa a cada ventana abierta. Los usuarios pueden hacer clic en estos botones para navegar entre las diversas ventanas y restaurar cualquiera que haya sido minimizada. Esta herramienta es particularmente útil para los usuarios que trabajan con muchas ventanas a la vez.

Page 216: Documento de Apoyo No. 4 Cisco It Essentials II

216

a última característica básica de Windows 2000 es la capacidad para apagar la PC. Esta opción está disponibles bajo el comando Apagar el Sistema del menú Inicio, donde los usuarios también pueden elegir Cerrar Sesión y Reiniciar la computadora. La Figura muestra la ventana usada para apagar correctamente una computadora que corre Windows 2000.

8.2 Interfaz Administrador/Usuario

8.2.3 Interfaz de Línea de Comandos (CLI) de Windows

La interfaz de línea de comandos (CLI) de Windows 2000 se basa en el anteriormente popular sistema operativo de los '80, MS-DOS. Ahora se denomina "intérprete de comandos de Windows 2000" aunque muchos usuarios probablemente todavía piensen en él como en el clásico MS-DOS. La Figura muestra el intérprete de comandos de Windows 2000. Independientemente de eso, su funcionalidad básica es casi idéntica a la del MS-DOS a excepción de unos pocos comandos nuevos agregados y una gran cantidad de comandos desactualizados eliminados. El intérprete de comandos se ejecuta "encima" de Windows 2000 para proporcionar a los usuarios los beneficios de una CLI dentro de la GUI de Windows 2000.

Page 217: Documento de Apoyo No. 4 Cisco It Essentials II

217

Como lo muestra la Figura , el intérprete de comandos de Windows 2000 puede lanzarse de varias maneras:

· En la barra de tareas, seleccione Inicio > Programas > Accesorios > Prompt de Comandos. · En la barra de tareas, seleccione Inicio > Ejecutar. En el recuadro Abrir tipee cmd.

Después de abrir una ventana del intérprete de comandos, al usuario se le presentará un prompt para introducir comandos. El prompt de comandos por defecto puede variar dependiendo de cómo se lanzó el intérprete de comandos, pero en general tendrá un aspecto parecido a éste: C:\>. La apariencia del prompt de comandos puede cambiar, pero su funcionalidad siempre será la misma. Es simplemente un lugar para que el usuario tipee comandos en la pantalla.

El proceso básico de introducción de comandos es muy simple. Tipee el comando en el prompt, presione la tecla Enter del teclado, y vea cualquier salida en la pantalla. Este proceso es el flujo estándar de actividad del usuario para casi todos los sistemas CLI. Un comando útil a recordar es el comando doskey. No tiene salida, pero una vez ejecutado, el usuario puede presionar la tecla arriba del teclado para pasar por comandos introducidos previamente.

Si un usuario pasa mucho tiempo con el intérprete de comandos, otra herramienta útil es ejecutar la ventana en modo pantalla completa. Presionando Alt + Enter en el teclado, la ventana pasará a ocupar toda la pantalla con la CLI de Windows 2000. Esto mejora mucho la legibilidad de la interfaz y es reminiscente de los días del MS-DOS. Para cerrar la pantalla completa o la ventana del intérprete de comandos, tipee el comando exit. Este comando cerrará inmediatamente el intérprete de comandos y llevará al usuario de vuelta a la GUI de Windows 2000. Cerrar esta ventana manualmente con el mouse es considerado impropio por Windows 2000.

8.2 Interfaz Administrador/Usuario

8.2.4 Navegación con el Explorador de Windows

El Explorador de Windows es un importante componente de Windows 2000 y de todos los otros sistemas operativos Windows desde e incluyendo a Windows 95. Éste no debe confundirse con el Internet Explorer, que se usa para navegar por Internet. El Explorador de Windows [Windows Explorer] se usa para navegar por todo el sistema de archivos. El Explorador de Windows proporciona a los administrador de sistemas una forma fácil de visualizar todos los archivos que hay en la red o están ubicados en un servidor. Colapsando y expandiendo carpetas se mostrará todo el contenido en la ventana del lado derecho. Todas las carpetas y directorios se ubican en la ventana del lado izquierdo, lo cual hace fácil la navegación a través de cualquier unidad instalada en el sistema que pueda contener directorios o archivos.

Existe una variedad de métodos para abrir el Explorador de Windows. Los usuarios siempre pueden encontrar un vínculo en el menú Inicio dirigiéndose a la sección Programas y abriéndola. Hacer clic

Page 218: Documento de Apoyo No. 4 Cisco It Essentials II

218

con el botón derecho en el menú Inicio y elegir Explorar también puede abrir el Explorador de Windows. Otra forma de abrir el Explorador de Windows independientemente de en qué ventana se encuentra actualmente el usuario es presionando la tecla Windows y la tecla E en el teclado al mismo tiempo. La tecla Windows es la tecla ubicada entre las teclas Control y Alt en el teclado. La Figura muestra el Explorador de Windows.

8.3 Cuentas de Usuarios

8.3.1 Agregado de usuarios

Antes de iniciar sesión en cualquier cliente Windows 2000, primero debe crearse una cuenta de usuario en el servidor de red apropiado. Esta cuenta permitirá al usuario iniciar sesión en un dominio de red específico usando la información de la cuenta creada por el administrador del sistema. La tarea de crear esta cuenta en Windows 2000 se lleva a cabo con la herramienta Administración de Computadora. Seleccione Inicio > Programas > Herramientas Administrativas > Administración de Computadora para mostrar esta ventana. La Figura muestra la herramienta Administración de Computadoras.

La herramienta Administración de Computadora permite a un administrador de sistemas administrar todos los aspectos de una computadora en particular, incluyendo usuarios autorizados, y en el caso de un servidor de red, los usuarios autorizados de un dominio de red. Para crear un nuevo usuario para una máquina local, expanda el árbol de directorios a la izquierda para revelar Herramientas del Sistema, Usuarios Locales y Grupos. Haga clic en el ícono Usuarios para mostrar todas las cuentas de usuario existentes en la mitad derecha de la ventana. Bajo el menú Acción o del botón derecho del mouse, seleccione Nuevo Usuario para mostrar una pantalla que pide toda la información de cuenta necesaria. La Figura muestra la ventana para agregar nuevos usuarios.

Page 219: Documento de Apoyo No. 4 Cisco It Essentials II

219

El Nombre de Usuario es un campo requerido. No puede tener más de 20 caracteres de longitud, y no puede contener los siguientes símbolos.

/ \ [] : | < > + = ; , ? *.

Tanto el Nombre Completo como la Descripción tienen propósitos informativos y no se requieren. Después de introducir toda la información de cuenta y presionar el botón Crear, se creará el nuevo usuario, que puede inmediatamente iniciar sesión en la computadora con el nombre de usuario y contraseña especificados.

8.3 Cuentas de Usuarios

8.3.2 Administración de cuentas de usuarios

Como se trató anteriormente, la herramienta Administración de Computadoras es el medio principal para que un administrador de sistemas agregue y administre usuarios en Windows 2000. Estas tareas deberán ser mucho más intuitivas en este entorno GUI en comparación a una CLI como Linux. En lugar de memorizar nombres de comandos, los usuarios de Windows 2000 pueden llevar a cabo estas operaciones de varias maneras, desde simples selecciones en menúes hasta comandos en el teclado.

La técnica de administración de usuarios más simple es hacer clic con el botón derecho del mouse sobre el nombre del usuario enumerado en la mitad derecha de la ventana de Administración de Computadoras y seleccionar la tarea apropiada desde el menú. La Figura muestra las opciones disponibles después de hacer clic con el botón derecho sobre un usuario.

Page 220: Documento de Apoyo No. 4 Cisco It Essentials II

220

A partir de aquí, el administrador del sistema puede elegir instantáneamente Configurar Contraseña, Eliminar, o Renombrar el usuario. Seleccionar Propiedades también puede inhabilitar la cuenta, y colocar un tilde en el recuadro La cuenta está inhabilitada. La Figura

muestra las opciones disponibles en la ventana propiedades de la cuenta. Éstas y otras opciones de administración de usuarios pueden hallarse navegando los menúes restantes de la ventana. Deberá tenerse mucho cuidado al usar la opción Eliminar ya que no hay manera de deshacer ese cambio. 8.3 Cuentas de Usuarios

8.3.3 Funciones y Permisos de la Cuenta Administrador

Hablando en general, al referirse a cualquier sistema operativo, la cuenta administrador tendrá derechos y permisos para controlar, configurar, o cambiar cualquier cosa en el sistema operativo. Windows usa una variedad de un tipo diferente de cuentas administrador, que está diseñada para delegar autoridad a las diversas responsabilidades del administrador. Esto incrementa la seguridad porque las funciones del administrador se delegarán a más de una persona, basándose en el nivel de acceso que se les otorga con el tipo de cuenta de administrador a la que tienen derecho. Usualmente la cuenta del administrador principal se asignará a una sola persona, usualmente un administrador IT o ingeniero IT nivel senior.

Windows 2000 Professional crea automáticamente una cuenta administrador incorporada. Use la cuenta Administrador incorporada para administrar toda la computadora. Si su computadora es parte de un dominio, use la cuenta Administrador incorporada para administrar la configuración del dominio. Tareas efectuadas usando la cuenta Administrador incluyen la creación y modificación de cuentas y grupos de usuarios, administración de políticas de seguridad, creación de impresoras, y asignación de permisos y derechos a cuentas de usuario para obtener acceso a los recursos. También hay un grupo de administradores incorporado, al que pueden agregarse usuarios regulares temporalmente en caso de que necesiten permisos específicos para instalar o ejecutar un programa por ejemplo.

Algunos de los diferentes tipos de cuenta/grupos Administrador son los siguientes:

· Administradores de Dominio Windows agrega automáticamente Administradores de Dominio al grupo local de dominio de Administradores para que los miembros de los Administradores de Dominio puedan llevar a cabo tareas administrativas en cualquier computadora de cualquier lugar del dominio. Por defecto, la cuenta Administrador es un miembro.

· Administradores de Empresa Se pueden agregar cuentas de usuario a Administradores de Empresas para usuarios que deberán tener control administrativo de toda la red. Por defecto, el grupo local incorporado de Administradores para cada dominio es un miembro del grupo global Administradores de Empresa. Por defecto, la cuenta Administrador es miembro.

Page 221: Documento de Apoyo No. 4 Cisco It Essentials II

221

8.4 Administración del Sistema de Archivos

8.4.1 Crear y compartir carpetas

Una tarea importante de un administrador de sistemas es crear carpetas y directorios que los usuarios de toda la red compartirán y usarán para hacer copias de seguridad de archivos. Para lograr esto en Windows 2000, el administrador debe primero navegar al directorio donde se creará la carpeta compartida. Una vez en ese directorio, el administrador hará clic con el botón derecho del mouse en el escritorio y elegirá Nuevo y luego seleccionará Carpeta. El administrador pondrá un nombre a la carpeta. Para compartir esta carpeta el administrador hará clic con el botón derecho del mouse en la carpeta y seleccionará Compartir. Aparecerá el recuadro de propiedades del programa, y el administrador seleccionará el botón radio compartido, como lo muestra la Figura . El administrador elegirá un nombre para este directorio. Éste es el nombre con el que se lo conocerá en la red. El administrador selecciona la solapa Permisos para asignar qué usuarios o grupos tendrán permiso para acceder a este directorio. La carpeta mostrará una mano debajo de ella. Esto indica que la carpeta ha sido compartida.

Otra forma de compartir una carpeta en una red es crear una unidad en el servidor. Los clientes son capaces de mapearse a la unidad de red, que les proporciona acceso a esa unidad en el servidor para guardar y hacer copias de respaldo de sus archivos. Ésta es una forma más avanzada de lograr la tarea, pero es una forma recomendada para que un administrador de sistemas cree carpetas compartidas en la red. En general en esta disposición, se comparte la unidad y se configura una contraseña para acceder a ella. Luego se agregan carpetas a esa unidad y pueden aplicarse permisos a esas carpetas. Puede otorgarse acceso a los directorios a ciertos usuarios o grupos. La Figura muestra una unidad de red compartida con diversas carpetas compartidas disponibles para los usuarios de la red.

Page 222: Documento de Apoyo No. 4 Cisco It Essentials II

222

8.4 Administración del Sistema de Archivos

8.4.2 Creación de grupos y agregado de usuarios

Windows 2000 permite a los administradores del sistema crear grupos de muchos tipos y usos diferentes. Uno de estos tipos es el de "grupos locales". Un grupo local existe sólo en una única computadora y está compuesto por diversos usuarios de esa computadora. Otros grupos más orientados a la red hallados en Windows 2000 incluyen los grupos globales, los grupos locales de dominio y los grupos universales. Los diferentes tipos de grupos varían tanto en alcance como en funcionalidad y son usados por los administradores de sistemas de Windows 2000 para administrar grandes cantidades de usuarios en una red. En cambio, los grupos locales no se usan en una red sino que proporcionan un ejemplo suficiente de cómo usar grupos en Windows 2000.

Durante el proceso de instalación, Windows 2000 crea grupos locales por defecto como el grupo Administradores y el grupo Usuarios. Cada uno de estos grupos tiene diferentes niveles de control sobre el sistema local. Además, los usuarios pueden crear nuevos grupos locales usando la herramienta Administración de la Computadora (se encuentra seleccionando Inicio > Programas > Herramientas Administrativas). Expandir el árbol de directorios a la izquierda revela la herramientas Usuarios y Grupos Locales, donde la carpeta Grupos muestra todos los grupos existentes en el sistema. Usando el botón derecho del mouse o el menú Acción de esta ventana permitirá al usuario seleccionar la opción del menú Nuevo Grupo. Una vez especificado un nombre, descripción, y miembros, el grupo se agregará al sistema local. Cualquier usuario enumerado como miembro tendrá permitido el mismo acceso y restricciones de ese grupo. Para agregar más usuarios, renombrar o eliminar el grupo, simplemente haga clic con el botón derecho del mouse sobre el nombre del grupo en la ventana y seleccione la opción apropiada del menú. La ventana Nuevo Grupo se muestra en la Figura .

Page 223: Documento de Apoyo No. 4 Cisco It Essentials II

223

8.4 Administración del Sistema de Archivos

8.4.3 Contraseñas y permisos

Mantener una red de incontables usuarios puede representar serios problemas de seguridad para un administrador de sistemas. Como se mencionó anteriormente, la seguridad es una de las consideraciones principales para todos los administradores de sistemas, y deben darse pasos para asegurar que los usuarios no abusen o interfieran accidentalmente con las operaciones de la red. Las herramientas de seguridad relacionadas con los usuarios más básicas disponibles para un administrador son las contraseñas y los permisos.

En la sociedad basada en Internet de hoy, la mayoría de los usuarios comprenden el concepto de contraseña. Una contraseña es un conjunto secreto de caracteres que sólo un usuario conoce. Todos los usuarios tienen sus propias contraseñas, que a menudo son elegidas por el usuario individual para poder recordarla fácilmente (en oposición a una contraseña generada automáticamente por el sistema que puede ser difícil de recordar). Las contraseñas se usan en conjunción con un nombre de usuario al iniciar sesión en un NOS para verificar la identidad del usuario. Una buena contraseña constará de al menos cinco caracteres y será alfanumérica (incluirá una combinación de letras y números o caracteres especiales). La Figura muestra ejemplos de buenas y malas contraseñas.

Las contraseñas no necesariamente tienen que ser únicas entre los usuarios pero deberán conservarse en secreto para garantizar la seguridad de la red. Los administradores de sistema a menudo requieren que las contraseñas de red se cambien frecuentemente, para molestia de algunos usuarios. No obstante, si la contraseña de un usuario se hiciera pública, cualquiera podría

Page 224: Documento de Apoyo No. 4 Cisco It Essentials II

224

usarla para iniciar sesión en la red y operar bajo la identidad y el nivel de acceso de ese usuario. Esta amenaza es una gran preocupación para los administradores de sistemas, que intentan controlar tales accesos mediante el uso de permisos.

Tipos de Permiso Los permisos son restricciones creadas por el administrador del sistema que habilitan e inhabilitan las acciones que un usuario puede realizar en la red. Por ejemplo, un administrador de sistemas usualmente tiene permisos completos, es decir, sin restricciones, y retiene el acceso total a todas las partes de la red. Un ejecutivo financiero puede tener el control total sobre ciertos directorios financieros en un servidor pero ningún control sobre los datos de recursos humanos. Esta división de acceso aplica una estrecha seguridad en la red, ya que a cada usuario se le otorga acceso solamente a áreas específicas y necesarias. Los permisos se asignan a los usuarios durante el proceso de creación de cuentas y se dividen en general en las siguientes categorías:

· Permiso de lectura Es la capacidad de leer el contenido de un archivo o directorio. · Permiso de escritura También se llama permiso de "cambio" o "modificación". Esto

permite al usuario editar y guardar cambios en un archivo o agregar y eliminar archivos de un directorio.

· Permiso de ejecución Esto permite al usuario ejecutar un archivo o entrar a un directorio.

Los permisos enumerados arriba pueden asignarse en general a usuarios individuales o grupos de usuarios en cualquier combinación. Por ejemplo, un ejecutivo financiero puede tener permiso para entrar y ver el contenido del directorio de recursos humanos (permisos de ejecución y lectura) pero no para modificar el directorio ni guardar cambios en ninguno de sus archivos (permiso de escritura). Los permisos proporcionan una herramienta eficaz para que los administradores de sistemas puedan aplicar la seguridad en la red y se tratará en mayor detalle posteriormente.

8.5 Servicios

8.5.1 Protocolo de Transferencia de Hipertexto (HTTP)

Configurar servicios del Protocolo de Transferencia de Hipertexto (HTTP) en Windows XP es lo mismo que configurar servicios HTTP en Windows 2000. Habilitando el servicio HTTP en un NOS, la computadora se vuelve un servidor web capaz de enviar información a través de la World Wide Web (WWW). En versiones anteriores del NOS Windows, eran necesarios programas separados para permitir al sistema manipular tales operaciones. No obstante, con el lanzamiento de Windows 2000, las herramientas para llevar a cabo servicios de Internet se incluyen y están incorporadas al software. Como se trató anteriormente, estos servicios se activan y configuran mediante el uso de la herramienta Servicios de Información de Internet (IIS) que se encuentra bajo el menú Inicio > Programas > Herramientas Administrativas.

Lanzar esta herramienta muestra la computadora actual y la lista de servicios de Internet disponibles. El servicio web HTTP se encuentra aquí bajo el nombre Sitio Web por Defecto. La Figura muestra la ventana IIS con el Sitio Web por Defecto seleccionado. Seleccionar este ícono o hacer clic en el signo más para expandir el árbol de navegación revela los muchos directorios y archivos por defecto incluidos en este servicio. Hacer clic con el botón derecho del mouse en el ícono Sitio Web por Defecto muestra un menú habilitando al administrador para que inicie, ponga en pausa o detenga el servicio, además de configurar sus diversas propiedades. Algunas de estas propiedades son bastante auto-explicativas basándose en sus descripciones, pero la mayoría requerirá un administrador de sistemas experimentado para configurar apropiada y seguramente el servicio HTTP.

Page 225: Documento de Apoyo No. 4 Cisco It Essentials II

225

Una vez que este servicio ha sido iniciado, los usuarios pueden ver la página web por defecto del sistema enviando la siguiente dirección a su navegador web.

http://127.0.0.1

Esta dirección IP se denomina dirección "loopback". Es una dirección estándar de networking que siempre apunta a la computadora local. A menos que exista una entrada de Sistema de Nombre de Dominio (DNS) para la dirección IP del sistema NOS, esta dirección loopback o la verdadera dirección IP del sistema serán necesarias para acceder a estas páginas a través de la World Wide Web. Por defecto, Windows 2000 mostrará el archivo llamado "localstart.asp" al recibir una solicitud de información entrante de un navegador web. Si el servicio HTTP del NOS está habilitado con el propósito de hosting de página web, es probable que el administrador del sistema actualice la mayoría de estos archivos y configuraciones.

8.5 Servicios

8.5.2 Protocolo de Transferencia de Archivos (FTP)

En las primeras versiones del NOS Microsoft Windows, proporcionar a los usuarios el servicio del Protocolo de Transferencia de Archivos (FTP) sólo era posible mediante la instalación de un programa separado. Con el lanzamiento del NOS Windows 2000 actual, este servicio ha sido incluido como característica estándar que puede ser fácilmente configurada. Antes de iniciar el servicio, debe determinarse si se han cargado las herramientas apropiadas durante la instalación de Windows 2000. Específicamente, las herramientas de Servicios de Información de Internet (IIS) son necesarias para ejecutar los servicios de FTP y HTTP (entre otros) para las computadoras Windows 2000.

Page 226: Documento de Apoyo No. 4 Cisco It Essentials II

226

Para determinar si es necesario instalar el paquete de Servicios de Información de Internet, seleccione Inicio > Configuración > Panel de Control > Agregar/Quitar Programas. Haga clic en el botón Agregar/Quitar Componentes de Windows y asegúrese de que el recuadro IIS esté tildado, indicando que está listo para usar. Si el recuadro no está tildado, un administrador de sistemas debe tildar el recuadro y proporcionar el software Windows 2000 necesario para actualizar el NOS para que incluya el componente.

Una vez que se agregó el componente IIS de Windows 2000, el servicio FTP está listo para ser configurado. Lanzar la herramienta Servicios de Información de Internet hace esto. Seleccione Inicio > Programas > Herramientas Administrativas > Administrador de Servicios de Internet para mostrar la ventana. Hacer clic en el signo más junto al nombre de la computadora revela los diversos servicios relacionados con Internet que mantiene esta herramienta, incluyendo el servicio de FTP para Windows 2000. Abriendo el menú contextual sobre el ícono Sitio FTP por Defecto, el administrador del sistema puede iniciar, detener o poner en pausa el servicio además de configurar sus diversas propiedades. La Figura muestra las opciones disponibles para el Sitio FTP por Defecto y la Figura muestra la ventana de propiedades para el Sitio FTP por Defecto. Una vez que el servicio FTP se inicia, los usuarios autorizados pueden conectarse remotamente y transferir archivos.

8.5 Servicios

8.5.3 Telnet

Antes de que una conexión Telnet pueda establecerse con una computadora Windows 2000 remota, el sistema debe configurarse para aceptar sesiones Telnet entrantes mediante la herramienta Administración del Servidor Telnet. Seleccione Inicio > Programas > Herramientas Administrativas > Administración del Servidor Telnet. Aquí el servicio telnet puede ser iniciado, detenido y configurado por un administrador de sistemas. La Figura muestra las opciones disponibles para administrar el Servidor Telnet. Por razones de seguridad, sólo un usuario con privilegios de administrador puede administrar el servidor Telnet en una máquina Windows 2000. Habilitar estas sesiones de Telnet presenta un problema de seguridad potencialmente serio que los administradores de sistemas siempre deben considerar. Sin los usuarios, grupos y permisos apropiados aplicados, el servidor Telnet puede convertirse en una puerta trasera para un acceso no autorizado al sistema.

Page 227: Documento de Apoyo No. 4 Cisco It Essentials II

227

Una vez que el servidor Telnet está activado, el acceso se controla usando las cuentas de usuario locales creadas en esa máquina. Para que un usuario haga Telnet a una máquina Windows 2000, el usuario debe también poder iniciar sesión en esa máquina localmente. Por defecto, el servidor Telnet de Windows 2000 está configurado para usar el Administrador de LAN de Windows NT (NTLM) para autenticación del usuario. Esto significa que no se pide a los usuarios que introduzcan manualmente sus nombres de usuario y contraseñas sino que en cambio son verificados mediante la información de inicio de sesión previamente enviada cuando se inició la sesión actual de Windows 2000. Con NTLM, el proceso de inicio de sesión tiene lugar automáticamente, y los usuarios autorizados reciben instantáneamente un prompt de comandos. Esta función puede activarse o desactivarse mediante la herramienta Administración del Servidor Telnet seleccionando la opción del menú 3 para cambiar configuraciones del Registro y luego la opción del menú 7 para especificar un nuevo valor NTLM. La Figura muestra valores NTLM válidos.

Si el administrador del sistema desea restringir el acceso a telnet a usuarios locales específicos, un grupo local de Clientes Telnet puede crearse. Windows 2000 reconocerá automáticamente este grupo y sólo permitirá a sus miembros (y administradores de sistemas) iniciar sesión remotamente mediante Telnet. Una vez que un usuario local ha iniciado sesión exitosamente, se otorgará al usuario permisos de archivos y directorios mediante el intérprete de comandos basado en la seguridad del sistema del archivo NTFS. La Figura exhibe una muestra de una sesión telnet activa. Note que sólo dos conexiones Telnet se permiten por servidor Telnet Windows 2000.

Page 228: Documento de Apoyo No. 4 Cisco It Essentials II

228

8.5 Servicios

8.5.4 Detención e Inicio de Servicios en Windows

Windows proporciona una pantalla de Control de Administración de Servicios que enumera todos los servicios disponibles en el sistema operativo Windows. En esta página se encontrarán todos los servicios ejecutándose o inhabilitados actualmente. Para acceder a esta página, haga clic en la solapa "Servicios" de las herramientas Administrativas de Windows. Existen dos métodos básicos para ver los servicios en Windows 2000. Son los siguientes.

1. Usando el Menú Inicio, haga clic en Programas > Herramientas Administrativas > Servicios.

2. Haga clic con el botón derecho del mouse en el ícono "Mi PC" y seleccione "Administrar". Se abrirá la pantalla "Administración de Computadora". Expanda el menú "Servicios y Aplicaciones" para mostrar la solapa "Servicios".

Los servicios se muestran en orden alfabético por nombre. Una descripción de lo que hace cada servicio se muestra a la derecha. Los servicios de la computadora que se administran mediante la utilidad Administración de Computadora se llaman MMC. Para administrar un servicio abra la ventana Servicios en una de las utilidades y haga doble clic en el servicio a administrar. Se abrirá el recuadro de diálogo de las propiedades del servicio. Las solapas y la información en ellas se describen a continuación:

· Solapa General · Nombre del servicio · Ruta al programa que proporciona el servicio · Cómo se inicia el servicio, por ejemplo manual · Estado · Botones que permiten iniciar, detener, poner en pausa o reanudar el servicio · Solapa Inicio de Sesión Configure la cuenta usada para ejecutar el servicio. Puede

seleccionarse un perfil de hardware al que se ha de asociar el servicio. El servicio puede habilitarse o inhabilitarse en cada perfil de hardware.

· Solapa de Recuperación Configura la acción a tomar si el servicio falla o no inicia en el fallo primero, segundo o adicionales.

· Ninguna acción

Page 229: Documento de Apoyo No. 4 Cisco It Essentials II

229

· Reiniciar el servicio · Ejecutar un archivo · Reiniciar el sistema · Solapa Dependencias Muestra los servicios que deben ejecutarse antes de que el servicio

seleccionado pueda ejecutarse. Éstos son servicios de los cuales el servicio seleccionado depende para ser ejecutado.

Usar la solapa Servicios en MMC de Windows 2000 le permite iniciar y detener modularmente cualquier servicio que se esté ejecutando en Windows 2000. Por ejemplo, es posible detener manualmente al cliente Windows 2000 para que no use DHCP o DNS. Otro ejemplo sería si el servidor fuera un servidor web o ftp ejecutando IIS (Servicios de Información de Internet). Usando MMC, es posible detener o iniciar manualmente el servidor IIS.

8.5 Servicios

8.5.5 Relación servidor/cliente de e-mail

En general en un entorno de red habrá un servidor de e-mail. Microsoft usa Exchange como servidor de e-mail. El lado del cliente del servicio de e-mail puede ser una variedad de productos de suite de oficina. Por otro lado, el software de cliente más ampliamente usado es Outlook, que es distribuido por Microsoft y funciona con Exchange. Otros ejemplos de sistema servidor y cliente de e-mail son Novell Groupwise, al que también puede accederse desde Microsoft Outlook, y Lotus Notes.

El servidor de e-mail controla todo el e-mail que se envía y recibe. Cuando un usuario envía e-mail a otro usuario, éste es enviado primero al servidor donde se colocará en la casilla de correo del destinatario. El usuario que está recibiendo el e-mail abre el programa de e-mail y lee el e-mail que está en la casilla de correo. Una vez que el usuario borra el e-mail, se eliminará del servidor. Los servicios de e-mail funcionan como el sistema postal con algunas computadoras cumpliendo la función de la oficina de correos. La Figura muestra el proceso de envío de e-mail. La cuenta de e-mail del usuario opera como una casilla de correo donde el correo se guarda para el usuario hasta que es recogido a través de la red mediante un programa de cliente de e-mail que se ejecuta en el sistema del usuario. El e-mail continúa siendo la función más ampliamente utilizada de las redes de computadoras en muchas partes del mundo.

El e-mail funciona como una aplicación de almacenamiento y envío. Los mensajes de correo (y su información de identificación, como por ejemplo el emisor, destinatario y tiempo de salida) se almacenan en un servidor de e-mail (casilla de correo) hasta que el destinatario recupera el correo. En general, los mensajes de e-mail son comunicaciones breves. Los sistemas de e-mail actuales también permiten a los usuarios adjuntar archivos más grandes de diferentes tipos (documentos, imágenes, películas) a sus mensajes. Estos adjuntos también pueden recuperarse o descargarse junto con el mensaje de e-mail. De esta manera, los servicios de e-mail se funden con los servicios de transferencia de archivos en la red.

Los sistemas de e-mail han evolucionado junto con la tecnología de networking. El rápido crecimiento de Internet ha permitido que más y más gente se conecte online. Esto permite una

Page 230: Documento de Apoyo No. 4 Cisco It Essentials II

230

comunicación inmediata entre usuarios de la red. La naturaleza de almacenamiento y envío de los sistemas de e-mail no requiere que el destinatario esté conectado cuando se envía el e-mail. El destinatario puede recoger el e-mail en un momento posterior.

Además del e-mail, Internet ha dado nacimiento a una variedad de sistemas de mensajería instantánea que permiten a los usuarios de la red conversar con poco retraso. Esta capacidad se conoce como tiempo real, y se usa cuando dos o más usuarios se conectan a la red al mismo tiempo para chatear.

8.5 Servicios

8.5.6 Impresión en Windows 2000

Además de compartir información importante en directorios y configurar una relación de servidor/cliente de e-mail, las redes permiten a los usuarios compartir caros dispositivos de impresión. Implementando servicios de impresión, una red puede hacer una impresora de alta velocidad de alto costo accesible a muchos usuarios como si estuvieran directamente conectados a sus propias computadoras. La red puede transportar solicitudes de impresión y copias de documentos de muchos usuarios a un servicio de impresión central donde estas solicitudes se procesan. Varios servicios de impresión, cada uno de ellos ofreciendo una diferente calidad de salida, puede implementarse de acuerdo a los requisitos de los usuarios. Bajo control administrativo, los usuarios pueden seleccionar el servicio que necesitan para un trabajo en particular. De esta forma, las redes permiten un uso más eficiente de costosos dispositivos de impresión sin tener que duplicarlos.

Un servidor de impresión es una computadora dedicada a manipular trabajos de impresión de los clientes de la manera más eficiente. Puesto que manipula solicitudes de varios clientes, un servidor de impresión es usualmente una de las computadoras más potentes de la red. Un servidor de impresión deberá tener los siguientes componentes:

· Un procesador potente Puesto que el servidor de impresión usa su procesador para administrar y enrutar la información de impresión, necesita ser lo suficientemente rápido para manipular todas las solicitudes entrantes.

· Adecuado espacio en el disco duro Los servidores de impresión a menudo capturan trabajos de impresión de los clientes, los colocan en una cola de impresión, y los alimentan a la impresora en su momento. Esto requiere que la computadora tenga suficiente espacio de almacenamiento para contener estos trabajos hasta que se completen.

· Memoria adecuada El procesador del servidor y la Memoria de Acceso Aleatorio (RAM) alimentan los trabajos de impresión a una impresora. Si la memoria del servidor no es lo suficientemente grande como para manipular un trabajo de impresión entero, el trabajo debe alimentarse desde el disco rígido, lo cual es mucho más lento.

El rol de un servidor de impresión es proporcionar al cliente acceso a recursos de impresión y proporcionar feedback a los usuarios. Al usar impresoras que se conectan directamente a la red, el servidor de impresión "enruta" trabajos de impresión a la impresora apropiada. Con la tecnología de impresión basada en el host, el servidor de impresión actúa como intérprete entre el cliente y la impresora a la cual está directamente conectada. Si se lo configura apropiadamente, el servidor de impresión también puede enviar a los clientes el software de controlador de impresora necesario para acceder a la impresora. Puesto que los servidores de impresión administran trabajos de impresión a través de una cola de impresión, también pueden proporcionar feedback acerca de las impresoras a los usuarios de la red. Este feedback puede incluir un mensaje de confirmación de que un trabajo de impresión se ha completado y un tiempo estimado para completar el trabajo de impresión. También puede informar sobre cualquier error que puede haber encontrado en el proceso de impresión como falta de papel en la impresora, tipo de papel incorrecto, atasco de papel, falta de tóner/tinta, etcétera.

Compartir una Impresora Local Para compartir una impresora que está conectada a la computadora local, diríjase a la carpeta Impresoras, accesible a través del Panel Control, y luego haga clic con el botón derecho del mouse

Page 231: Documento de Apoyo No. 4 Cisco It Essentials II

231

sobre el nombre de la impresora. Elija Compartir, haga clic en Compartido como botón de opción, y luego introduzca un nombre para compartir o acepte el nombre por defecto. La Figura muestra este proceso en Windows 2000.

Conexión a una Impresora Compartida Hay dos formas de conectarse a una impresora de red compartida. El usuario puede usar el Asistente Agregar Impresora o usar el comando net use en la línea de comandos. En las siguientes secciones, cada método se examina en detalle.

Uso del Asistente Agregar Impresora La forma más fácil de usar una impresora remota en Windows es agregarla con el Asistente Agregar Impresora. Para ello, haga doble clic en el ícono Agregar Impresora de la carpeta Impresoras y siga las instrucciones del asistente.

NOTA:

Microsoft usa asistentes, que están compuestos por una serie sistemática de recuadros de diálogo, para guiar a los usuarios a través de muchas tareas administrativas. Una vez finalizado el asistente, la impresora de red aparece en la carpeta Impresoras, y los usuarios pueden imprimir en ella desde sus aplicaciones como si fuera una impresora local. Los trabajos de impresión pasan a spool (se almacenan en la memoria o en el disco duro) para esperar en la cola para ser impresos. La lista de trabajos de impresión pendientes se denomina spool de impresión.

Uso del Comando net use para Capturar un Puerto de Impresora El comando net use puede usarse para capturar un puerto de impresora y redirigir trabajos de impresión desde el puerto local (LPT1) a la impresora de red. La sintaxis para el comando, que se introduce en el prompt de comandos, es la siguiente:

net use LPT1: \\nombrecomputadora\nombreimpresora

El nombrecomputadora es el servidor de impresión al cual el dispositivo de impresión (nombreimpresora) está conectado físicamente.

8.5 Servicios

8.5.7 Scripts

Windows 2000 puede dar lugar a muchos tipos de lenguajes de scripting usando su Windows Script Host (WSH) incorporado. Este componente de Windows 2000 y XP permite a los usuarios crear scripts usando los lenguajes VBScript o JavaScript. WSH también puede reconocer cualquier otro lenguaje de scripting que el usuario desee. Cuando se crea un archivo de texto, el usuario simplemente nombra el archivo con la extensión de archivo apropiada para indicar su lenguaje de scripting a WSH. Por ejemplo, un archivo VBScript tendrá una extensión de archivo .vbs, mientras que un archivo JavaScript terminaría con la extensión .js. La Figura muestra un archivo con una

Page 232: Documento de Apoyo No. 4 Cisco It Essentials II

232

extensión .vbs en Windows 2000. Cuando cualquiera de los archivos scripts es ejecutado, WSH maneja el código basándose en estas extensiones de los archivos.

Aunque los lenguajes de scripting se consideran más fáciles de aprender que los lenguajes de programación estándar (como Microsoft Visual C++), la capacidad para crear scripts funcionales en Windows 2000 y Windows XP requiere capacitación y práctica específicas. Aunque tanto VBScript como JavaScript ofrecen una funcionalidad similar, cada uno consiste en diferente sintaxis y estructura de codificación. Volverse experto en VBScript no incrementará necesariamente la habilidad para crear código JavaScript apropiado, y viceversa. Muchos usuarios no tendrán la capacitación apropiada para aprovechar el scripting en Windows 2000, pero es más probable que los administradores de sistemas pasen el tiempo necesario estudiando estos lenguajes. Hacerlo permite que muchas de las tareas comunes de administración mencionadas anteriormente se simplifiquen y automaticen.

Un Script Windows 2000 Simple Para ver cómo funcionan los scripts en Windows 2000 y XP, puede crearse fácilmente un script simple "hello world". Los usuarios pueden abrir el editor de texto Bloc de Notas (Inicio > Programas > Accesorios > Bloc de Notas) para editar éste y otros scripts. En el Bloc de Notas, la siguiente línea de código es todo lo necesario para que el script opere:

msgbox "Hello world."

Guardar este archivo con la extensión de archivo .vbs (Hello World.vbs) indica a WSH que es un archivo VBScript. Haciendo doble clic en el archivo, se ejecuta el archivo, y un único recuadro de mensaje aparece con el mensaje previamente codificado. El mensaje de error se muestra en la Figura . Este ejemplo es extremadamente simple y no ilustra las complejidades del lenguaje VBScript, pero sí proporciona una mirada superficial al potencial inherente al scripting de Windows 2000.

Resumen

Este capítulo trató el Sistema Operativo Windows 2000. Algunos de los conceptos importantes a retener de este capítulo son:

· Hay cuatro pasos principales en el proceso de instalación de Windows 2000. La instalación comienza cuando se ejecuta el programa Setup. Esto prepara el disco rígido y copia archivos. Luego Setup ejecuta un asistente que proporciona páginas de información, que se usan para completar el resto de la instalación.

· Windows Explorer proporciona a los administradores de sistemas una forma fácil de visualizar todos los archivos que están en la red o ubicados en un servidor. Carpetas

Page 233: Documento de Apoyo No. 4 Cisco It Essentials II

233

colapsables y expansibles mostrarán todo el contenido en la ventana del lado derecho.

· La herramienta Administración de la Computadora permite a un administrador de sistemas administrar todos los aspectos de una computadora en particular, incluyendo usuarios autorizados, y en el caso de un servidor de red, los usuarios autorizados de un dominio de red.

· Muchos usuarios no tendrán la capacitación apropiada para aprovechar scripting en Windows 2000, pero es más probable que los administradores de sistema pasen el tiempo necesario estudiando estos lenguajes. Hacerlo permite que muchas de las tareas de administración se simplifiquen y automaticen.

Aunque existen similitudes en los procesos de instalación de Windows 2000 y Linux, también hay muchas diferencias. El siguiente capítulo detalla la instalación para el sistema operativo Linux.

9. Procedimientos de instalación del Linux Descripción general

Planificar la instalación es un paso importante en una instalación de Linux. Esto se debe a la naturaleza más compleja y problemas de compatibilidad que surgen con Linux. Un buen plan de instalación hará al proceso de instalación real mucho más fácil. Una vez que el plan ha sido establecido es el momento de pasar al procedimiento de instalación en sí. Es imposible tratar cada detalle de la instalación de cada distribución de Linux en sólo un capítulo. No obstante, este capítulo presenta una instalación detallada de Red Hat Linux. Red Hat Linux es la distribución que se usa en este curso. Los procedimientos de instalación de otras distribuciones son muy similares excepto que el orden de los pasos de instalación puede ser un poco diferente.

El sistema X server es un aspecto importante del proceso de instalación y este capítulo tratará este tema en detalle. Este capítulo trata la instalación y configuración de X server en un sistema Linux. Algunas distribuciones instalan y configuran X automáticamente. No obstante, este capítulo trata cómo personalizar o cambiar cualquiera de las configuraciones del X server una vez completa la instalación. Una vez que el sistema operativo ha sido instalado hay varias tareas post instalación y configuraciones que es necesario hacer.

9.1 Tareas Pre-Instalación

9.1.1 El método de arranque

En los capítulos anteriores, se trataron los diversos pasos para prepararse para la instalación de los sistemas operativos Linux. Esto incluía determinar las necesidades de hardware y software así como la compatibilidad. También se trataron las diversas distribuciones de Linux y la elección de la distribución apropiada para la instalación. Después de tomar estas decisiones el siguiente paso es realmente comenzar a instalar el sistema operativo. Si recuerda de previos capítulos también, hay muchos métodos de instalación diferentes de los cuales elegir. Se puede instalar un sistema operativo mediante un disco booteable, CD-ROM o red (Web, ftp, NFS, SMB).

Instalar Linux usando este método requerirá que el sistema se arranque primero usando diskettes booteables o un CD-ROM booteable. Estos discos a veces se empaquetan con la distribución Linux que se está instalando. Usar este método es útil para instalar esa distribución de Linux en particular solamente, así como llevar a cabo mantenimiento en el sistema. Este método también requiere que se haga la configuración apropiada primero en el BIOS del sistema. Hay una configuración en el BIOS que le indicará al sistema desde qué medio arrancar. Algunas de estas opciones son diskette, disco rígido, CD-ROM, una unidad de red que tiene los archivos almacenados en un servidor, o una unidad removible de alta capacidad como una unidad Jaz o Zip. La Figura proporciona un ejemplo de la pantalla de la sección del orden de dispositivos de Arranque en el BIOS. De estas opciones, por lo común las únicas que se usarán para arrancar un sistema son el diskette, el CD-ROM o un método de Arranque del OS Existente.

Page 234: Documento de Apoyo No. 4 Cisco It Essentials II

234

Al arrancar el sistema usando una disquetera, el BIOS necesitará configurarse primero. Cada distribución deberá venir equipada con diskettes booteables. Si los diskettes no se incluyen, puede crearse uno. A veces el fabricante no incluye los diskettes booteables porque los CDs que contienen el OS son booteables y los discos no son necesarios. Este método se tratará a continuación. Una vez que las configuraciones apropiadas se han establecido en el BIOS, es necesario insertar el diskette en la unidad. El sistema necesitará iniciarse entonces, lo cual iniciará el proceso de instalación.

Si los CDs son booteables, como en el caso del método del diskette, será necesario establecer las configuraciones apropiadas en el BIOS. Todo lo que se necesita hacer es insertar el CD en la unidad de CD-ROM o DVD-ROM e iniciar el sistema. En este punto la instalación debería comenzar.

Otra forma de arrancar un sistema para comenzar el proceso de instalación es usando el método de arranque del OS existente. Ésta es una forma fácil de hacer una instalación si el OS será de arranque dual o si el OS existente actualmente en el sistema ha de reemplazarse. La mayoría de las distribuciones vienen con esta opción en los CDs de instalación. Lo único que necesita hacerse es insertar el CD en la unidad y el programa deberá iniciar automáticamente. El programa apagará el OS que está actualmente en ejecución. Cuando el sistema inicia, comenzará el proceso de instalación.

9.1 Tareas Pre-Instalación

9.1.2 Medios de instalación

El primer paso en el proceso de instalación de Linux es determinar desde qué medio se llevará a cabo la instalación. Una variedad de opciones están disponibles para instalar Linux incluyendo CD, servidor de red, diskettes o desde un disco rígido que tiene los archivos del CD copiados en él. Este curso usa el método del CD.

La forma más fácil y rápida de hacer una instalación es mediante el CD de instalación. Actualmente cada distribución de Linux viene en CD. Algunas distribuciones, como SuSE Linux, incluyen algunos de sus archivos de instalación en DVD-ROM en lugar de en CD. En capítulos anteriores se hizo notar que SuSE Linux incluye prácticamente todos los paquetes disponibles. El DVD-ROM puede contener el equivalente de varios CD-ROMs, lo cual permite a SuSE Linux incluir todos esos paquetes. Un DVD-ROM sería necesario en lugar de un CD-ROM en este caso.

Linux también puede instalarse desde una conexión de Red. Este método solamente se recomienda si hay una conexión de red rápida. El sistema tendrá que arrancarse desde un diskette primero, y luego elegir la opción instalar el OS mediante la conexión de red. La ruta hacia donde están ubicados los archivos de instalación necesitaría conocerse. Instalar Linux mediante la red es una buena opción cuando se instala en un sistema que no tiene un CD o DVD-ROM instalados. En este caso la unidad de CD-ROM de otro sistema de la red puede compartirse, conectándose a la

Page 235: Documento de Apoyo No. 4 Cisco It Essentials II

235

unidad de CD-ROM de ese sistema mediante la red, puede accederse a los archivos de instalación. Una desventaja de este método es que puede ser lento y no siempre es confiable. Si la red o la conexión remota se pierde, la instalación tendría que comenzarse de nuevo desde el principio.

Linux puede instalarse desde archivos que están ubicados en una partición diferente, incluso si esta partición tiene un OS diferente ejecutándose en ella. Esto se conoce como instalar desde un disco rígido. Si el OS se descargó en una partición que está ejecutando Windows por ejemplo, la otra partición podría acceder a esos archivos e instalar Linux desde esa partición. Se usaban diskettes para instalar Linux en algunas distribuciones antiguas, no obstante esto se ve raramente hoy. Hay una distribución que todavía usa un diskette para instalar el OS. Aunque no es un OS real, el Proyecto Router Linux(http://www.linuxrouter.org) es un OS Linux que se instala desde un diskette y puede instalarse en una computadora antigua que lo convertirá en router de red.

9.1 Tareas Pre-Instalación

9.1.3 Selección de los parámetros apropiados para la instalación

Éstos son los primeros pasos que se darán después de haber seleccionado el método de instalación apropiado y el sistema se ha arrancado. Algunas de las primeras pantallas mostradas darán opciones para seleccionar determinados parámetros para el sistema operativo. Estas opciones incluyen cosas tales como el idioma que se usará, y la fase de detección del hardware. Todos estos procedimientos proporcionan un medio para aplicar los parámetros que el sistema necesitará para poder estar preparado para la siguiente fase, que será seleccionar los paquetes apropiados para instalar.

Idioma Una de las primeras opciones que se mostrarán será la opción de qué idioma ha de usarse. La Figura proporciona un ejemplo de la pantalla de selección del idioma que se usa durante la instalación. Éste debería ser un paso claro y simple. Obviamente, la opción en este caso sería seleccionar el idioma de la persona que usará el sistema o el idioma de la persona que instala el OS en la computadora.

Términos de la Licencia Aunque no tan estrictos en el caso de Linux como podrían serlo con otros sistemas operativos como los de Microsoft, los términos de la licencia son importantes y es igual de importante que la persona que está haciendo la instalación lea estos términos. Aunque Linux es de fuente abierta a veces hay software propietario que podría venir con la distribución. Por lo tanto, no siguiendo los términos de este acuerdo de licencia podría existir la posibilidad de violaciones de derecho de autor.

Clase de Instalación Una vez que los términos de la licencia han sido aceptados, el siguiente paso será seleccionar el tipo de instalación a realizar. Dependiendo de qué distribución se está instalando, esta fase será diferente hasta cierto punto. Algunas distribuciones pedirán al usuario que seleccione una instalación recomendada o para expertos en este punto. Otras distribuciones, como Red Hat, brindará la opción de elegir hacer una Instalación para Estación de Trabajo, Servidor, o Personalizada. Al instalar Linux por primera vez, elegir el tipo de instalación recomendada puede ser el método más fácil. No obstante, eligiendo este método, no existirá la posibilidad de optar por el tipo de instalación que se está realizando. Si se elige la opción de estación de trabajo con Red Hat 7.2,

Page 236: Documento de Apoyo No. 4 Cisco It Essentials II

236

se instalarán las funciones básicas que podría necesitar una estación de trabajo incluyendo el sistema X Window. No instalará funciones de servidor como daemons FTP, HTTP o Telnet. Si se elige la instalación de servidor, estas funciones se instalarán, pero el sistema X Window no. Esto significa que la línea de comandos será la única opción para administrar el servidor. La opción de instalación personalizada permitirá elegir qué opciones instalar. Por ejemplo, elegir tener el sistema X Window instalado así como algunos de los daemons que podrían ser necesarios para un servidor como FTP, HTTP, y Telnet.

Mouse y Teclado Después de seleccionar el tipo apropiado de clase de instalación, el sistema atravesará un paso en el cual se detectarán los discos rígidos del sistema. Luego el sistema detectará el mouse y el teclado del sistema. Linux puede autodetectar el mouse y el teclado y lo más probable es que se seleccione el correcto. Se mostrará una ventana para elegir el tipo de mouse y teclado que está conectado a la computadora si no se auto-detecta. Las Figuras y proporcionan ejemplos de las pantallas de selección de teclado y mouse. Funciones tales como la cantidad de botones que tiene el mouse y si tiene un rodillo o no pueden seleccionarse. Linux soporta muchas clases de teclados también y la opción correcta deberá seleccionarse. No hay muchas opciones además de elegir si es un teclado de EE.UU. o un Teclado de EE.UU. (Internacional). Elija teclado de EE.UU. si el teclado se vendió en Estados Unidos. Elija Teclado de EE.UU. (Internacional) si no fue así.

9.1 Tareas Pre-Instalación

9.1.4 Creación del sistema de archivos Linux

Una vez especificados los parámetros apropiados para la instalación, particione la unidad de disco rígido y elija qué sistema de archivos ha de estar en este sistema Linux. La Figura ilustra un

Page 237: Documento de Apoyo No. 4 Cisco It Essentials II

237

ejemplo de la pantalla que se presenta durante la instalación, que se usa para determinar el método de particionamiento que se desea usar. Particionar el disco rígido no se tratará en esta sección porque el particionamiento de una unidad de disco rígido para un sistema operativo Linux se trata en detalle en el Capítulo 7. El formateo del disco rígido se mencionó en el módulo 7 también, no obstante, esto no se trató en detalle. Básicamente cuando Linux crea el sistema de archivos, está formateando el disco rígido. Éste es el proceso durante el cual el sistema de archivos ext2, ext3, o Reiser se escribirá en la partición. Tenga en cuenta que formatear el disco rígido borrará completamente cualquier dato que esté actualmente en la unidad o partición que se está formateando. Por lo tanto, asegúrese de que los datos de la unidad estén resguardados como backup o ya no se necesiten.

A veces formatear el disco rígido es innecesario. A veces estos sistemas de archivos ya han sido creados con otra herramienta de particionamiento y formateo como PartitionMagic. Otra situación donde el disco rígido podría no necesitar formateo o particionamiento es al actualizar o practicar el arranque dual con otro OS instalado. Si el usuario estuviera llevando a cabo una instalación "fresca" de Linux, formatear el disco rígido sería deseable.

Una opción que se incluye con la mayoría de las distribuciones de Linux al formatear es la opción para llevar a cabo una "verificación de bloques defectuosos". Ésta es una opción avanzada que verificará cada sector del disco o partición para asegurarse de que puede contener los datos antes de formatearlo. Esta verificación llevará más tiempo que un formateo regular,. pero puede ahorrar tiempo a largo plazo. Si durante la verificación se encuentran bloques defectuosos, es una buena idea reemplazar el disco. Éste es una señal de que el disco está empezando a fallar.

Formateo de Bajo Nivel y de Alto Nivel Hay dos tipos de formateo que puede llevarse a cabo. Un formateo de Bajo Nivel redefine los sectores físicos del disco rígido. Un formateo de Alto Nivel realmente creará o recreará el sistema de archivos. Normalmente los discos rígidos vienen con un formateo de bajo nivel; en la mayoría de los casos no hay necesidad de formatear el disco. En Linux, usar el comando fdformat llevará a cabo un formateo de bajo nivel y el comando mkfs llevará a cabo un formateo de alto nivel. Para aprender más acerca de estos comandos vea sus páginas man tipeando man fdformat or man mkfs en la línea de comandos. 9.1 Tareas Pre-Instalación

9.1.5 Selección de los paquetes a instalar

Después de particionar y formatear el disco rígido, se mostrará una lista de paquetes que pueden instalarse, como se muestra en la Figura . Hay muchos paquetes de los cuales elegir, dependiendo de qué distribución se está instalando. Tenga en cuenta que hay una cantidad limitada de espacio en el disco disponible. Instalar todos estos paquetes consumirá espacio del disco. Por ejemplo, muchos de los paquetes, en particular de la estación de trabajo KDE o GNOME pueden consumir cientos de megabytes de espacio en disco. Algunas distribuciones mostrarán cuánto espacio será necesario para el paquete en particular que será instalado. Otras

Page 238: Documento de Apoyo No. 4 Cisco It Essentials II

238

distribuciones no muestran esto hasta que el paquete no se ha seleccionado y el proceso de instalación pasa al siguiente paso.

Algunas distribuciones, como Mandrake, permitirán la opción de seleccionar todo o parte de un paquete a instalar. Esto es de ayuda si se desea alguna de las funciones de un paquete en particular. Si se selecciona esta opción, la capacidad de navegar a través del paquete y seleccionar las funciones particulares deseadas es posible. Algunas de estas funciones individuales de paquetes tienen una dependencia, lo cual significa que otros programas individuales o funciones necesitarán instalarse para que funcionen. Instalando uno de estos paquetes sin instalar el programa de dependencia o paquete, el sistema indicará que los otros paquetes deben instalarse.

Una vez seleccionados los paquetes, el proceso de instalación procederá al siguiente paso. Esto es donde la instalación real del sistema operativo tiene lugar. 9.1 Tareas Pre-Instalación

9.1.6 Multimedia Linux

Multimedia demanda más del hardware de computadoras que muchas otras actividades informáticas, por lo tanto hay algunos requisitos generales para tener una experiencia multimedia satisfactoria en Linux. Recientemente, el soporte para hardware popular en Linux ha sido común.

Sonido La mayoría de las nuevas placas de sonido tienen al menos un soporte básico en Linux. Mientras que muchas son soportadas directamente por el kernel, hay varias opciones alternativas incluyendo la Arquitectura de Sonido Linux Avanzada y el Sistema Abierto de Sonido. Una placa de sonido capaz de una salida de 16 bits PCM será suficiente para todos excepto la salida de audio más extrema. El soporte MIDI de hardware es menos frecuente para la mayoría de las placas, pero las utilidades pueden simular dispositivos MIDI en el software.

Video El video es generalmente lo que queda atrás en multimedia Linux. La mayor parte de la aceleración de hardware aún requiere una gran cantidad de esfuerzo, aunque las nuevas placas más populares son bien soportadas. Nvidia libera un controlador acelerado de fuente cerrada para XFree86, mientras que la línea Radeon de ATT tiene soporte DRI (Direct Rendering Infrastructure) en el kernel Linux.

Las utilidades de video pueden mostrar salida acelerada de hardware mediante las extensiones X-Video (Xv) disponibles en XFree86 4.X. X-Video permite mostrar las imágenes con escala y filtrado de calidad usando segmentos de memoria compartida. Para probar si la salida Xv acelerada de hardware está disponible, use el comando xvinfo .

Page 239: Documento de Apoyo No. 4 Cisco It Essentials II

239

En general, hay tres tipos de archivos de película disponibles. Primero, están los archivos MPEG-1. No debería haber ningún problema en reproducirlos porque no se necesita ningún programa de compresión/decodificador (codec) propietario. Esto significa que se puede reproducir el archivo en cualquier reproductor. Además de estos archivos MPEG disponibles en general, están los archivos AVI. La mayor parte del tiempo, éstos son archivos codificados y comprimidos por medio de un codec propietario. Para reproducir archivos AVI, se necesita el codec propietario, que no siempre es bien soportado en Linux.

Un programa popular de uso en Linux, que es capaz de soportar muchos de estos codecs propietarios como archivos .avi o .mov, es Xine. Necesitará descargar dos partes para poder usar Xine. Uno es el archivo con las librerías necesarias en él y el otro es un archivo que contiene los binarios. Para instalar Xine, descargue las librerías primero, compílelas y luego descargue los archivos-ui (archivos de interfaz del usuario). Una vez descargados los archivos, compílelos e instálelos. Luego diríjase al directorio fuente, que se creó al extraer los archivos, y emita los siguientes comandos. Necesitará un compilador C/C++ para poder llevar a cabo la siguiente operación.

./configure make install make clean

Haga esto primero para las librerías Xine, luego descargue los archivos-ui de Xine y lleve a cabo el mismo procedimiento en ellos. Existen posibilidades de que obtenga un mensaje de error mientras intenta configurar la interfaz del usuario de Xine. Esto podría deberse a que el instalador no pudo encontrar las librerías de Xine. Si esto ocurre, abra /etc/ld.so.conf, agregue la ubicación de las librerías recientemente instaladas y guarde el archivo y ejecute ldconfig para hacer saber a su sistema acerca de esta ubicación. Después de eso, no debería tener más problemas para ejecutar ./configure en los archivos-ui de Xine. Una vez todo configurado y compilado, inícielo ejecutando el comando xine. Esto abre una ventana y un panel como el de un reproductor de CD .

9.2 Instalación y Configuración de Linux

9.2.1 Requisitos de hardware para Linux

Al igual que la instalación de Windows 2000 Professional, la instalación de Linux pasará por una cantidad de pasos hasta completarse. El proceso de arranque de Linux es similar al proceso de arranque de Windows 2000. Los nombres de archivos son diferentes pero estos archivos esencialmente llevan a cabo las mismas operaciones en ambos sistemas. Linux tiene, por otro

Page 240: Documento de Apoyo No. 4 Cisco It Essentials II

240

lado, algunos pasos de instalación que no se encuentran en Windows. Por ejemplo, Linux tiene como objetivo principal ser un sistema operativo de red (NOS) basado en servidor. Existe la opción de hacer una instalación en una estación de trabajo o en un servidor.

El siguiente paso es examinar el hardware del sistema para determinar si realmente podrá ejecutar el OS una vez instalado. Algunos de los requisitos básicos de hardware para una instalación de Linux exitosa incluyen un procesador compatible con Intel. Linux puede instalarse en todos los procesadores clase Pentium. Todavía hay sistemas ejecutándose en procesadores 80386 y 80486, no obstante, esto no se recomienda. Se requerirán un diskette o un CD-ROM y una unidad de disco rígido con al menos 900 MB de espacio libre. El requisito mínimo de RAM es de 16 MB, pero se prefiere un mínimo de 64 MB.

En comparación a una instalación de Windows típica, siempre es importante probar y verificar la compatibilidad del hardware con la distribución de Linux que esté instalando. Linux se ejecuta exitosamente en la mayoría de las computadoras, laptops y plataformas. Hay varios proyectos en camino para llevar Linux a otras configuraciones de hardware. Una vista general de las CPUs basadas en PC incluye:

· Intel/AMD/Cyrix 386SX/DX/SL/DXL/SLC · Intel/AMD/Cyrix 486SX/DX/SL/SX2/DX2/DX4 · AMD K5, K6, K6-2, K6-3 and K7/Athlon · Cyrix 6x86, 6x86MX · Intel Pentium, Pentium Pro, Pentium II (incluyendo la serie Celeron) y Pentium III · IDT WinChip C6 · Multiprocesamiento Simétrico (varias CPUs)

Siga el vínculo a continuación para encontrar una lista más abarcativa de hardware compatible con su distribución de Linux

9.2 Instalación y Configuración de Linux

9.2.2 Inicio de la instalación

En este curso y en el laboratorio acompañante, los alumnos estarán instalando Linux desde un CD. La instalación se iniciará una vez que se inserta el CD y el BIOS está configurado para arrancar desde el CD. Seleccione las configuraciones para el sistema, por ejemplo, el idioma a utilizarse. A continuación, elija qué tipo de mouse y teclado se están usando. Se pedirá al instalador que elija el tipo de instalación. Las opciones serán la instalación de un servidor o una estación de trabajo. La GUI del Sistema X Window no estará disponible si se elige la instalación del servidor. La instalación del servidor instalará las diversas herramientas necesarias para un servidor como herramientas de archivos y servidor de web. El siguiente paso es particionar la unidad de disco rígido.

Page 241: Documento de Apoyo No. 4 Cisco It Essentials II

241

NOTA:

Si se selecciona la instalación de servidor, todos los datos se borrarán del sistema y la unidad debe particionarse y reformatearse de acuerdo a ello. Cuando se selecciona la instalación para estación de trabajo, puede instalarse otro sistema operativo, no obstante, Linux tendrá que estar en su propia partición separada.

Una vez particionada la unidad, deben establecerse las configuraciones de red y la zona horaria seleccionada. En este punto se establecen la cuenta y contraseña raíz así como otras cuentas que necesitan instalarse en el sistema. Por razones de seguridad, la cuenta raíz no debería usarse. Se recomienda que se cree una segunda cuenta para administrar Linux. En los laboratorios acompañantes, se usará la cuenta raíz, no obstante, esto no deberá hacerse en un entorno de trabajo. Para la instalación en un servidor el siguiente paso es instalar el sistema operativo. Si se selecciona la instalación en estación de trabajo, se pedirá al instalador configurar primero el Entorno X-Windows antes de comenzar la instalación. Este entorno incluye cosas como la selección de las configuraciones de monitor y placa de video apropiadas, así como la resolución y configuración de colores del sistema. Una vez completo el proceso de instalación, habrá un prompt para crear discos de inicio. Una vez hecho esto, el proceso de instalación está completo.

9.2 Instalación y Configuración de Linux

9.2.3 Configuración de seguridad apropiada

Algunas de las configuraciones de seguridad más importantes a elegir son la cuenta de usuario, la cuenta raíz, y las contraseñas. El Capítulo 10 trata en detalle cómo crear cuentas de usuario en Linux. Esta sección se concentra en los aspectos de seguridad importantes para el proceso de instalación. Los usuarios familiarizados con Windows 2000 saben que para poder iniciar sesión en un sistema debe haber una cuenta de usuario almacenada localmente en la computadora o en el Directorio Activo. Linux funciona de la misma manera, en el hecho de que las cuentas de usuario son la principal característica de seguridad que controla quién puede iniciar sesión en el sistema. Linux usa la cuenta raíz, que es similar a la cuenta administradora en Windows 2000. La cuenta raíz tiene privilegios para llevar a cabo cualquier tarea en el sistema incluyendo el agregado y borrado de otras cuentas de usuario.

Durante el proceso de instalación habrá un prompt para crear la contraseña raíz, y luego una opción para crear cuentas de usuario que han de agregarse al sistema. No obstante, las cuentas de usuario no necesitan agregarse en este punto. Esto puede hacerse después y se tratará en el Capítulo 10. Si hay un único usuario, el administrador, también deberá crearse una cuenta de usuario separada. Pueden surgir problemas de seguridad si se usa solamente la cuenta raíz. Ver Figura .

Page 242: Documento de Apoyo No. 4 Cisco It Essentials II

242

Opciones de la Cuenta Raíz La cuenta Raíz en Linux también se denomina cuenta del superusuario o del administrador del sistema. Esta cuenta es obligatoria, durante la instalación se pedirá al usuario que introduzca la contraseña dos veces para proteger contra errores de tipeo. Ver Figura . Corel Linux es la única distribución importante que no requiere que la cuenta Raíz se configura durante la instalación. La mayoría de las distribuciones de Linux tienen reglas concernientes a la longitud y el contenido de la contraseña. Las reglas variarán dependiendo de la distribución. Las contraseñas deben tener al menos cuatro a ocho caracteres de largo y no pueden ser términos comunes hallados en el diccionario. Algunas distribuciones tienen otras reglas, como que al menos uno o dos caracteres no sean letras, sino números o un signo de puntuación por ejemplo.

Definición de las Cuentas de Usuario durante la Instalación Hay ventajas y desventajas en la creación de cuentas de usuario durante la instalación. Comprenderlas ayudará a cualquier administrador a determinar qué es mejor basándose en las implementaciones de seguridad que se han planeado. Se enunció antes que al menos una cuenta de usuario deberá crearse durante la instalación para que el administrador del sistema use, incluso si nadie más está usando o accediendo al sistema. La desventaja de crear cuentas de usuario durante la instalacion es que muchas de las opciones como configurar directorios home no estándar, expiración de la cuenta, y definición de políticas de grupo, no están disponibles.

Opciones de Contraseña Aunque no configurable durante el proceso de instalación, es importante tratar las contraseñas sombra en este punto. Éstas son valiosas para la seguridad de un sistema Linux. La mayoría de las distribuciones de Linux usan métodos de codificación por contraseña MD5 o DES. Algunas usan MD5 por defecto porque es más nuevo y tiene mejor seguridad que DES. Por lo común, los sistemas Linux y UNIX almacenan la información sobre cuentas y las contraseñas en forma cifrada en un archivo llamado /etc/passwd. Este archivo necesita ser accedido por todos los usuarios porque diversas otras herramientas necesitan acceder a este archivo para información no relacionada con contraseñas. Usando contraseñas sombra las contraseñas se almacenan en un archivo diferente que es inaccesible para los usuarios normales, lo cual mejora mucho la seguridad.

Configuración de Límites en los Inicios de Sesión, Uso de la Memoria y Procesos Tampoco configurable durante la instalación pero importante de tratar son las configuraciones de límites a los inicios de sesión, el uso de la memoria y los procesos. Cuando se está configurando un sistema multi-usuario como Linux, debe prestarse mucha atención al uso de la memoria y los procesos. Por ejemplo, un proceso errante podría consumir toda la memoria del sistema disponible y/o CPU en el sistema. Cuando esto ocurre, el desempeño en ese sistema puede degradarse resultando en cuelgues del sistema, pantallas congeladas y muchas otras consecuencias desagradables.

Page 243: Documento de Apoyo No. 4 Cisco It Essentials II

243

Como administrador, es importante aprender las herramientas y utilidades en Linux que pueden usarse para resolver estos tipos de problemas. El archivo limits.conf , ubicado en /etc/security proporciona la capacidad para especificar límites de nivel de usuario y grupo a ciertos tipos de recursos del sistema, incluyendo la memoria. Los límites configurados en este archivo se establecen por usuario y grupo.

La sintaxis básica para limits.conf consiste en líneas individuales con valores de los siguientes tipos: (dominio) (tipo) (elemento) (valor) donde dominio es el usuario o grupo, tipo se refiere a un límite de hard o soft, elemento se refiere al recurso que se está limitando y valor se refiere al valor asociado al límite establecido. Por ejemplo, agregar la siguiente línea a este archivo coloca un límite en hard sobre la prioridad según la cual los trabajos se programan para un usuario llamado 'Linux_User'.

Linux_User hard priority 19

Para establecer un máximo de tiempo de CPU de 10 minutos para Linux_User, establezca el siguiente valor:

Linux_User hard cpu 10

También es posible establecer limitaciones de inicios de sesión con limits.conf. Para establecer un límite de 3 inicios de sesión fallidos para un grupo llamado "remote_users", establezca el siguiente valor:

@Remote_Users - maxlogins3

Establecer límites en procesos errantes por usuario puede limitar el impacto potencial y las vulnerabilidades de muchos usuarios que iniciaron sesión o conectados a un sistema multi-usuario. Esto puede hacerse configurando el comando ulimit en /etc/profile.

Para establecer un límite en la cantidad máxima de memoria disponible para un proceso dado, a un valor menor que la cantidad total de memoria en el sistema que tiene 1 GB de memoria real y 500 MB de memoria virtual, se establecerían los siguientes valores en /etc/profile:

ulimit -S -m 1000000 ulimit -S -v 500000

Page 244: Documento de Apoyo No. 4 Cisco It Essentials II

244

Con este valor configurado, el sistema abortará cualquier proceso que intente tomar más recursos que los que se han establecido como límite.

9.2 Instalación y Configuración de Linux

9.2.4 Configuración de red

Durante la instalación, se mostrará la opción de establecer las configuraciones y servicios de red del cliente. Esto puede hacerse después de la instalación pero se recomienda hacerlo durante la instalación. Hay algunas funciones que no pueden establecerse durante la instalación, no obstante.

Al seleccionar la opción para configurar la red durante el proceso de instalación, la primera opción que será necesario tomar es, hacer que el sistema auto-detecte qué tipo de conexión de red se está usando. Opciones para tipos de conexiones de red incluyen una conexión normal de módem o una conexión LAN.

Como en el paso anterior, el proceso de instalación auto-detectará qué tipo de mouse o teclado está conectado. Lo mismo es cierto del tipo de placa de red que está instalada en el sistema. Normalmente el sistema detectará la placa de red. Los pasos para hacer esto pueden ser levemente diferentes dependiendo de la distribución de Linux que se está instalando. En este punto se mostrará un prompt para configurar manualmente la red, como la dirección IP, máscara de subred, nombre de host, servidor DNS, y gateway por defecto. La otra opción es seleccionar DHCP. Si el sistema está conectado a un servidor DHCP, proporcionará la información automáticamente. La pantalla de configuración de DHCP se muestra en la Figura .

Page 245: Documento de Apoyo No. 4 Cisco It Essentials II

245

Algunas distribuciones tendrán otras configuraciones de red que puede ser necesario configurar en este momento dependiendo de en qué tipo de red se encuentra el sistema. Un ejemplo sería un servidor proxy. Estos servidores protegen a una red limitando el acceso a la red y fuera de la misma. Si la red usa un servidor proxy, introduzca la dirección IP de este servidor en este punto también.

Es igualmente importante poder configurar manualmente TCP/IP para una placa de interfaz de red (NIC) una vez que la instalación está completa. En todo momento se hacen cambios a la red. Cuando se agregan, cambian o actualizan dispositivos, a menudo es necesario reconfigurar las configuraciones TCP/IP para que ese dispositivo se conecte nuevamente a la red. También es importante para detectar problemas, poder ser capaz de configurar una NIC manualmente.

La utilidad ifconfig es la herramienta usada para configurar la placa de red. Es importante saber que al usar ifconfig para configurar sus dispositivos de red debe guardar las configuraciones o éstas no permanecerán una vez que se reinicia el sistema. Para asignar a la interfaz eth0 la dirección IP de 192.168.1.50 use el siguiente comando:

#ifconfig eth0 192.168.1.50 netmask 255.255.255.0

Para asignar el gateway por defecto para 192.168.1.1 use el comando:

#route add default gw 192.168.1.1

Para detener todos los dispositivos de red manualmente en su sistema, use el siguiente comando:

#/etc/rc.d/init.d/network stop

Para iniciar todos los dispositivos de red manualmente en su sistema, use el siguiente comando:

#/etc/rc.d/init.d/network start 9.2 Instalación y Configuración de Linux

9.2.5 Otras configuraciones

En este punto, la mayor parte del proceso de instalación inicial deberá estar completo a excepción de algunas configuraciones finales. Éstas incluyen elementos como Zona Horaria, Impresora, Configuración de Servicio y Opciones de Arranque.

Configuración de la Zona Horaria Nuevamente, las especificaciones para configurar la zona horaria variarán dependiendo de qué distribución de Linux se está instalando. Cuando se alcanza este punto en la instalación, aparecerá una pantalla que permitirá la selección de en qué zona horaria está ubicado el sistema. La Figura

muestra la página de configuración de la zona horaria para Red Hat 7.2. Desde esta pantalla el usuario puede desplazarse por las diferentes zonas horarias y seleccionar la que corresponda a la ubicación.

Page 246: Documento de Apoyo No. 4 Cisco It Essentials II

246

Algunas distribuciones tienen la opción de configurar el reloj según la Hora del Meridiano de Greenwich (GMT), la hora en Greenwich, Inglaterra. En sistemas UNIX y Linux tradicionales, esto se conoce como Hora Universal Coordinada (UTC), que se ajusta para horarios de verano. Los sistemas que tienen esta opción configuran su hora local basándose en la hora de UTC, y luego almacenan esta información en la memoria o en sus relojes de hardware. Cuando el sistema arranca, lee esta información y luego configura el tiempo local en la zona horaria que se seleccionó en la hora UTC que se almacenó en la memoria. Si Linux es el único sistema operativo de la computadora, y la distribución instalada tiene esta opción, seleccione sí cuando se le pregunte si el reloj se pone en hora según GMT. Esto reducirá mucho las posibilidades de que la hora se desajuste durante el horario de verano. Si el sistema tiene arranque dual con otro OS como Windows por ejemplo, no ponga en hora el reloj según GMT.

Configuración de Impresoras Configurar un sistema Linux para una impresora se trata en detalle en posteriores capítulos. Esta sección trata cómo hacerlo durante el proceso de instalación. Tenga en cuenta que no todas las distribuciones de Linux proporcionarán esta opción. Linux Mandrake proporciona la capacidad de instalar una impresora durante la instalación. Hay dos sistemas de impresión que proporciona Mandrake, Sistema de Impresión Común de UNIX (CUPS) o el sistema de impresión lpr. El programa de instalación instalará paquetes adicionales del CD después de seleccionar el sistema de impresión. El programa de instalación requerirá información adicional, como el tipo de conexión, ya sea una impresora local, un servidor de impresión remoto UNIX o Linux, o un servidor de impresión remoto Windows. Los detalles de la conexión, como el puerto de la impresora también necesitarán especificarse. Si la impresora está ubicada en un servidor de impresión remoto, especifique el nombre del servidor de impresión, nombre de la cola, y en algunos casos, un nombre de usuario y contraseña. Finalmente, será necesario definir el tipo de impresora. Una lista de hardware se mostrará en pantalla. Seleccione una de las opciones.

Configuración de Servicios Los sistemas Linux tendrán diferentes servicios ejecutándose en ellos. Si el sistema va a ser una estación de trabajo, servidor Web, o servidor de correo, será necesario instalar los servicios apropiados en el sistema. Algunos de estos servicios pueden instalarse durante la instalación. Cuando esta pantalla aparece durante el proceso de instalación, tilde los recuadros apropiados. Los servicios seleccionados se instalarán ahora.

Opciones de Arranque Seleccionar y configurar el sistema para que use el cargador de arranque apropiado es otra parte del proceso de instalación de Linux. Linux usa uno de los siguientes dos programas: Linux Loader (LILO) o Grand Unified Bootloader (GRUB). La Figura proporciona un ejemplo de la pantalla de instalación que se usa para seleccionar el cargador de arranque. Estos dos programas arrancan un sistema Linux desde el disco rígido. La mayoría de las distribuciones de Linux usan LILO y algunas

Page 247: Documento de Apoyo No. 4 Cisco It Essentials II

247

ofrecen GRUB como alternativa. Después de seleccionar qué cargador de arranque usar, habrá una oportunidad de ajustar algunas de las características. Algunas de estas opciones son:

· La mayoría de las distribuciones permitirán la selección de si usar un menú gráfico o basado en texto.

· LILO almacena su código de tiempo de arranque en el dispositivo de arranque. Si Linux se instala en una unidad EIDE, el archivo se localizará en /dev/hda. Si Linux se instala en una unidad SCSI, se almacenará en /dev/sda. Esto está bien si Linux es el único sistema operativo instalado en la unidad. Si este sistema es de arranque dual, será necesario ubicar LILO o GRUB en la partición de arranque de Linux.

· El retraso que usa LILO antes del arranque puede ajustarse aquí también. · Hay también una opción de arranque compacto que puede seleccionarse. Esto acelerará

los tiempos de arranque. · Es posible configurar la placa de video para el cargador de arranque. Si no se la configura,

se usará la resolución por defecto, no obstante, es posible cambiar la resolución para el cargador de arranque.

· Linux almacena los archivos temporales en el directorio /tmp. Es posible configurar el cargador de arranque para limpiar este directorio cada vez que se inicia Linux.

· En algunos casos, Linux no detectará la cantidad apropiada de RAM. Lo cual significa que Linux podría solamente detectar 64 MB de RAM cuando en realidad hay 128 MB instalados. Una precaución a tomar contra esto es introducir manualmente la cantidad de RAM instalada.

Cuando todas las configuraciones se han introducido, el programa de instalación procederá al siguiente paso. Mientras esto ocurre, el sistema presentará un resumen de las opciones del cargador de arranque. Estas opciones variarán dependiendo de las configuraciones que se introdujeron y de si el sistema está configurado para arranque dual con otro sistema operativo. 9.3 X Server

9.3.1 Chipset de la placa de video

En este punto, Linux deberá estar completamente instalado y operativo. Para obtener toda la funcionalidad del sistema Linux, familiarícese con cómo instalar y configurar el X server del sistema. Esto es así especialmente si se usa la interfaz GUI. La instalación inicial es solamente la primera parte de instalar un sistema operativo. Hay también otras configuraciones que será necesario completar una vez que se han instalado el sistema operativo. La importancia de aprender cómo instalar y configurar X server no puede subestimarse. Primero, es el único punto que

Page 248: Documento de Apoyo No. 4 Cisco It Essentials II

248

presentará la mayoría de los problemas. Otras razones son que los usuarios desearán poder ajustar y modificar el entorno del usuario según sus propias preferencias, como el tamaño de la pantalla o la resolución. Si en algún punto la placa de video del sistema se actualiza, es importante el conocimiento de cómo establecer las configuraciones apropiadas para que la placa funcione con el sistema Linux.

Averiguar qué chipset usa la placa de video es importante. Puede ser difícil encontrar qué chipset tiene la placa de video, a menos que se esté instalando una placa nueva y la caja o manual que vienen con la placa puedan verse. Lo más probable es que la placa de video esté instalada en el sistema, haciendo difícil saber cuál es su chipset.

Hay otras maneras de obtener esta información. La primera es cuando el sistema detecta automáticamente la placa de video. Otra forma es ejecutar la herramienta de configuración X después de la instalación. Otro medio de averiguar el chipset de la placa de video es leyendo la documentación del producto. Éste no siempre es el mejor método, no todos los fabricantes de placas de video dirán cuál es su chipset y puede ser difícil de averiguar. La Figura muestra un ejemplo de las propiedades de una placa de gráficos en Linux. A veces el chipset de la placa de video aparecerá nombrado allí. En último lugar, y probablemente lo que lleva menos tiempo es sacar la placa de video de la computadora y examinarla. Algunas placas de video tendrán el chipset nombrado en la placa en sí.

Algunas otras cosas importantes a tener en cuenta al buscar la versión del chipset de una placa de video es que no siempre es consistente. Esto se debe a que el chipset a menudo tiene más de un nombre. El nombre del fabricante de la placa de video podría hallarse en lugar de la versión del chipset. Cuando esto ocurre, es una buena idea buscar los controladores bajo los dos nombres encontrados. Cuando se encuentra el nombre del fabricante, sea cuidadoso, porque algunos fabricantes producen la placa mientras que otro produce el chipset. Por lo tanto, cuando se encuentra el nombre del fabricante de la placa, no necesariamente significa que se halló el nombre del fabricante del chipset.

9.3 X Server

9.3.2 Opciones del X server

Xfree86 (http://www.xfree86.org) es el X server gratuito que viene con cada distribución importante que soporte una interfaz GUI. Es una buena idea visitar este sitio porque contiene información útil respecto a los chipsets de la placa de video.

La última versión del X server es la versión 4.0.3. La mayoría de las distribuciones Linux que se entregaron después del año 2001 vienen con la versión 4.0.X de Xfree86. Hay algunos problemas

Page 249: Documento de Apoyo No. 4 Cisco It Essentials II

249

de compatibilidad que esta nueva versión tiene con algunos chipsets de placa de video. Todavía hay algunos chipsets que no son soportados en la última versión. La versión anterior de Xfree86 era la versión 3.3.X. Esta versión es la que debe usarse si surge cualquier problema de compatibilidad con los chipsets de la placa de video. No obstante, si se usa la versión más antigua de X server, los programas y librerías de soporte de la versión 4.0.X aún pueden usarse.

Una buena práctica al tratar con problemas de placas de video no soportadas es verificar el sitio web del fabricante para ver si hay los controladores apropiados. Aunque los controladores apropiados pueden no haber sido enviados con la placa de video, los fabricantes tendrán los controladores disponibles en su sitio web. Con la creciente popularidad de Linux, muchos de los fabricantes han hecho controladores disponibles que serán soportados por Xfree86. Esto no quiere decir que todos los fabricantes tendrán los controladores soportados sino que vale la pena verificar. Otra razón para verificar en el sitio web del fabricante es que muchas placas de video de hoy tienen características de aceleración. Para poder usar estas características de aceleración el controlador apropiado podría tener que ser obtenido en el sitio web del fabricante. Haciendo esto, debería verse una mejora sustancial en el desempeño de la placa de video.

En algunos casos Xfree86 no soportará la placa de video en absoluto. Esto es así incluso después de dar todos los pasos mencionados anteriormente. En el caso de que esto ocurra hay todavía otras medidas que tomar. La primera opción podría ser usar el controlador del buffer de frames de Xfree86. El Kernel Linux tiene algunos controladores de placa de video que pueden usarse. No obstante, el kernel debe incluir soporte a buffer de frames para la placa de video instalada. Otro enfoque a seguir es no usar Xfree86 sino un X server comercial de terceros. Algunos ejemplos son Xi Graphics (http://www.xig.com) y ATI (http://www.ati.com/support/faq/linux.html). Uno de estos X servers comerciales podría incluir soporte para la placa de video. Finalmente, si la placa no es soportada en absoluto por Xfree86, reemplace la placa de video por otra que sea soportada.

9.3 X Server

9.3.3 Configuración de X server

La instalación y configuración real de X server no es tan difícil como ha sido anteriormente puesto que muchas de las principales distribuciones ahora soportan una mucho más amplia variedad de hardware. La forma más fácil de instalar X server es hacerlo durante la instalación del sistema operativo. Éste no siempre es el caso y a veces esto se hará después del proceso de instalación. Instalar Xfree86 es solamente una cuestión de usar el administrador de paquetes del sistema para instalar el paquete correcto. Tenga en cuenta que X server viene con muchos paquetes. Solamente uno de estos paquetes contendrá al servidor real, los otros paquetes serán las librerías de soporte, fuentes, utilidades, etcétera.

Dependiendo de la distribución que se instala, el nombre del paquete puede variar, pero tendrá el nombre Xfree86 en él. El nombre debería tener un aspecto como XFree86-server o xserver-xfree86. Nuevamente, dependiendo de la distribución de Linux que se esté usando, XFree86 se instalará usando RPMs o Paquetes Debian. Si la distribución está usando RPMs el comando para instalar X server tendrá el siguiente aspecto:

# rpm -Uvh XFree86-server-4.0.2-11.i386.rpm

Si la distribución usada usa paquetes Debian entonces el comando que se introduce en la línea de comandos tendrá el siguiente aspecto:

Page 250: Documento de Apoyo No. 4 Cisco It Essentials II

250

# dpkg -i xserver-xfree86_4.0.2-7_i386.deb

Una vez instalado el paquete, se instalará el X server genérico, XFree86. Los archivos del server se almacenan en /usr/X11R6/bin. Los otros archivos que requiere X server son los módulos del controlador, que se almacenan en /usr/X11R6/lib/modules/drivers.

Configurar X server se hará de manera diferente dependiendo de qué versión de X server se instaló. Este curso discutirá cómo configurar XFree86, ya que se trata de una de las versiones más usadas. El archivo de configuración de XFree86 se llama XF86Config y está ubicado en el directorio /etc o /etc/X11. La Figura proporciona un ejemplo del archivo XF86Config.

En la siguiente sección se trata en más detalle cómo configurar los diversos hardware para X server. Junto con la configuración del servidor real, también será necesario proporcionar información para dispositivos de entrada como el mouse, teclado, placa de video y monitor.

Diferentes Métodos para Configurar Como sucede con la mayoría de las configuraciones Linux, hay dos formas de configurar X server. Una forma es usar las herramientas de configuración gráficas, que se usan para hacer los cambios necesarios, luego el sistema operativo automáticamente escribe estos cambios en el archivo de texto XF86Config. El archivo XF86Config es un archivo de texto que puede editarse manualmente. Esto requiere usar un editor de texto para abrir el archivo y hacer los cambios manualmente. A menos que el usuario sea experimentado en el uso de un editor de texto, ésta no es la forma recomendada. Cualquier error que se cometa podría hacer inoperable al X server. Este método se utiliza usualmente para ajustar una configuración funcional para obtener mejor desempeño y no para configurar el X server inicialmente. Nuevamente, esto no debería intentarse a menos que el usuario sea experimentado en hacerlo. Independientemente de qué método se use, el proceso usualmente involucrará hacer un cambio, probarlo y repetir este proceso hasta obtener los resultados correctos.

Prueba de la Configuración Cuando se hace cualquier tipo de configuración, también es necesario probarla. Como se mencionó antes, esto podría ser un proceso repetitivo que puede llevar probar la configuración algunas veces antes de que esté correcta. Probar la configuración del X server necesita hacerse de manera específica. Una forma de probar la configuración es reiniciar el sistema para ver si las modificaciones están presentes. Esto puede consumir mucho tiempo y es innecesario.

La forma recomendada de probar la configuración de X server es cambiar de niveles de ejecución.

Page 251: Documento de Apoyo No. 4 Cisco It Essentials II

251

Ejecutar el nivel 5 iniciará el X server automáticamente cuando se inicia el sistema. Cambiar el nivel de ejecución 3 cerrará la sesión X que se lanzó durante el inicio. Para cambiar al nivel 3 use el comando telinit 3.

Después de cambiar a nivel de ejecución 3 la sesión de X Window terminará y el sistema pasará a modo de texto con un prompt de inicio de sesión. A partir de aquí, inicie sesión y configure X server manualmente. El comando init5 también puede usarse para iniciar la GUI y hacer cambios en las configuraciones usando una herramienta de configuración. Luego, reinicie la GUI usando el procedimiento recién explicado. Si los resultados son buenos, salga de la GUI. En la línea de comandos tipee telinit 5 para pasar de nuevo al nivel de ejecución 5. Esto lanzará la GUI al iniciar. Si los resultados no son los deseados, repita los pasos más arriba hasta obtener los resultados deseados.

XFree86 El X server, por sí mismo, puede usarse para hacer modificaciones en el entorno GUI. Use el comando XFree86 -configure para generar un archivo llamado /root/XF86config.new. Este archivo se usa para hacer modificaciones manuales en el entorno X server en modo texto.

Xconfigurator Esta herramienta puede usarse en modo texto o en modo GUI. Depende de desde qué modo se lance. Pasa a través de una serie de menúes que permite elegir las configuraciones apropiadas. No obstante, lo hace en un order establecido igual que xf86config. Si se cometen errores, será necesario pasar por los menúes una segunda vez. Un ejemplo de la pantalla de Xconfigurator se muestra en la Figura .

Xf86cfg Esta herramienta puede usarse una vez que la GUI está operativa. Esta herramienta es similar a XF86Setup, no obstante, la interfaz del usuario funciona de manera un tanto diferente. La interfaz de la herramienta xf86cfg tiene imágenes del diferente hardware conectado al sistema. Hacer clic en el hardware específico que necesita configurarse mostrará los menúes que se usan para hacer ajustes.

Algunas directrices a seguir al usar estas herramientas es usar el Xconfigurator al configurar un sistema por primera vez. Esto es así porque la configuración general puede establecerse fácilmente con esta herramienta. Luego, una vez que X se configuró inicialmente, use XF86Setup para hacer ajustes a la GUI.

Page 252: Documento de Apoyo No. 4 Cisco It Essentials II

252

9.3 X Server

9.3.4 Configuraciones de hardware

Se mencionó antes que los dispositivos de entrada y el hardware que interactúa con el sistema X Window y el X server necesita configurarse apropiadamente. Las herramientas usadas para ello también se han tratado. Algunos de los principales dispositivos de hardware que es necesario configurar con el X server son el teclado, el mouse, el monitor, y la placa de video. Si cualquiera de estos dispositivos no está configurado correctamente, X server no operará según su desempeño óptimo o puede no funcionar en absoluto.

Teclado No hay muchas configuraciones que necesiten establecerse o cambiarse para el teclado. Las configuraciones por defecto funcionan bien. Hay una sola configuración que debería cambiarse no obstante. Ésta es la función AutoRepetición. Al mantener presionada una tecla en el teclado, el carácter se repetirá continuamente. Esta función puede ocasionar problemas y ser molesta en ocasiones. Es una buena idea inhabilitar esta función. Esto puede hacerse usando una de las herramientas de la GUI. Editar la línea AutoRepeat en el archivo de configuración puede cambiarlo. Cambiar los valores de retraso y velocidad cambiará la velocidad a la cual las teclas se repiten cuando se presionan en el teclado. El valor de retraso es el tiempo, en milisegundos, que el sistema esperará hasta que la tecla se repita. La velocidad es el intervalo según el cual la tecla se repite una vez que el sistema comienza a repetirla. Un ejemplo de este archivo de configuración se muestra en la Figura .

Otra importante configuración de teclado es el modelo y disposición del mismo. Estos valores se establecen durante la instalación y usualmente no es necesario cambiarlos. También podría haber una instancia en la cual la disposición del idioma del teclado necesite cambiarse. Esto podría ocurrir si algún otro usuario estuviera usando el sistema cuyo idioma nativo no es el de la configuración actual del teclado.

Mouse La sección del archivo XF86Config que controla las configuraciones del mouse es la sección InputDevice de la versión 4.0.X, que se muestra en la Figura . Las configuraciones para mouse se denominan configuraciones de Puntero [Pointer] en la versión 3.3.X. Estas configuraciones se establecerán durante la instalación y no debería ser necesario cambiarlas. Algunas áreas importantes a notar en la sección InputDevice es la sección Protocolo [Protocol]. Ésta es la porción del archivo que indica qué tipo de mouse está conectado al sistema, USB, PS/2, serial, Microsoft, Logitech, etcétera. La sección Dispositivo [Device] de este archivo muestra el archivo a la que el mouse está asociado. Si el mouse es un PS/2 el nombre del archivo será /dev/psaux,

Page 253: Documento de Apoyo No. 4 Cisco It Essentials II

253

/dev/usbmouse para un mouse USB, y /dev/ttyS0 o /dev/ttyS1 para un mouse serial.

Monitor Las configuraciones del monitor pueden ser las más importantes de estas configuraciones. Si no se establecen exactamente, podría no funcionar y no habría pantalla. La sección Monitor del archivo XF86Config contiene las configuraciones para el monitor que el sistema está usando y se muestra en la Figura . La mayoría de estas configuraciones se establecerán durante la instalación. Algunas de las líneas importantes de este archivo son las configuraciones de Identifier, HorizSync, VertRefresh, y ModelName.

La línea Identificador [Identifier] no contiene ninguna configuración crucial que afecte al monitor. La línea ModelName está ahí como identificador que puede editarse para contener cualquier cosa. Esto es para referencia del administrador, para que sepa qué tipo de modelo es el monitor. Cambiar este valor no tendrá ningún efecto en el sistema.

Page 254: Documento de Apoyo No. 4 Cisco It Essentials II

254

9.4 Configuración y Tareas Post-Instalación

9.4.1 Post-instalación de aplicaciones y programas

Como en la instalación del OS Windows, habrá algunos agregados post-instalación que podrían ser necesarios para ejecutar servicios específicos. Por ejemplo, si se usa Linux Red-Hat 7.X, el archivo linuxconf no se agrega al sistema por defecto. Un ejemplo de la herramienta linuxconf se muestra en la Figura . Este archivo puede agregarse una vez completa la instalación cargándolo desde el CD de instalación. Las últimas fuentes lanzadas para cliente de e-mail como Elm, por ejemplo, deberá cargarse antes de configurar el sistema para e-mail. Hay tres tipos principales de administradores de paquetes con los que un administrador Linux necesita familiarizarse. El Administrador de Paquetes Red Hat (RPM), los Paquetes Debian, y Tarballs se usan para instalar y eliminar aplicaciones y programas en sistemas Linux una vez completo el proceso de instalación. Tarballs son archivos que se recolectan juntos usando el programa tar.

Administrador de Paquetes Red Hat (RPM) RPM es el tipo más popular de administradores de paquetes. Aunque creado por Red Hat, RPM es soportado por prácticamente todas las distribuciones principales de Linux. RPM proporciona las herramientas necesarias como bases de datos de paquetes que se necesitan para instalar y eliminar programas, no obstante, no todas las aplicaciones o programas usan RPM. Algunas aplicaciones y programas usan los paquetes Debian y algunos usan tarballs. Cada uno de los administradores de paquetes se tratará en detalle posteriormente en esta sección. La base de datos de paquetes es un sistema que verifica conflictos de propiedad de los archivos manteniendo el rastro de toda la base de datos RPM de archivos una vez que son instalados en el sistema. La base de datos del paquete se almacena en el directorio/var/lib/rpm La base de datos proporciona funciones como las siguientes:

· Información sobre el Paquete – Esto almacena toda la información acerca de un paquete una vez instalado en el sistema. Información como fecha de fabricación, descripción, y número de versión se copia al directorio de base de datos del paquete. Si el paquete se elimina, la información acerca del paquete permanecerá en la base de datos.

· Información sobre los Archivos – Esto guarda información sobre todos los archivos que se instalan en el sistema usando RPM. Esto incluye poder mantener un registro de a qué paquete pertenece un archivo específico. También mantendrá un rastreo de los permisos de los archivos. Cualquier cambio efectuado en los archivos instalados con RPM puede rastrearse hasta la persona que hizo los cambios.

· Dependencias – Las dependencias se trataron anteriormente en este capítulo. La base de datos es donde la información de dependencia de la instalación de un paquete será almacenada.

· Información sobre Provisión – Algunos paquetes que se instalan proporcionan funciones

Page 255: Documento de Apoyo No. 4 Cisco It Essentials II

255

para otros paquetes que se instalan. Un cliente de correo, por ejemplo, necesita tener un servidor de correo para poder recuperar y enviar correo. Éste es un tipo de dependencia.

Diversidad de RPM Red Hat lanzó el software RPM bajo la Licencia Pública General (GPL). Esto significa que aunque RPM fue creado por Red Hat, estaba disponible para que cualquier distribución de Linux lo incluya como parte de la misma. Por esta razón, la mayoría de las principales distribuciones de Linux soportan RPM. Algunas distribuciones como Mandrake, Yellow Dog, TurboLinux, y LinuxPPC se basan todas en Red Hat y usan RPM. SuSE y Caldera Linux no se basan en Red Hat y también usan RPM. RPM proporciona compatibilidad a través de las diferentes distribuciones de manera muy similar a XFree86.

RPM es soportado también en sistemas no Linux o UNIX. Estos sistemas no se basan en RPM como su principal sistema de distribución de paquetes, pero aún se lo soporta y usa. RPM es popular y diverso porque es soportado por varias CPUs. Se trató en capítulos anteriores que determinadas distribuciones de Linux son capaces de ejecutarse solamente en determinadas CPUs. Esto hace posible que RPM sea compatible con muchas de las distribuciones de Linux y por qué muchas de esas distribuciones usan RPM.

Compatibilidad de RPM RPM ha probado ser muy diverso, pero hay algunos problemas de compatibilidad que necesitan tratarse. Algunos de estos problemas incluyen los siguientes:

· Es importante estar seguro de que la versión de RPM usada sea la misma en ambas distribuciones.

· Un paquete RPM que está funcionando en un sistema puede no funcionar en otro. Esto puede deberse a que los paquetes de dependencia podrían no estar instalados en uno de los sistemas.

· Si se intenta instalar un paquete que no puede reconocer el nombre del paquete de dependencia, el paquete no funcionará. Un ejemplo es al instalar el paquete cliente samba que depende del paquete samba común. Si la distribución que instala el paquete cliente samba usa un nombre diferente para el paquete que no sea samba-common, el paquete no funcionará.

· Algunos paquetes pueden instalarse solamente en determinadas distribuciones. Determinados archivos del paquete podrían ser compatibles con solamente una distribución Linux en particular y esa distribución podría ser aquélla en el que el paquete puede instalarse.

· Los servidores Linux que tienen paquetes que contienen scripts o archivos de configuración específicos de la distribución que están instalados en determinada carpeta por lo que se ejecutan automáticamente.

A pesar de los problemas de compatibilidad que surgen al usar paquetes RPM en varias distribuciones, raramente ocurren. Si hay problemas de compatibilidad, se recomienda tratar de encontrar un paquete comparable incluido con la distribución Linux que se está usando.

Actualización de RPM Se mencionó en la sección de compatibilidad que dos diferentes distribuciones de Linux con diferentes versiones de RPM ejecutándose, podrían no instalar el mismo paquete en ambos sistemas. Cuando Red Hat lance una nueva versión de RPM, los paquetes asociados con esa versión se usarán en esa distribución. El usuario debe actualizar el sistema para que use los nuevos paquetes. Por ejemplo, Red Hat Linux 7.0 usa la versión 4 de las utilidades de RPM, estos paquetes de la versión 4 no pueden instalarse en sistemas con versiones anteriores de RPM.

Un problema surge al intentar actualizar a la versión más moderna de RPM. Es imposible actualizar a la versión 4 más moderna sin tener la versión 4 instalada primero. Esto presenta un problema para sistemas que no tienen la versión 4 instalada. La única opción es actualizar todo el sistema operativo. Red Hat ha lanzado una actualización que permitirá una actualización desde una versión

Page 256: Documento de Apoyo No. 4 Cisco It Essentials II

256

anterior sin tener que actualizar el OS.

Comandos de RPM Distribuidos junto con los CDs de instalación de Linux hay cientos de RPMs adicionales. Una vez que la instalación de Linux está completa, estos RPMs pueden instalarse desde los CDs usando el comando rpm Por ejemplo, elegir no instalar el programa gráfico Gimp durante la instalación de Linux aún será posible instalando el archivo RPM desde el CD. Primero, el CD que contiene el RPM necesita montarse, y luego navegar al directorio que contiene el comando rpm para Gimp. Los comandos para lograr esto son los siguientes:

mount /mnt/cdrom cd /mnt/cdrom/RedHat/RPMS rpm –UvH gimp-1.0.4-3.i386.rpm

El comando mount /mnt/cdrom montará el CD. El comando cd /mnt/cdrom/RedHat/RPMS es el directorio donde se ubica el RPM, y el comando rpm –UvH gimp-1.0.4-3.i386.rpm es el nombre del paquete RPM Gimp que necesita instalarse.

Este paquete RPM puede ser confuso para alguien que lo vea por primera vez. Una vez que las partes se separan y explican, como se muestra en la Figura el paquete RPM es más fácil de comprender.

Page 257: Documento de Apoyo No. 4 Cisco It Essentials II

257

Una vez que se ha descargado un paquete, se deberá verificar si la checksum MD5 coincide con la proporcionada en las páginas de descarga del paquete. Cada paquete tiene una checksum individual que se puede verificar mediante el siguiente comando:

#md5sum <package>

No todos los sistemas operativos soportan el comando md5sum. En algunos OSs se llama simplemente md5, otros no lo incluyen en absoluto. En Linux, es parte del paquete de Utilidades de Texto de GNU, que está disponible para un amplio rango de plataformas. Se puede descargar el código fuente del vínculo de más abajo también.

Para los paquetes RPM, no hay checksum o firma separadas. Los paquetes RPM tienen una firma GPG incorporada y checksum MD5. Se puede verificarlas ejecutando el siguiente comando:

#rpm --checksig <package>.rpm

Administrador de Paquetes Debian Los paquetes Debian son muy similares a los paquetes RPM. Debian contiene una base de datos

Page 258: Documento de Apoyo No. 4 Cisco It Essentials II

258

de paquetes que tiene las mismas funciones que la base de datos RPM, no obstante, la base de datos Debian está almacenada en el directorio /var/lib/dpkg La diferencia entre paquetes Debian y RPM es que no son intercambiables. Los paquetes Debian no pueden usarse en una distribución que soporte paquetes RPM, y viceversa.

Un paquete Debian tendrá un aspecto similar al paquete RPM y se instala de manera muy similar. Un paquete Debian tiene el siguiente aspecto:

# dpkg –i samba-common_2.0.7-3.deb

Después de recordar lo que todas estas partes significan de la sección sobre el RPM, será fácil comprender qué representan estas partes del paquete Debian. Significan lo mismo, no obstante, los paquetes Debian usan dpkg en lugar de RPM para identificarse.

Los paquetes Debian también usan switches que pueden colocarse al principio del comando para especificar instrucciones al paquete. Un ejemplo es -i, se usa para instalar el paquete. Otros ejemplos que pueden usarse son -r, que eliminará el paquete pero dejará sus archivos de configuración. El switch -P elimina el paquete y sus archivos de configuración, y -B inhabilita los paquetes que se basan en un paquete eliminado.

Diversidad de los Paquetes Debian El Administrador de Paquetes Red Hat se originó en Red Hat, el Administrador de Paquetes Debian se originó en la distribución Debian de Linux. La evolución del administrador de paquetes Debian se dio de manera muy similar a RPM. Otras distribuciones que se basan en Debian como Storm Linux, Corel Linux, y Libranet usan paquetes Debian. Los paquetes y distribuciones Debian no han sido tan populares porque Debian Linux no enfatiza una instalación o herramientas de configuración GUI, lo que lo hace difícil para el usuario inexperto. Storm y Corel Linux han agregado algunas de estas características de GUI que los hacen más atractivos. El enfoque de Debian Linux se ha concentrado tradicionalmente hacia los principios de fuente abierta más que las distribuciones que se basan en los paquetes RPM.

También de manera similar a los paquetes RPM, los paquetes Debian pueden usarse a través de varias distribuciones y con compatibles con diversas CPUs. Es raro ver un paquete Debian usado en un sistema que no sea Linux.

Tarballs Tarballs son por mucho el tipo más ampliamente soportado de paquete disponible con Linux. Tarballs, como los paquetes RPM y Debian, son una colección de archivos comprimidos que pueden descomprimirse e instalarse en un sistema Linux o UNIX. Tarballs se descomprime con la utilidad compress o qzip. Cada distribución puede usar tarballs para instalar o eliminar aplicaciones y programas. No obstante, tarballs no es tan avanzado como los paquetes RPM o Debian. Primero, tarballs no mantiene una base de datos de los paquetes. Esto hace difícil eliminar programas que se han instalado usando tarballs porque no hay una base de datos que mantenga el rastreo de dónde están ubicados todos los archivos. Tarballs no tiene información de dependencia. Esto puede hacer difícil determinar qué otro programa podría necesitar instalarse para que el programa actualmente instalado funcione. Incluso puede ser difícil saber si hay problemas de dependencia. Los paquetes RPM y Debian notificarán inmediatamente si hay problemas de dependencia.

Los paquetes tarball son identificados por medio del comando tar Originalmente tarballs se usaba para archivar archivos en una dispositivo de backup a cinta y se conocía como "archivador de cinta" [tape archiver]. Tarballs es un medio excelente de hacer backups y comprimir archivos en un disco rígido. Llevar a cabo un backup mediante el comando tar e tratará en capítulos posteriores. El comando tar e usa en conjunción con una utilidad de compresión como compress, gzip o bzip2. El más popular de los tres es gzip. Los archivos se comprimen primero con una de estas utilidades de compresión, y luego se archivan usando el comandotar Como resultado, el archivo tendrá dos extensiones, como .tar.gz.Tarballs es similar a los archivos zipeados mediante la utilidad WinZip en Windows. Un ejemplo de un paquete tarball que se está descomprimiendo e instalando

Page 259: Documento de Apoyo No. 4 Cisco It Essentials II

259

es el siguiente:

# tar –xvzf samba-2.0.7.tar.gz

Se mencionó anteriormente que tarballs podía usarse como mecanismo de distribución de paquetes en cualquier distribución de Linux. No obstante, Slackware es una distribución de Linux que principalmente usa sólo Tarballs. Slackware es la más antigua de las principales distribuciones de Linux. Como Debian Linux, Slackware no usa una configuración o herramientas de instalación GUI de lindo aspecto. Slackware tiende a favorecer un enfoque más simple en lugar de usar cualquiera de las herramientas de administración de paquetes que vienen con paquetes RPM y Debian. 9.4 Configuración y Tareas Post-Instalación

9.4.2 Creación de archivadores y cambios básicos para makefiles

gzip Desafortunadamente, la mayoría de los programas de software que encontrará se encuentran en formato de paquete RPM. Por lo común, estas piezas se descargan mediante FTP anónimo de algún sitio de archivadores. El proceso de instalar software puede ir de lo extremadamente simple hasta lo casi imposible. Todo depende de cuán bien los autores del software escribieron sus scripts de instalación y de cuán buena es la documentación de instalación.

Los paquetes de software que se obtienen mediante FTP anónimo estarán virtualmente todos en la forma de un archivo tar comprimido. Estos archivos pueden crearse de un par de maneras diferentes. Por lo común, un árbol de directorio contiene archivos fuente, librerías, documentación, ejecutables y otros archivos necesarios que se empaquetan en un archivo tar usando el programa tar. Este archivo tar es comprimido después por lo general para ahorrar espacio.

El paquete de software probablemente tendrá una extensión al final del nombre de archivo que le indica en qué formato se encuentra. Si el archivo termina en .gz, fue comprimido con el programa gzip de GNU. Éste es el formato de compresión de archivos más común de los paquetes de software de Linux. Si el nombre del archivador termina con una .Z, fue comprimido con el programa compress. Por ejemplo, el paquete de software test.tar.gz es un archivador tar que ha sido comprimido con gzip.

Algunos paquetes de software son bastante grandes, así que es una buena idea colocarlos en un sistema de archivos que tenga una buena cantidad de espacio libre. Algunas personas crean un sistema de archivos separado para fuentes y lo montan bajo un directorio, como /usr/local/src o /src. Donde quiera que decida construir sus paquetes de software, asegúrese de que tenga el suficiente espacio en el disco para que el software pueda compilarse exitosamente.

Ahora, puede seguir adelante y mover el paquete de software al árbol fuente que ha establecido y descomprimirlo y expandir el archivador. Si un archivo está comprimido con gzip, se puede descomprimirlo con el comando gzip -d. Por ejemplo, el siguiente comando expande el archivo comprimido test.tar.gz y lo reemplaza por el archivador tar llamado test.tar.

· gzip -d test.tar.gz

cpio El comando cpio manipula archivos llamados archivadores cpio. Un cpio copia los archivos dentro o fuera de un archivador tar. El archivador puede ser otro archivo en el disco, una cinta magnética, o un pipe. Con cpio, se puede crear un nuevo archivador, extraer el contenido de un archivador existente, hacer una lista de los contenidos del archivador, y copiar archivos de un directorio a otro.

Cuando cpio agrega un archivo no comprimdo a un archivador, lo almacena como archivo no

Page 260: Documento de Apoyo No. 4 Cisco It Essentials II

260

comprimido pero también almacena su atributo. Cuando un archivo con un atributo no comprimido es extraído a un sistema de archivos NTFS (que soporta archivos no comprimidos), el archivo es extraído como archivo no comprimido. En otros sistemas de archivos, se advierte y se extrae como archivo comprimido. Los archivos no comprimidos de un archivador nunca se crean porque la mayoría de las cintas, diskettes y otros medios de archivo no pueden comprenderlos. Se recomienda que comprima cualquier archivador que contenga archivos con el atributo de no comprimido establecido para mantener el tamaño del archivador razonable.

Las tres formas del comando mostrado abajo representan las principales funciones de cpio. Cada llamada a cpio debe especificar una y sólo una de las siguientes opciones principales:

· -i – Lee un archivador existente (creado con la opción -o) a partir de la entrada estándar. · -o Escribe un nuevo archivador a la salida estándar, usando la lista de archivos leídos a

partir de la entrada estándar. Tal lista podría se producida por los comandos ls o find. Por ejemplo, el siguiente comando usa ls para hacer una lista con los archivos del directorio actual, luego usa pipe para pasar esta lista como entrada para cpio. El archivador resultante contiene el contenido de todos los archivos, y se escribe en arch.

ls . | cpio -o >arch

· -p Copia la lista de archivos leídos desde la entrada estándar al directorio especificado. Se puede usar esta opción para copiar árboles de archivos enteros.

Para copiar todo el sistema de archivos de un diskette al directorio actual, use:

find a: -type f | cpio -pvd .

Para archivar el directorio actual en un diskette en formato portátil:

find . -type f | cpio -ocO a:

Para recuperar un directorio a partir de un diskette archivador portátil:

cpio -icdm -I a:

Makefiles Makefiles se usa para compilar programas y paquetes. Para instalar algunos programas es enecesario compilar los archivos binarios y librerías. La aplicación de medios Xine es un perfecto ejemplo de esto, que se trató previamente.

Lleva mucho tipeo compilar un programa con varios archivos fuente. Además, si se tienen las líneas suficientes de código fuente, puede llevar mucho tiempo para el compilador realmente compilarlas todas. Hay un programa llamado make que le permite compilar automáticamente todos sus archivos fuente simplemente tipeando make. Esto nuevamente, se hizo para Xine antes. Además, si solamente se han cambiado algunos de los archivos, solamente recompilará aquellos archivos fuente que dependen de los archivos en los cuales haya hecho cambios. Por supuesto, tiene que indicar qué archivos dependen de qué otros archivos creando un archivo llamado Makefile.

Hay cuatro tipos básicos de sentencias en un Makefile:

· Comentarios Cualquier línea que comience con un # es un comentario y será ignorado. · Macros Las macros asumen la siguiente forma:

· nombre = datos Éstos se interpretan de manera similar a las sentencias #define en ANSI C. Todas las instancias de $(nombre) en las sentencias siguientes son

Page 261: Documento de Apoyo No. 4 Cisco It Essentials II

261

reemplazados por datos. Por ejemplo, si la siguiente macro: · SRC = main.m Hace que una línea se interprete como: gcc main.m

· Reglas explícitas Las reglas explícitas le indican a make qué archivos dependen de la compilación de otros archivos, y los comandos requeridos para compilar un archivo en particular. Asumen la siguiente forma:

· targetfile: sourcefiles

Esta regla de arriba dice que para crear el targetfile (archivo de destino), make debe llevar a cabo los comandos enumerados en sourcefiles (archivos fuente). Por ejemplo, la siguiente regla significa que para poder crear el archivo de destino main, los archivos fuente main.m y List.h tienen que existir, y make deberá usar el comando gcc -o main main.m List.h para crearlo.

main: main.m List.h gcc -o main main.m List.h

· Reglas implícitas Las reglas implícitas son iguales que las reglas explícitas, excepto que se las enumera sin comandos. make usa los sufijos de los archivos para determinar qué comando llevar a cabo.

9.4 Configuración y Tareas Post-Instalación

9.4.3 Instalación y reconfiguración del cargador de arranque

La instalación y configuración del Cargador de Arranque se hace inicialmente durante el proceso de instalación. No obstante, hay ocasiones en las cuales el cargador de arranque necesitará reconfigurarse. Por ejemplo, después de la instalación del sistema operativo un usuario podría necesitar hacer ajustes en el tiempo que el cargador de arranque se retrasa hasta cargar el kernel Linux. El usuario puede agregar otro sistema operativo para un arranque dual y necesitará hacer el ajuste necesario al cargador de arranque. A menudo los archivos de configuración del cargador de arranque necesitarán editarse para efectuar estos cambios. En otras ocasiones puede ser necesario cambiar los cargadores de arranque. Linux proporciona más de un cargador de arranque. GRUB y LILO son los dos cargadores de arranque principales que se usan en Linux hoy. Es un proceso muy fácil instalar un nuevo cargador de arranque o pasar a GRUB si se usa LILO o a LILO si se usa GRUB.

El Propósito del Cargador de Arranque Es importante comprender el rol que el Cargador de Arranque juega en el proceso de arranque. El Módulo 7 trata los detalles del proceso de arranque de Windows y cita el proceso de arranque de Linux también. El proceso de arranque en Linux es muy similar al de Windows. También se trató que LILO podía usarse para arrancar el sistema operativo Linux. Linux es capaz de usar otros cargadores de arranque que no sean LILO. El programa cargador de arranque de Linux reside en el Registro de Arranque Maestro (MBR) en un diskette o disco rígido. El MBR se encuentra en el primer sector del disco y es lo que se usa para arrancar el sistema operativo. Este primer sector de un disco rígido que controla el proceso de arranque se conoce como Sector de Arranque. En sistemas Linux el Cargador Linux (LILO) es un programa que controla el proceso de arranque. GRUB, OS Loader y System Commander son ejemplos de otros tipos de cargadores de arranque y se tratarán en la siguiente sección. LILO es más complejo comparado a los que se encuentran en otros sistemas operativos como Windows. LILO es capaz de ser configurado para arrancar uno o varios sistemas operativos en un disco rígido. LILO puede usarse para arrancar otros sistemas operativos que no sean Linux. No obstante, LILO debe instalarse siempre en la partición Linux porque dañará la mayoría de sistemas de archivos no Linux. Otros cargadores de arranque Linux incluyen los siguientes:

· GRUB El GRand Unified Bootloader es el más moderno cargador de arranque para Linux. Es en realidad el cargador de arranque por defecto para Red Hat.

· OS Loader Este cargador de arranque es el cargador de arranque que se encuentra en

Page 262: Documento de Apoyo No. 4 Cisco It Essentials II

262

sistemas Windows y DOS. También se lo conoce como NTLDR. Este cargador de arranque no puede arrancar Linux directamente pero puede arrancar un disco que contenga LILO y por lo tanto arrancar Linux indirectamente.

· System Commander Éste es un cargador de arranque muy avanzado con muchas funciones y configuraciones avanzadas. Al igual que NTLDR, no puede arrancar Linux directamente pero puede hacerlo indirectamente.

Configuración del Cargador de Arranque LILO Lo primero que cualquier administrador de sistemas necesita saber acerca de la configuración del cargador de arranque LILO es el archivo lilo.conf, que se muestra en la Figura . Éste es el archivo que define cómo se arrancará un sistema. Cada línea de este archivo contiene información acerca de cómo se arranca el sistema. Define desde qué partición arrancar, cuál es el OS por defecto para arrancar si hay más de uno, y cuánto tiempo la pantalla de LILO se retrasará al arrancar. Para reconfigurar LILO, el usuario debe tener algún conocimiento acerca de la información contenida en este archivo y cómo hacer los cambios necesarios para reconfigurar LILO. Las secciones del archivo lilo.conf son las siguientes:

· boot=/dev/hda Esta sección del archivo define dónde se instalará LILO. En este caso LILO se instalará a sí mismo en el MBR del primer disco EIDE. La porción hda indica esto. Para cambiar la ubicación de dónde se encuentra LILO simplemente cambie esta porción del archivo a un valor que represente otra partición de Linux.

· Prompt Agregando esta línea al archivo LILO pedirá al usuario que seleccione un OS para arrancar antes de arrancar el OS. Esta línea puede eliminarse si no se desea ningún prompt para el usuario.

· timeout=50 Esto representa el tiempo en décimas de segundo que LILO tardará hasta arrancar el sistema operativo.

· default=linux Esto define el sistema operativo por defecto que se cargará. · lba32 Agregar esta línea al archivo lilo.conf especifica que LILO puede arrancar kernels

ubicados más allá del 1024º cilindro del disco rígido.

Hay unas pocas cosas que es importante conocer acerca del cargador de arranque LILO. La página man de lilo.conf es otro buen lugar para averiguar más acerca del archivo lilo.conf. Después de hacer cambios al archivo lilo.conf, el comando lilo debe introducirse en el prompt de comandos para activar los cambios que se han hecho. Es importante no olvidar este paso o el sistema continuará usando el antiguo cargador de arranque.

Configuración de LILO para Dos Sistemas Operativos Hay dos cosas a considerar al agregar o instalar otro sistema operativo. Primero, es una buena idea usar LILO porque LILO puede usarse para arrancar el otro sistema operativo. La segunda

Page 263: Documento de Apoyo No. 4 Cisco It Essentials II

263

cuestión a considerar es que configurar LILO para Linux y un segundo OS no es tan difícil. Requiere hacer los cambios necesarios al archivo lilo.conf que se trató en la sección anterior.

Para configurar LILO para dos sistemas operativos Linux, introduzca nueva información al archivo lilo.conf. Este nuevo texto tendrá exactamente el mismo aspecto que el texto que ya está ahí para el OS existente. Si el nuevo OS Linux tiene una versión de kernel diferente, la única parte de este texto que será necesario cambiar es la línea de la imagen. Será necesario especificar también la partición raíz correcta para el nuevo OS. El procedimiento correcto para ello puede ser un poco complicado, pero no es tan difícil. Primero, la partición raíz del segundo sistema operativo Linux necesita montarse dentro del sistema de archivos Linux existente, luego configurar la nueva partición raíz para que señale al kernel del segundo sistema Linux. Esto es realmente simple. Todo lo que se requiere es agregar la línea apropiada al archivo lilo.conf para que señale al kernel del nuevo sistema Linux. La segunda partición raíz necesita instalarse en un directorio de la partición del sistema existente como /linux2 por ejemplo. Luego, la línea de la imagen para el segundo OS en lilo.conf necesita cambiarse a algo como image=/linux2/boot/bzImage-2.2.17.

Configurar LILO para otro OS además de Linux es un proceso más simple. Nuevamente, es necesario agregar el texto apropiado al archivo lilo.conf. Agregar el parámetro other al archivo hace esto. Por ejemplo, agregue el siguiente texto al archivo lilo.conf al configurar LILO para arranque dual con Windows:

Other=/dev/hda3 label=windows table=/dev/hda

Instalación de un Nuevo Cargador de Arranque El proceso es bastante fácil cuando se usa el cargador de arranque LILO y se lo reemplaza por otro cargador de arranque como GRUB. Primero, será necesario configurar el archivo grub.conf. Este archivo es similar al archivo lilo.conf en que contiene la información requerida para arrancar el sistema operativo. Este archivo ya debería existir y estar configurado con los valores por defecto del sistema dependiendo de qué distribución se usa. Una vez que el archivo grub.conf ha sido configurado con cualquier cambio por hacer, el usuario debe decidir dónde instalar el cargador de arranque GRUB. Para instalar el cargador de arranque GRUB en el MBR del primer disco rígido introduzca el siguiente comando en el prompt:

# grub-install /dev/hda

Esto habilitará el MBR para que ahora arranque usando GRUB en lugar de LILO. Ahora, vuelva a arrancar la computadora y la pantalla de arranque de GRUB debería verse ahora.

Si el usuario está usando GRUB inicialmente y ahora desea usar el cargador de arranque LILO, use el mismo proceso que antes, pero en cambio use el archivo lilo.conf. Luego, use el comando lilo para escribir el nuevo MBR y hacer que el sistema arranque usando LILO.

9.4 Configuración y Tareas Post-Instalación

9.4.4 Problemas del kernel

El kernel del sistema operativo se ha mencionado algunas veces en la sección anterior. No obstante, nunca se ha explicado completamente qué es el kernel o qué hace por el sistema. El kernel es esencialmente el motor que hace funcionar el sistema operativo. El kernel de un sistema operativo proporciona funciones como administración de la memoria, controladores de hardware de bajo nivel excluyendo controladores de video X y controladores de impresora, programación de cuándo procesos específicos obtienen acceso a la CPU, otorgación de permisos a los programas para acceder a la red, y control de acceso al sistema de archivos de una unidad de disco rígido.

Un usuario común no usará el kernel directamente y muchos usuarios no sabrán que existe. Los programas que están instalados interactúan con el kernel constantemente. Hay solamente unas

Page 264: Documento de Apoyo No. 4 Cisco It Essentials II

264

pocas razones por las cuales un administrador necesitaría preocuparse por el kernel. El administrador debe asegurarse de que la versión del kernel esté actualizada. Si la versión es demasiado antigua, determinados dispositivos de hardware pueden no funcionar. Luego, sería necesario instalar una nueva versión si la que está actualmente instalada no funciona. El sistema también debe configurarse para que arranque el kernel apropiado. Esto se trató en la sección anterior.

Numeración del Kernel Una versión típica del Kernel Linux podría tener un aspecto tal como Linux 2.4.3. Esto no sirve de mucho para el usuario inexperto. No obstante, como administrador que sabe qué representa cada uno de estos números, éstos serán de ayuda para determinar cuándo actualizar el kernel.

El primer número es el número principal. Este número no cambia porque representa un cambio importante o significativo en el kernel. El segundo número indica si la versión es una versión estable o experimental. Si el número es par se trata de un kernel estable, y debería ser seguro instalarlo. Si el número es impar, está todavía en las etapas experimentales y no se recomienda para lanzarlo o ser instalado.

El tercer número representa cualquier arreglo pequeño o menor usualmente hecho a una versión del kernel ya estable. Esto puede hacerse cuando se arreglan bugs y tal vez cuando se agregan controladores.

Recompilación del Kernel A veces es necesario actualizar el kernel como cualquier programa podría necesitar actualizarse. Instalar un paquete, como cualquier otro programa, puede hacer esto. Algunos administradores Linux prefieren compilar su propio kernel a partir del código fuente. Compilar el kernel puede ofrecer varias ventajas incluyendo las siguientes:

· Optimización del kernel Optimiza el kernel para un desempeño máximo compilando el kernel para la CPU específica del sistema.

· Configuración individual de controladores Compilando manualmente el kernel, seleccione qué controladores han de agregarse. Una base de datos de controladores necesita instalarse.

· Capacidad para aplicar patches Compilar manualmente el kernel permitirá aplicar patches o actualizaciones.

En general, no es necesario compilar el kernel manualmente, no obstante, esto puede ofrecer algunos beneficios adicionales. 9.4 Configuración y Tareas Post-Instalación

9.4.5 Variables del entorno

Las Variables del Entorno contienen información acerca del sistema informático que usan los programas para obtener un informe de estado sobre la condición actual de la computadora. Las Variables del Entorno en un sistema Linux contienen información como directorio home del usuario, espacio en disco, nombre de host, el nombre del shell actual, o simplemente para averiguar qué recursos están disponibles en el sistema. Los programas que están instalados contienen algunas de sus propias variables del entorno que se usan para saber dónde están ubicados sus archivos de

Page 265: Documento de Apoyo No. 4 Cisco It Essentials II

265

configuración o cómo mostrar información.

Variables del Entorno Comunes de Linux Existen muchos tipos diferentes de variables del entorno que pueden establecerse para un sistema Linux. Para ver una lista de todas las actualmente establecidas, tipee el comando env en el prompt. Algunas de las variables son las siguientes:

· PATH Ésta es una de las variables del entorno más importantes que hay en un sistema Linux. Esta variable contiene una lista de directorios en las que el sistema buscará programas ejecutables cuando se introducen en el prompt de comandos.

· TERM Esta variable representa el tipo de terminal actual. La variable TERM contiene información que permite a un sistema Linux conocer qué comandos soporta la terminal.

· DISPLAY Ésta es la variable que identificará la pantalla usada por el sistema X Window. · PWD Muestra el directorio de trabajo actual. · USER Ésta es una variable que es mantenida por el sistema que le permite saber qué

usuario ha iniciado sesión. · HOSTNAME Ésta se usa para mostrar el nombre de host TCP/IP actual de la

computadora. · LD_LIBRARY_PATH Las librerías se trataron anteriormente en este capítulo. Ésta es la

variable que algunos programas usan para indicar los directorios en los cuales pueden hallarse las librerías.

· PS1 Esta variable representa el prompt por defecto para el shell bash. Se usa para identificar el shell bash de otros shells que podrían estarse ejecutando en el sistema.

Éstos son solamente algunos de los muchos perfiles de entorno que pueden configurarse en un sistema Linux. No obstante, éstos son los más importantes y los que se usarán más a menudo. A veces un programa que se instala después de la instalación del sistema operativo requerirá la configuración de ciertas variables del entorno. En este caso, configúrelas en /etc/profile/ o en cualquier archivo de configuración al que el programa pueda acceder.

Configuración de la Variable del Entorno de la Sentencia $PATH Una de las más útiles variables del entorno a configurar tan pronto como la instalación está completa es la variable $PATH. Esto tiene el mismo uso que configurar la variable PATH bajo DOS. Bajo Linux también, modificar PATH agregaría estos nuevos directorios a su ruta de búsqueda por defecto. Por ejemplo, si tiene un ejecutable en particular en un directorio en particular, entonces agregue ese directorio a su PATH. Luego sólo tendría que tipear el nombre del ejecutable en el prompt en lugar de la ruta absoluta para ese ejecutable.

Supongamos que acaba de instalar Netscape en una carpeta llamada /usr/local/netscape. Para poder ejecutar este programa tendría que tipear la ruta completa en el prompt, que sería:

#/usr/local/netscape

El comando de arriba ejecutaría su programa. No obstante, tipear esto cada vez que desea lanzar Netscape es un tanto engorroso y a menudo es imposible recordar la ruta absoluta de cada programa. Agregue el directorio /usr/local/netscape a su sentencia $PATH, para que en la siguiente ocasión solamente tenga que tipear 'netscape' en el prompt y no la ruta absoluta. Para agregar este directorio a su PATH tendrá que editar su archivo .bash_profile ubicado en su directorio home. Este archivo tendría una línea en particular qu comienza con la cadena PATH. Por ejemplo, el archivo contendría una línea como la siguiente :

PATH=/optional/bin:$PATH: $HOME/bin

Page 266: Documento de Apoyo No. 4 Cisco It Essentials II

266

Para agregar el directorio /usr/local/netscape a éste tendrá que modificar esta línea de la siguiente forma:

PATH=/usr/local/netscape: optional/bin:$PATH:$HOME/bin

Una vez que haya modificado este archivo, guárdelo y luego ejecútelo como sigue:

. $HOME/.bash_profile

Para ejecutar el script de arriba, en el prompt $ tipee un punto ' . ' deje un espacio y luego tipee $HOME/. Una vez hecho esto presione la tecla Tab. Hacerlo reemplazará lo que haya tipeado por la ruta a su directorio home. Una vez que esto ocurre todo lo que tiene que hacer es agregar .bash_profile a lo que ya está presente en el prompt y finalmente presionar <Enter>

Al ejecutar el script no vería ningún mensaje en la salida, pero luego podría tipear simplemente 'netscape' en el prompt para ejecutar el programa.

9.4 Configuración y Tareas Post-Instalación

9.4.6 Verificación del funcionamiento y desempeño apropiados de las aplicaciones

La etapa final del proceso de instalación consiste en probar y verificar que los programas, aplicaciones y sistema operativo estén funcionando apropiadamente. Una vez que el sistema operativo inicial se ha instalado y las configuraciones e instalaciones post-instalación se han establecido, es importante probar las configuraciones antes de implementar el sistema. Una prueba apropiada ahorrará tiempo al administrador en resolver problemas después. Los problemas son inevitables y ocurrirán después de probar el funcionamiento y desempeño apropiados. Cómo arreglar estos problemas se tratará en el Capítulo 13, esta sección se concentra en cómo probar aplicaciones en un sistema de prueba así como en un sistema de producción.

Verificación en un Entorno de Prueba Hay muchas razones para probar las aplicaciones y programas antes de instalarlos en un entorno de producción. Supongamos que se está efectuando una actualización completa del sistema operativo. Por ejemplo, una compañía desea actualizar todos sus sistemas Linux a Red Hat 7.2. Es una buena idea instalar el sistema operativo primero en una red de prueba. Luego instale todos los programas y aplicaciones en el sistema y verifique que todo funcione apropiadamente. Incluso si se trata de una única aplicación o una actualización a una aplicación, no es inteligente instalarla directamente en un sistema de producción. Hacerlo puede introducir bugs, cambios de configuración a formatos de archivos, y compatibilidad con otros programas. Probar y evaluar el

Page 267: Documento de Apoyo No. 4 Cisco It Essentials II

267

nuevo software en un sistema de prueba ayuda a reducir estos problemas.

Para establecer un entorno de prueba apropiado, recree tan exactamente como sea posible el sistema o sistemas existente(s). Esto incluye tener el sistema operativo exacto y los programas instalados en el sistema así como asegurarse de que el sistema de prueba tiene todos los mismos archivos de configuración y configuraciones que tiene el sistema de producción. Esto incluye tener el hardware exacto en el sistema de prueba que en el sistema de producción. De ser posible, es una buena idea copiar la imagen del disco rígido del sistema de producción al disco rígido del sistema de prueba. Si se está haciendo una actualización es una buena idea instalar la versión antigua en el sistema de prueba y llevar a cabo la actualización como se haría en el sistema de producción.

En algunos casos, crear una réplica exacta de la computadora de producción no es una opción. Esto no es enteramente malo ya que la mayoría del software instalado no depende de qué hardware está instalado. No obstante, la versión y distribución correctas de Linux debe instalarse en el sistema de prueba que estará en el sistema de producción. Esto se debe a que diferentes distribuciones de Linux pueden contener colecciones de paquetes muy diferentes, que contienen controladores específicos. Por lo tanto, si no se sigue esta regla, cuando el software se use en un sistema de producción, podría fallar.

Un único programa podría simplemente involucrar probar unas pocas veces y puede llevar muy poco tiempo. Una instalación importante de software o paquete como un nuevo servidor web o sistema operativo deberá requerir pruebas más extensivas y formales. Una buena práctica cuando se hace la instalación o se actualiza en el entorno de prueba es tomar buenas notas para referirse a ellas cuando se haga el trabajo real en el entorno de producción.

Verificación en un Entorno de Producción Una vez que las pruebas apropiadas se han llevado a cabo en el entorno de prueba y todo ha sido verificado y funciona apropiadamente, es hora de instalar el software en el sistema de producción. Una buena práctica es hacer un backup de todo en el sistema de destino primero en caso de que algo efectivamente salga mal. Otra buena práctica es establecer marcas de desempeño antes de la actualización. Éstas pueden compararse después de que la actualización esté completa para probar si el sistema puede manejar eficazmente el nuevo software. Esto deberá cubrirse en el entorno de prueba, recuerde que no siempre es posible establecer una réplica completa del sistema de producción. Con los archivos en backup es posible restaurar el sistema a su configuración original. Incluso si se pasa la prueba, cualquiera que haya hecho instalaciones y actualizaciones en computadoras sabe que los problemas pasan y nada funciona 100 por ciento del tiempo.

Algunos problemas importantes a tener en cuenta es que lo más probable es que el sistema de producción necesite llevarse offline para poder llevar a cabo la actualización o instalación. A veces es una buena idea, para que, si algo sale mal otras computadoras conectadas al sistema no se vean afectadas. Otra cosa importante a tener en cuenta es que podría haber otras computadoras o usuarios de esas computadoras que se basan en el sistema que se está actualizando. Esto es especialmente cierto si el sistema es un servidor de red. Por ejemplo, si el sistema es un servidor de archivos que contiene los archivos de la compañía a los que los empleados necesitan acceder. De ser éste el caso, entonces el mejor momento para programar la actualización es durante momentos en los cuales los usuarios vayan a usar lo menos posible el servidor. Otra buena idea podría ser mantener el sistema de prueba disponible para reemplazar temporalmente el sistema de producción mientras se lo está actualizando. En último lugar, es importante notificar a los usuarios del trabajo que se está haciendo para que estén concientes y puedan prepararse para el tiempo de inactividad del servidor por anticipado.

Una vez que la instalación o actualización se ha completado y el sistema de producción está de nuevo online y funcionando, es una buena idea practicar una serie de pruebas. Esto es para asegurarse de que el sistema funcionará apropiadamente. Una buena práctica en este punto es establecer el desempeño post instalación o actualización mediante marcas y compararlas con las

Page 268: Documento de Apoyo No. 4 Cisco It Essentials II

268

marcas tomadas antes.

Como parte de la verificación en un entorno de producción viene un continuo monitoreo durante días e incluso semanas si la instalación o actualización fue importante. En un sistema Linux use el comando ps para verificar que el proceso aún esté en funcionamiento. Es una buena idea verificar los archivos log del sistema para monitorear el desempeño del sistema a lo largo de un periodo de tiempo. Los archivos log en sistemas Linux se almacenan usualmente en el árbol de directorios /var/log.

Resumen

El proceso de instalación de Linux involucra la implementación de muchas decisiones que se tomaron durante la etapa de planificación. Varias de las opciones que es necesario considerar e implementar durante la instalación en primer lugar son, ejecutar el instalador de Linux, elegir una instalación de GUI o texto, configurar diversas opciones, y elegir paquetes que es necesario instalar. Una vez completa la instalación, el sistema deberá reiniciarse.

La instalación básica es el primer paso de todo el procedimiento de instalación. Otra tarea a considerar es la configuración de la GUI del X server. El proceso de instalación intentará a veces auto-configurar el X server. A menudo lo hará con una configuración sub-óptima. Muchas de las utilidades de configuración pueden usarse para optimizar la configuración X una vez completo el proceso de instalación. Hay varias tareas post-instalación que a veces se necesitan, como cambiar administradores de ventanas o entornos de escritorio.

10. Administración de Linux Descripción general

Este capítulo detalla el sistema operativo Linux. Linux tiene como objetivo principal ser un Sistema Operativo de Red (NOS) basado en servidor. La instalación incluye unos pocos pasos adicionales que no se encuentran en Windows 2000. Una vez verificado que el sistema es compatible, Linux guía al administrador al paso final de iniciar sesión. Administrar cuentas de usuario y el sistema de archivos también se tratan en este capítulo para proporcionar al administrador la información necesaria para compartir carpetas, archivos, y asignar permisos. El alumno también aprenderá sobre los daemons Linux que se configuran para servir contenido web, proporcionar servicio de e-mail, etcétera.

10.1 Administración de la Interfaz del Usuario

10.1.1 Procedimientos de inicio de sesión

Los usuarios pueden iniciar sesión en un sistema operativo Linux usando la Interfaz de Línea de Comandos (CLI), que es similar a la interfaz de Windows 2000. Un ejemplo de la pantalla de inicio de sesión en modo texto para Linux Red Hat se muestra en la Figura . La consola de Linux se denomina CLI y se tratará en más detalle posteriormente en este capítulo. En lugar de mostrar recuadros de texto y botones como la GUI de Windows 2000, la CLI de Linux proporciona al usuario sucesivos prompts de texto para introducir un nombre de usuario y una contraseña. No se requiere ninguna información adicional sobre el dominio. A diferencia de Windows 2000, las contraseñas de Linux se enmascaran completamente al ser tipeadas, haciendo importante prestar mucha atención al introducirlas. Los usuarios deberían también ser cuidadosos de no introducir información de cuenta inválida continuamente. Esto se debe al hecho de que algunos administradores de sistemas implementan funciones de seguridad para bloquear o reiniciar el sistema después de una cantidad de intentos fallidos. Una vez que la información de la cuenta se ha entregado exitosamente, el usuario iniciará sesión en el sistema, será llevado a su directorio home, y se le otorgará un prompt de comandos.

Page 269: Documento de Apoyo No. 4 Cisco It Essentials II

269

Cuando el sistema está configurado para arrancar en la Interfaz Gráfica del Usuario (GUI), será necesario introducir un nombre de usuario y una contraseña para autenticar al usuario en la red. 10.1 Administración de la Interfaz del Usuario

10.1.2 Interfaz GUI

Las diferencias entre una Interfaz de Línea de Comandos (CLI) y una Interfaz Gráfica del Usuario (GUI) se trataron anteriormente. Recuerde que Linux usa una CLI con comandos basados en texto introducidos en un prompt de comandos. Aunque este formato tiene sus ventajas, también hay ventajas en la GUI usada por Windows. En 1984, un equipo de expertos en software del Instituto Tecnológico de Massachsetts (MIT) crearon una interfaz gráfica llamada "X Window" que permite a Linux operar similarmente a las otras GUIs.

Debido al potente diseño del sistema operativo Linux, el aspecto de X Window puede personalizarse fácilmente y programarse en una cantidad infinita de formas. En el OS Windows 2000, los principales elementos de la interfaz del usuario para íconos, menúes, la barra de tareas, etcétera, son idénticos para todos los usuarios. Los usuarios de Linux pueden personalizar completamente su interfaz X Window para que cumpla con sus necesidades y deseos específicos instalando diferentes programas llamados "Administradores de Ventanas" y "Entornos de Escritorio". Tratar todos estos diferentes paquetes de software está más allá del alcance de este curso, en cambio nos concentraremos en las similitudes subyacentes halladas en todos los sistemas X Window.

Similitudes con Windows 2000 Una interfaz X Window típica tendrá un aspecto bastante familiar a la de un usuario de Windows 2000. Se usa un mouse como dispositivo puntero. También hay una barra de tareas, íconos que representan datos, y ventanas que muestran información al usuario. Un ejemplo de la GUI X Window se muestra en la Figura . Aunque los tamaños, formas y colores de estos elementos pueden variar, los principios básicos son muy similares a la GUI de Windows 2000. Este diseño familiar tiene como objetivo ayudar a los usuarios a volverse rápidamente productivos con el sistema X Window y es por lo común el enfoque estándar. Pero nuevamente, la flexibilidad de Linux también permite a los programadores la creación de nuevas e innovadoras interfaces X Window que podrían diferir radicalmente de cualquier cosa vista antes.

Page 270: Documento de Apoyo No. 4 Cisco It Essentials II

270

Aprendiendo los Conceptos Básicos Los usuarios primerizos de X Window deberán sentirse cómodos con los diversos elementos del sistema. Determine si los íconos se lanzan con un solo clic o con doble clic. Haga clic en la barra de tareas para investigar las diversas herramientas que contiene. Practique cómo cambiar el tamaño, minimizar y cerrar la ventana. Una vez que los usuarios se sienten cómodos al navegar por la interfaz X Window, están listos para comenzar a aprender sus funciones básicas.

No importa qué colores, estilos y funcionalidad pueda tener un entorno de escritorio X Window, la consola de línea de comandos es un elemento importante que siempre será constante. La consola de línea de comandos permanece constante. Recuerde que Linux es una CLI, y X Window es realmente una representación gráfica de esta CLI. Por lo tanto, tiene sentido que un usuario de X Window probablemente quiera interactuar con una consola de comandos Linux en algún punto. Esto puede hacerse por lo común de dos maneras: ventana terminal y consola principal.

Ventana Terminal Una ventana terminal muestra un prompt de comandos Linux estándar en una pequeña ventana de la pantalla. Un ejemplo de una ventana terminal de Linux se muestra en la Figura . El programa terminal de X Window estándar se denomina xterm. Ejecutar xterm muestra una ventana terminal de Linux para que el usuario introduzca comandos. Busque xterm o cualquier otro programa de terminal en el menú de la barra de tareas de X Window.

Consola principal Además de ejecutar una CLI Linux con ventanas dentro de X Window, los usuarios también pueden pasar sus pantallas a la consola principal de pantalla completa. Recuerde que al arrancar la computadora, Linux se carga primero seguido por X Window, el administrador de ventanas, y luego el entorno de escritorio. Puesto que Linux en sí siempre se está ejecutando en segundo plano, es

Page 271: Documento de Apoyo No. 4 Cisco It Essentials II

271

posible pasar el sistema de X Window a la CLI de Linux usando el teclado [CTRL + ALT + (F1 - F6)]. La consola principal y las ventanas de terminal funcionan idénticamente. Usar una en lugar de la otra es por lo general una cuestión de preferencia personal. Es posible ejecutar dos sesiones X al mismo tiempo así como usar terminales virtuales. X se ejecuta en la terminal virtual 7, y como se enunció antes, puede pasarse a cualquiera de las terminales virtuales CLI usando el comando [CTRL + ALT + (F1 - F6)]. Una segunda sesión de X puede iniciarse en la terminal virtual 8 usando el comando [startx - :1 vt8].

Aunque muchas tareas comunes de Linux pueden llevarse a cabo usando las aplicaciones gráficas de X Window, hay muchas más que solamente están disponibles para los usuarios mediante el prompt de comandos. Por esta razón es importante saber cómo llegar al prompt de comandos de Linux desde dentro de X Window. En secciones posteriores prestaremos más atención a la CLI Linux y sus comandos básicos.

La última habilidad básica X Window a comprender es la capacidad para salir del sistema. Dependiendo de qué entorno de escritorio se está ejecutando actualmente, esto se hace por lo común de manera muy similar a Windows 2000. Simplemente ubique el menú de la barra de tareas y una de las primeras selecciones del menú será la opción Cerrar Sesión [Log Off]. Seleccionar esta opción permitirá al usuario apagar o reiniciar Linux. 10.1 Administración de la Interfaz del Usuario

10.1.3 Interfaz CLI

La interfaz de línea de comandos (CLI) Linux permite al usuario interactuar con el sistema de la misma forma que el intérprete de comandos de Windows 2000. Después de iniciar sesión en Linux, el sistema navega hasta el directorio home del usuario y presenta el prompt de comandos. Los usuarios ahora pueden tipear comandos, presionar la tecla Enter, y ver cualquier salida en la pantalla. Aunque la operación de Linux sigue el mismo flujo básico que el intérprete de comandos de Windows 2000, la sintaxis de comandos entre los dos es por lo general bastante diferente.

Como ayuda para familiarizarse mejor con el uso de Linux, los usuarios deberían intentar introducir los comandos básicos mostrados en la Figura en el prompt. Un ejemplo de la salida del comando whoami se muestra en la Figura . Algunos de los diferentes usos para el comando cd se muestran en la Figura .

Page 272: Documento de Apoyo No. 4 Cisco It Essentials II

272

No se recomienda que los usuarios intenten adivinar comandos al azar, ya que una actividad tal descuidada podría tener un serio impacto en el sistema. La mayoría de los sistemas operativos CLI suponen que los usuarios saben lo que están haciendo y no verifican la intención de sus comandos. Por lo tanto, los usuarios siempre deberán ser precisos y alertas al emitir comandos en el sistema para evitar resultados no deseados.

Páginas Man Los usuarios pueden aprender más acerca de cualquier comando mediante el uso de las páginas man, que es abreviatura de páginas del manual. Estos archivos de ayuda muestran información detallada acerca de cualquier comando Linux disponible para el usuario.

Las páginas man describen lo que los usuarios necesitan saber acerca de los comandos online del sistema, llamados al sistema, formatos de archivos y mantenimiento del sistema. Las páginas man online son parte del OS Linux y se instalan por defecto. Las páginas man asumen la forma de pantallas basadas en caracteres simples y no son gráficas.

Para acceder a las páginas man, los usuarios necesitan estar en un prompt de comandos. Los usuarios pueden iniciar sesión en la línea de comandos o abrir una ventana de Terminal en la interfaz KDE e iniciar con un prompt de comandos. Las páginas man son de ayuda cuando los usuarios desean usar un comando o utilidad y han olvidado la sintaxis o tan sólo necesitan alguna información respecto a cómo usarlo. Las páginas man proporcionan información acerca de cómo introducir el comando, una descripción de su propósito, y qué opciones o argumentos están disponibles. Algunos comandos no funcionarán con los tres shells. Las páginas man indican qué comandos funcionarán con qué shells. Se refieren al shell Bourne como (sh), al shell Korn como (ksh), al shell C como (csh) y al Bourne Again SHell como (bash). Los alumnos aprenderán acerca de estos shells diferentes en la siguiente sección.

El Comando man El comando man muestra páginas man online para cualquiera de los cientos de comandos Linux disponibles. Un listado de todos los comandos Linux con una breve descripción de lo que hacen puede obtenerse introduciendo man intro en la línea de comandos. Incluso puede mostrarse una página man sobre el comando man en sí tipeando man man.

El comando man puede usarse de varias formas. La forma básica es man nombre, donde nombre es el nombre del comando para el cual el usuario desea información. Hay varias opciones útiles que usar con el comando man para llevar a cabo búsquedas de palabras clave y mostrar secciones específicas del Manual del Programador. Hay varias formas diferentes de usar el comando man como muestra la Figura .

Page 273: Documento de Apoyo No. 4 Cisco It Essentials II

273

La Figura ilustra un ejemplo del uso del comando man para obtener ayuda con el comando mkdir.

Trabajo con las Páginas Man Las páginas man son una forma rápida y conveniente de verificar la sintaxis de comandos Linux desde un prompt de comandos.

Encabezados de las Páginas Man Una cantidad de diferentes encabezados o áreas informativas aparecen en una página man típica. Los más comunes se incluyen en la lista mostrada en la Figura .

Estos encabezados se muestran en la salida de la página man en todas letras mayúsculas. Dependiendo del comando y de su propósito, la página man podría no contener todos los encabezados. Por ejemplo, el comando imprimir directorio de trabajo (pwd) no tiene un encabezado de opción o información sobre

Page 274: Documento de Apoyo No. 4 Cisco It Essentials II

274

operandos porque no se pueden usar opciones ni operandos con el comando. Todos los comandos tendrán al menos un nombre, una sinopsis y una descripción. Un comando Linux común es cd, que permite a los usuarios cambiar de directorio. Los resultados de la página man para el comando ls se muestran en la Figura

. Note los diferentes encabezados que se trataron anteriormente. Parte de la salida se ha omitido porque la salida de la página man de cd es normalmente de nueve páginas de largo.

El Comando ls Uno de los más importantes comandos que se usarán al navegar por el sistema de archivos Linux en la Interfaz de Línea de Comandos es el comando ls. El propósito del comando ls es hacer una lista del contenido del directorio actual. La sintaxis para el comando ls es la siguiente:

ls [opciones] [archivos]

Una vez que se ha visto la página man para el comando ls entonces se conocerán las numerosas opciones que pueden usarse junto con este comando. Algunas de las opciones más comunes que se usan con el comando ls se muestran en la Figura .

El comando ls puede emitirse con las [opciones] y la lista de [archivos] para mostrar el contenido de un directorio específico. No obstante estos son opcionales y cuando se emite el comando ls sin estas opciones entonces se presentará el contenido del directorio actual. Además, más de un nombre de archivo puede darse para que el comando ls muestre la lista del contenido de varios directorios. La Figura ilustra algunas de las tareas típicas de navegación llevadas a cabo mediante el comando ls.

Page 275: Documento de Apoyo No. 4 Cisco It Essentials II

275

10.1 Administración de la Interfaz del Usuario

10.1.4 Los shells de Linux

Los shells de Linux operan como "intérpretes de comandos". Los shells de Linux funcionan de manera muy similar a como el programa command.com funciona para MS-DOS. Los shells de Linux toman la entrada que tipea el administrador y usan esa entrada para lanzar comandos y controlar el sistema operativo. No obstante, éstas son las únicas funciones similares de los shells de Linux y el intérprete de comandos MS-DOS. Por ejemplo, en Linux el shell solamente se carga al sistema cuando el usuario lo solicita o si el usuario inicia sesión en el shell. En MS-DOS, el intérprete de comandos se integra al kernel y está siempre en funcionamiento. En Linux, el shell funciona como cualquier otro programa y no está integrado al kernel del sistema operativo. Otra diferencia principal de los shells Linux es que el usuario puede elegir de muchos shells diferentes. Con Linux, puede elegirse un shell que se ajusta a las preferencias o el entorno.

El Shell Bourne Éste es conocido como el shell UNIX original. El nombre del programa es (sh) y es conocido como shell bash en sistemas Linux. Este shell proporciona todas las funciones de (sh) así como programación del shell usando archivos script del shell.

El Shell C Este shell no se usa ampliamente porque es uno de los shells más complicados con los cuales trabajar. Usa una sintaxis mucho más compleja para la programación del shell que algunos de los otros shells. Por esta razón el shell C no se recomienda para programación del shell o para crear programas de shell.

El Shell Korn Éste es un shell que fue escrito por David Korn. Combina las funciones interactivas que hicieron popular al shell C con la sintaxis de programación del shell del shell Bourne. Un ejemplo de la sintaxis usada para cambiar el Shell Korn y el prompt del shell Korn se muestran en la Figura . El shell Korn (habilitado ejecutando ksh) no se incluye en la instalación por defecto de Red Hat.

Page 276: Documento de Apoyo No. 4 Cisco It Essentials II

276

Shell Born Again Como se dijo antes, este shell fue creado como extensión mejorada del Shell Bourne. Este shell se denomina shell bash y se usa en muchos sistemas "tipo UNIX", como Linux. La Figura proporciona un ejemplo del prompt del shell bash.

10.1 Administración de la Interfaz del Usuario

10.1.5 Editor VI

La mayor parte de toda la administración de Linux se hace desde la línea de comandos usando los diversos comandos, configuración, y archivos script para llevar a cabo estas funciones. A menudo estos comandos, configuración y archivos script necesitan editarse y cambiarse para que funcionen de la forma que es apta para el entorno de red. Linux incluye una potente herramienta de edición llamada Editor vi que permite la edición de los archivos de configuración y script así como la creación de algunos archivos de configuración y script. Un ejemplo de la pantalla del editor vi se muestra en la Figura . Llevar a cabo cualquier tipo de administración del sistema con un servidor Linux requiere que el administrador tenga un conocimiento funcional del Editor vi. La flexibilidad del Editor vi permite la interacción con aplicaciones del sistema de manera tal que virtualmente proporcionará a un administrador cualquier funcionalidad necesaria. El Editor vi puede parecer difícil de comprender porque no funciona como Microsoft Word para su software suite de oficina u otros editores de texto. Cuando se abre el Editor vi y se intenta tipear nada ocurrirá excepto que el sistema hará "bip". Esto se debe a que el Editor vi está en modo de "comandos" cuando se lo abre por primera vez. El comando correcto debe tipearse para entrar al modo "edición", modo de entrada, donde la introducción de texto puede comenzar. Entre al modo "edición" eligiendo el comando i.

Page 277: Documento de Apoyo No. 4 Cisco It Essentials II

277

Los Modos de vi Los tres modos de operación en el Editor vi son comandos, edición/entrada, y última línea. Comprender la función de estos tres modos es la clave para trabajar con el Editor vi. Todos los comandos disponibles con el Editor vi pueden clasificarse en uno de los tres modos. La Figura presenta una lista de los modos y proporciona una breve descripción de cada uno.

Lo importante a saber acerca del Editor vi es que no funcionará como un editor de texto típico. Puede tipearse cualquier clase de texto pero no funciona como un editor Lo Que Ve Es Lo Que Obtiene [What You See Is What You Get (WYSIWYG)] como Microsoft Word. El Editor vi no contiene ninguna función de formato. Si el usuario desea que una cadena de texto tenga sangría, el Editor vi no contiene ningún medio para ello. El usuario debe tipear el comando que hará la sangría. Esta salida aparecerá en la copia impresa.

Obtener una completa comprensión del Editor vi y de cuáles son sus capacidades estaría más allá del alcance de este curso. Hay libros y clases completos que tratan el Editor vi solamente. No obstante, el potencial completo de un servidor Linux no puede lograrse sin tener conocimiento del Editor vi y de algunos de los comandos básicos que se usan para navegar y editar scripts y archivos de configuración. Los laboratorios acompañantes proporcionan algunos ejemplos para abrir el Editor vi y ejecutar algunos de estos comandos para editar texto y crear un archivo script.

Page 278: Documento de Apoyo No. 4 Cisco It Essentials II

278

10.1 Administración de la Interfaz del Usuario

10.1.6 awk

La utilidad awk le permite crear programas breves que leen archivos de entrada, ordenan datos, los procesan, llevan a cabo aritmética en la entrada, y generan informes. Para expresarlo de la manera más simple posible, awk es una herramienta de lenguaje de programación usada para manipular texto. El lenguaje de la utilidad awk se parece al lenguaje de programación de shell en muchas áreas, aunque la sintaxis de awk es única. awk fue diseñado inicialmente para trabajar en el área del procesamiento de texto, y el lenguaje se basa en la ejecución de una serie de instrucciones cada vez que un patrón coincide en los datos entrantes. La utilidad escanea cada línea de un archivo, buscando patrones que coincidan con los proporcionados en la línea de comandos. Si se encuentra una coincidencia, da el siguiente paso de programación. Si no se encuentra ninguna coincidencia, procede hacia la siguiente línea. Aunque las operaciones pueden volverse complejas, la sintaxis para el comando es la misma, que es la que sigue:

awk '{patrón + acción}' {nombresdearchivos}

En la sintaxis de arriba, "patrón" representa lo que AWK busca en los datos, y "acción" es una serie de comandos ejecutados cuando se encuentra una coincidencia. Las llaves ({}) no siempre se requieren encerrando su programa, pero se usan para agrupar una serie de instrucciones basadas en un patrón específico.

Considere el siguiente ejemplo del uso de awk. El primer paso sería crear un archivo de datos usando cualquier editor de texto como vi, como se muestra a continuación:

inventario

vestidos pedir 5

zapatos bien 12

camisas pedir 6

medias bien 15

pantalones bien 8

Una vez creado y guardado el archivo, emita el siguiente comando:

#awk '/bien/ {print $3}' inventario 12 15 8

El comando anterior le indica a la utilidad awk que seleccione cada registro del archivo que contenga la palabra "bien" y una acción de imprimir el tercer campo (Cantidad de ítems disponibles). Usando la salida de arriba como ejemplo se puede apreciar que sería posible crear una multitud de archivos de datos conteniendo una multitud de información de cualquier tipo. Luego utilizando la utilidad awk, se puede extraer la información exacta de los archivos usando palabras clave específicas como alias. awk lee la entrada de estos archivos dados una línea a la vez, luego cada línea se compara con el "patrón". Si el "patrón" coincide para cada línea entonces la acción dada se toma. "patrón" puede consistir en una o más expresiones regulares. Un resumen de metacaracteres awk comunes se muestra en la Figura .

Page 279: Documento de Apoyo No. 4 Cisco It Essentials II

279

10.2 Cuentas de Usuario y Cuentas de Grupo

10.2.1 Cuentas de usuario y grupo en un entorno Linux

Antes de introducirnos en la verdadera administración de usuario y grupo, es una buena idea aprender los conceptos e y detalles de implementación de las cuentas de usuario en un sistema multiusuario. Comprender estos conceptos puede ayudar a cualquier administrador a planificar una seguridad eficaz de cuentas de usuario y grupo.

Cuentas de Usuario en un Entorno Multiusuario Las cuentas de usuario en un sistema Linux permiten a varias personas iniciar sesión en el sistema al mismo tiempo o an momentos diferentes sin interferir entre sí. Un usuario puede incluso tener varios inicios de sesión activos a la vez. Antes de llevar a cabo tareas administrativsa con cuentas de usuario o grupo, es importante comprender qué permiten hacer las cuentas de usuario a un multiusuario en el sistema Linux, y cómo se identifican usuarios y grupos diferentes.

Hay varios términos importantes que es necesario aprender para poder comprender el lenguaje que trata con la administración de cuentas del usuario. Primero, los términos usuario y cuenta a veces se usan de manera intercambiable. Por ejemplo, pueden escucharse los términos "borrar una cuenta" o "borrar el usuario". Con este propósito significan lo mismo, borrar la cuenta del usuario o su acceso al sistema. Hay varios otros términos importantes que es necesario aprender. Algunos de ellos se muestran en la Figura y se tratan a continuación.

Nombre de usuario Éste es un nombre único que se otorga a cada persona a quien esté permitido iniciar sesión en el sistema. Es una buena idea tener reglas respecto a los nombres de usuario para hacer más fácil identificar a un usuario por su nombre de usuario. Nombres de usuario comunes son la primera letra del nombre del usuario y su apellido entero. Por ejemplo, el nombre de usuario de John Smith sería jsmith.

Page 280: Documento de Apoyo No. 4 Cisco It Essentials II

280

Privilegios de Inicio de Sesión Una vez que se ha otorgado un nombre de usuario y contraseña a un usuario y se les permite iniciar sesión en el sistema, a los usuarios solamente se les otorga acceso a ciertos directorios. Los usuarios también se ven limitados en cuanto a lo que se les permite hacer en el sistema. Los privilegios de inicio de sesión enuncian qué tipo de derecho se otorgará a un usuario una vez que acceda al sistema.

Protección con Contraseñas Junto con un nombre de usuario, los usuarios deben proporcionar una contraseña para iniciar sesión en un sistema Linux. La contraseña está oculta a diferencia del nombre de usuario, que se conoce públicamente. Muchos sistemas Linux tienen reglas respecto a las contraseñas como la longitud o tipos de caracteres usados.

Permisos El sistema de archivos controla quién tiene permiso para acceder a archivos y ejecutar programas. Los permisos de archivos se tratarán en detalle en este capítulo.

Directorio Home En un sistema Linux, cada cuenta de usuario tiene un directorio home asociado a él. El usuario tiene completo acceso a este directorio. El usuario puede agregar o borrar archivos de este directorio o puede usárselo simplemente para almacenar archivos.

IDs de Usuario y Grupo Éstos son números que el sistema operativo Linux usa para identificar a un usuario o grupo. Linux no usa nombres. El sistema operativo usa números por lo que usa la ID de usuario (UID) para identificar usuarios y una ID de grupo (GID) para identificar grupos de usuarios.

Shell por Defecto Cuando un usuario inicia sesión en un sistema Linux e introduce comandos en la línea de comandos, lo está haciendo desde el prompt del shell. Esto es lo que se usa para interpretar estos comandos para el kernel Linux. Hay varios shells de los cuales elegir. El shell por defecto es el shell presentado al usuario cuando inicia sesión. Toda esta información para cuentas de usuario se almacena en dos archivos de configuración del sistema Linux: los archivos /etc/passwd y /etc/shadow. El propósito y la diferencia entre estos archivos se explicaron en el capítulo anterior.

Cuentas de Usuario en un Sistema Multitarea El sistema operativo Linux es tanto un sistema multiusuario como multitarea. La naturaleza de las cuentas de usuario es tal que varios usuarios pueden haber iniciado sesión en un único sistema Linux al mismo tiempo. Los usuarios pueden haber iniciado sesión localmente o remotamente por medio de una red. Por esta razón, un sistema multitareas que está siendo usado por usuarios simultáneos requerirá conectividad de red. Estos usuarios pueden estar usando más de un programa a la vez y pueden incluso usar el mismo programa al mismo tiempo. Por ejemplo, un usuario puede haber iniciado sesión y estar usando XEmacs, otro usuario puede haber iniciado sesión y estar usando el navegador web, y otros dos usuarios pueden haber iniciado sesión usando un editor de texto al mismo tiempo. Es posible configurar Linux para que sea un OS de usuarios múltiples en el que varios usuarios pueden iniciar sesión usando una única cuenta de usuario. No obstante, esto no se recomienda por varias razones. Proporcionar a cada usuario su propia cuenta de usuario otorga al administrador la capacidad de controlar la seguridad usuario por usuario.

Tenga en cuenta que aunque Linux es un sistema multitareas, no puede soportar una cantidad ilimitada de usuarios simultáneos. Si una gran cantidad de usuarios han iniciado sesión en el sistema y muchos de estos usuarios están intentando todos usar el mismo programa, experimentarán un deterioro en el desempeño. La cantidad real de usuarios que un único sistema Linux puede soportar depende de diversos factores. Depende de qué programas están siendo usados en ese momento. Algunos programas consumen más recursos del sistema, como la RAM, el tiempo de la CPU, o I/O de disco, que otros. Por esta razón, otros factores incluyen cuántos de estos recursos tiene el sistema. Un sistema con más RAM, una CPU más rápida, velocidad de

Page 281: Documento de Apoyo No. 4 Cisco It Essentials II

281

disco más rápida, y más capacidad en disco puede manejar más usuarios simultáneos.

La Cuenta Superusuario La cuenta de usuario más importante en un sistema Linux es la cuenta Superusuario. También se denomina cuenta raíz. Recordemos del capítulo anterior, esta cuenta es creada por defecto durante el proceso de instalación. Ésta es la cuenta que es usada por el administrador del sistema para llevar a cabo cualquier tarea administrativa en un sistema Linux. La cuenta Superusuario puede usarse de varias maneras.

· Inicio de sesión como raíz La cuenta raíz puede usarse para iniciar sesión en la computadora desde la consola principal. De hecho, iniciar sesión como raíz de esta manera solamente puede hacerse desde la consola principal. Una vez iniciada la sesión, cualquier acción que se lleve a cabo en el sistema se hará como raíz. Esto puede representar amenazas a la seguridad por lo cual se recomienda que se haga durante breves periodos y después cerrar la sesión de la cuenta Superusuario.

· Su La cuenta su puede usarse para adquirir temporalmente privilegios de superusuario en un sistema Linux para llevar a cabo tareas administrativas o ejecutar un comando que requiere privilegios de superusuario. Tipee el comando y presione Enter. Aparecerá un prompt para la contraseña superusuario y si se la introduce correctamente se otorgarán privilegios raíz. Para volver a la cuenta con privilegios de usuario normal tipee exit. El comando su también puede usarse para pasarse a la cuenta de otro usuario. Por ejemplo, tipee su jsmith para asumir el rol de la cuenta de jsmith. Si ya había iniciado sesión como raíz no habrá prompt para la contraseña de jsmith. Esto se debe al hecho de que cuando se ha iniciado sesión como raíz se otorgará acceso a cualquier cuenta de usuario del sistema.

· Sudo Este comando permite a un administrador seleccionar ciertos comandos que pueden introducirse sin tener que ser raíz, que de otro modo requerirían privilegios de superusuario. Esto se hace editando el archivo /etc/sudoers y especificando qué usuarios y comandos pueden introducir estos comandos en la línea de comandos sin tener que ser raíz.

· Archivos raíz SUID Es posible seleccionar un archivo a ejecutar como si fuera ejecutado por el raíz, pero puede ser ejecutado por cualquier usuario del sistema.

Es importante ser muy cauteloso al usar la cuenta superusuario a causa de los problemas de seguridad y del daño que puede causar a la computadora. Por esta razón, no se recomienda que la cuenta raíz sea usada como cuenta regular incluso por el administrador del sistema. Un simple error tipográfico al ejecutar un comando puede ocasionar un daño serio y no intencional al sistema. Por ejemplo, supongamos que hubiera que borrar /home/jsmith/tempdir. El comando rm -r /home/jsmith/tempdir se introduciría para ello. No obstante, supongamos que se cometió un error y se introdujo el comando equivocado. Se introdujo rm -r / home/jsmith/tempdir por error, colocando un espacio entre / y home. Esto haría que la computadora borrara todos los archivos en el directorio / así como en /home/jsmith/tempdir. Si esto ocurriera mientras se ha iniciado sesión con una cuenta de usuario regular, habría un prompt para cambiar a la cuenta superusuario para llevar a cabo esto y el error se atraparía antes de completar este comando.

Cuentas de Grupo Los grupos en un sistema Linux se usan con los mismos propósitos que en otros sistemas operativos. Los grupos proporcionan un medio para vincular usuarios similares por motivos de productividad y hacer la administración de cuentas de usuario mucho más fácil. Las cuentas de grupo son similares a las cuentas de usuario en el hecho de que se las define en un único archivo, /etc/groups, similar al archivo /etc/passwd para cuentas de usuario. Segundo, los grupos también tienen nombres, similares a los nombres de usuario para las cuentas de usuario. Por último, como se mencionó anteriormente, los grupos están ligados a una ID (GID).

Las cuentas de grupo no obstante, no son cuentas de usuario. Las cuentas de grupo son una forma de agrupar un conjunto de usuarios similares con propósitos de seguridad. Por ejemplo, es posible agrupar a los ejecutivos de una compañía que podrían tener cierto acceso a archivos y agrupar a

Page 282: Documento de Apoyo No. 4 Cisco It Essentials II

282

otros empleados, que pueden no tener acceso a estos archivos. Recuerde que Linux controla el acceso al hardware mediante archivos. Los grupos pueden usarse para limitar el uso de hardware del sistema a un grupo específico de usuarios también. Más detalles, incluyendo la creación de grupos y el agregado de usuarios, se tratarán posteriormente en este capítulo.

10.2 Cuentas de Usuario y Cuentas de Grupo

10.2.2 Agregado y Eliminación de Cuentas de Usuario

La primera cuenta de usuario creada durante una instalación de Linux es la cuenta "raíz". Esta cuenta superusuario es usada por el administrador del sistema para crear todas las otras cuentas de usuario del sistema. Por defecto y por razones de seguridad, ningún otro usuario tiene el poder de agregar usuarios excepto por el raíz. El proceso de crear un usuario Linux completamente personalizado puede ser bastante complejo, por lo tanto solamente los comandos, indicadores y parámetros básicos se tratarán aquí.

El Comando useradd El usuario raíz crea otros usuarios Linux mediante el comando useradd. Un ejemplo de este proceso está ilustrado en la Figura . Cuando este comando se introduce en el prompt, Linux lleva a cabo muchas tareas simultáneas para crear la cuenta del usuario, como crear un directorio home y asignar permisos por defecto. La sintaxis básica del comando es la siguiente:

useradd nombreusuario -c"nombre real" Por ejemplo: useradd jdoe -c "John Doe"

Esta cadena entera se tipea en el prompt de comandos Linux antes de presionar la tecla Enter. El parámetro nombre de usuario será el nombre de inicio de sesión para el nuevo usuario al iniciar sesión en el sistema. Es sensible al uso de mayúsculas y minúsculas y siempre deberá tipearse en todos caracteres minúsculos. El indicador -c se usa para introducir el campo de comentario, que en la mayoría de los sistemas se usa para almacenar el nombre real del usuario. Otros indicadores de parámetros existen para el comando useradd y pueden encontrarse viendo su página man. La salida de la página man para el comando useradd (man useradd) se muestra en la Figura . Los administradores del sistema en general usarán muchos más de estas opciones de comandos para personalizar completamente a sus nuevos usuarios. No obstante, el ejemplo demuestra los conceptos básicos del comando con configuraciones por defecto principalmente.

Page 283: Documento de Apoyo No. 4 Cisco It Essentials II

283

El Comando passwd Una vez que una nueva cuenta de usuario ha sido creada, debe dársele una contraseña antes de que el usuario pueda iniciar sesión en el sistema. Esto se hace en Linux mediante el comando passwd. Los usuarios pueden ejecutar este comando para cambiar sus propias contraseñas, pero el usuario raíz también puede usarlo para modificar las contraseñas de todos los usuarios. Por lo tanto, una vez creada una nueva cuenta, el siguiente comando es introducido por el usuario raíz para crear la contraseña de la nueva cuenta:

passwd nombreusuario Por ejemplo: passwd jdoe

Al usuario raíz se le pedirá que introduzca una nueva contraseña y que la confirme volviéndola a tipear. Una vez completo este proceso, el nuevo usuario estará listo para iniciar sesión en el sistema con los recientemente creados nombre de usuario y contraseña. Después de iniciar sesión por primera vez, la contraseña deberá cambiarse nuevamente mediante el comando passwd. Hágalo sin el parámetro nombreusuario, y a una que sea más privada y desconocida por el administrador del sistema.

El Comando userdel La forma más fácil de eliminar una cuenta de usuario es mediante el comando "userdel". Este comando solamente puede ejecutarse con la cuenta raíz. Un ejemplo de la sintaxis del comando es el siguiente:

userdel nombreusuario

El comando anterior eliminará la entrada que coincide con el nombre de usuario del archivo "/etc/passwd''. Si está usando el formato de contraseña Shadow, eliminará la cuenta del usuario del archivo "/etc/shadow''.

Tenga en cuenta que emitiendo el comando anterior sin opciones, se borrará solamente la cuenta del usuario. El directorio home y cualquier archivo dentro del directorio home de la cuenta del usuario no se borrarán. Si desea borrar el directorio home del usuario también, agregue la opción "-r" al comando "userdel', como se muestra a continuación.

userdel -r nombreusuario

Page 284: Documento de Apoyo No. 4 Cisco It Essentials II

284

10.2 Cuentas de Usuario y Cuentas de Grupo

10.2.3 Administración de cuentas de usuario

Con la CLI Linux, la administración de usuarios nuevamente se realiza mediante diversos comandos, indicadores y parámetros, como lo muestra la Figura . En particular, cambiar un nombre de usuario, cambiar una contraseña, o borrar una cuenta puede llevarse a cabo con comandos mínimos. No obstante, el proceso de inhabilitar una cuenta requiere un poco más de esfuerzo. El administrador del sistema debe editar el archivo que almacena toda la información de usuarios del sistema e inhabilitar manualmente la contraseña del usuario.

Este procedimiento no es tan difícil como puede sonar. En la mayoría de los sistemas Linux, las contraseñas del usuario se almacenan en un archivo central denominado archivo "shadow", que está ubicado en el directorio /etc. Este archivo puede editarse con un editor de texto como el Editor vi. El comando para editar el archivo shadow sería el siguiente:

vi /etc/shadow

La Figura muestra un ejemplo del archivo /etc/shadow mostrado en el editor vi.

Pico, otro editor de texto, permite el uso de las teclas de flechas para navegar por la lista de cuentas de usuario hasta hallar la cuenta a ser inhabilitada. La información del usuario se enumera de manera continuada en una única fila con dos puntos (:) separando cada campo. El primer campo es el nombre de usuario, y el segundo es la contraseña cifrada del usuario. Para inhabilitar la cuenta, el administrador del sistema puede simplemente colocar un asterisco (*) al principio de la contraseña cifrada. Esto hará que la contraseña sea imposible de introducir al iniciar sesión, inhabilitando así eficazmente la cuenta hasta que el administrador del sistema elimina el asterisco nuevamente. Para guardar el archivo shadow, presione CTRL-X para salir de pico y presione la tecla Y para guardar los cambios.

Page 285: Documento de Apoyo No. 4 Cisco It Essentials II

285

Algunos de los otros comandos importantes y útiles para ayudar a administrar y controlar la seguridad de las cuentas de usuario y grupo se muestran en la Figura .

10.2 Cuentas de Usuario y Cuentas de Grupo

10.2.4 Creación de grupos y agregado de usuarios a grupos

Cada grupo de un sistema Linux puede tener desde ningún miembro hasta muchos miembros como cuentas de usuario en el sistema. Recuerde de la sección anterior, la membresía de grupo está controlada por el archivo /etc/group. Éste es el archivo que contiene una lista de todos los grupos y miembros de esos grupos en un sistema Linux.

Cada usuario, al iniciar sesión en un sistema Linux, inicia sesión en su grupo principal. Éste es el grupo que es pecifica la membresía de grupo por defecto y se establece en el archivo de configuración del usuario. Cuando un usuario inicia sesión en su grupo principal, puede acceder a los archivos y ejecutar programas asociados con ese grupo en particular al cual pertenecen. Si un usuario desea acceso a los archivos o programas que no están en su grupo principal, pueden pasar al grupo con el cual el archivo o programa en particular está asociado. No obstante, el usuario debe ser miembro de ese grupo para poder pasarse a él. Éste es un medio excelente de controlar la seguridad en un sistema Linux. Para cambiar a un grupo diferente después de iniciar sesión en el sistema use el comando newgrp. La sintaxis para este comando es la siguiente:

newgrp nombre-grupo Por ejemplo: newgrp ingeniería

En un sistema Linux, solamente la cuenta raíz, superusuario, tiene el poder para crear y administrar grupos. Estas tareas se llevan a cabo usando comandos simples para crear, renombrar, o borrar grupos desde el sistema. A la mayoría de los usuarios Linux se les asigna un grupo durante el proceso de creación de la cuenta. La siguiente sintaxis se usa para crear un grupo en un sistema Linux:

groupadd nombregrupo Por ejemplo: groupadd ingeniería

Este comando crea el grupo ingeniería. Una vez creado el grupo, los usuarios pueden agregarse al grupo. Esto se puede hacer mediante los siguientes comandos.

Una forma de agregar un usuario a un grupo es hacerlo al crear la cuenta de usuario. La siguiente sintaxis se usa para expandir el comando useradd:

useradd -g grupo nombreusuario -c "nombre real" Por ejemplo: useradd -g ejecutivos jdoe -c "John Doe"

Page 286: Documento de Apoyo No. 4 Cisco It Essentials II

286

Para agregar uno o más usuarios (miembros) a un grupo, se usa el siguiente comando:

gpasswd -M nombreusuario1 [nombreusuario2 nombreusuario3 ...] grupo

El comando gpasswd puede usarse para modificar grupos existentes. Solamente el usuario raíz (administrador del sistema) puede usar la opción -M (miembros). Algunas otras opciones que están disponibles para usar con el comando gpasswd se muestran en la Figura .

Este comando puede introducirse sin ninguna opción en cuyo caso permitirá el cambio de la contraseña de grupo. Ésta es la contraseña que puede ser usada por los usuarios para volverse miembros temporales de un grupo si necesitaran acceso a los archivos o programas asociados a ese grupo.

El comando groups puede usarse entonces para mostrar los grupos actuales al cual pertenece un usuario. Note que el usuario raíz es un miembro de todos los grupos por defecto. Los administradores de sistemas Linux deberían asegurarse de consultar las páginas man para todos estos comandos para aprender más acerca de sus otras funciones relacionadas. 10.3 Sistema de Archivos y Administración de Servicios

10.3.1 Crear y compartir directorios

Al igual que navegar por el sistema de archivos Linux, crear archivos y directorios en Linux es simplemente una cuestión de conocer los comandos apropiados y cómo usarlos. Los comandos aquí presentados permitirán al usuario crear, copiar, mover, renombrar y borrar archivos, directorios, o ambos. Note que algunos de los comandos usan la misma sintaxis tanto para archivos como para directorios, mientras que otros son diferentes. Como todos los sistemas CLI, esto requiere que el usuario memorice y comprenda cómo usar cada comando.

Page 287: Documento de Apoyo No. 4 Cisco It Essentials II

287

Cuando se usa cualquiera de estos comandos por primera vez, especialmente los comandos de eliminación, es una buena idea probar los comandos en archivos de prueba y directorios de prueba. Note que los usuarios pueden modificar solamente archivos y directorios para los cuales tengan los permisos del sistema necesarios. Esto evita que los usuarios maliciosa o accidentalmente modifiquen datos, como borrar archivos del sistema Linux importantes. Los permisos se tratarán en una sección posterior. 10.3 Sistema de Archivos y Administración de Servicios

10.3.2 Uso de find y grep

El comando find El comando find es una de las más útiles e importantes utilidades de administración de archivos en Linux. El comando find se usa para localizar uno o más archivos suponiendo que se conocen sus nombres de archivo aproximados. Vale la pena comprenderlo en profundidad porque hace mucho más que localizar archivos. El comando find le permite especificar filtros, y ejecutar comandos en el contenido de árboles de directorio enteros. Desafortunadamente, find no está bien documentado, pero es realmente simple de usar y una excelente herramienta Linux.

Para comprender cómo usar el comando find considere un caso en el cual puede haberse tipeado un documento y no se recuerda el nombre del documento, pero sabe que lo creó hace menos de 4 días, era más pequeño que 350k, y contenía el trabajo 'Biología_Ciencia_Experimento'. La siguiente sintaxis es un ejemplo de cómo podría usar el comando find para ubicar el archivo.

$ find /home/rtalbot -type f -size -350k -atime -4 | xargs -0 grep 'Biología_Ciencia_Experimento'

El comando find desciende a través de la jerarquía de directorios y aplica la cadena lógica a cada ítem de la carpeta. En el ejemplo, find comienza en la carpeta home /rtalbot. Luego para cada ítem de esa carpeta, aplica la cadena lógica. En este caso: -type f -size -286k -atime -4. Cada atributo de prueba es evaluado, y si es cierto, pasa al siguiente atributo de prueba. Si la entrada es un directorio, find desciende en él. La siguiente lista describe los diversos atributos del ejemplo anterior:

· '-type f' ¿es la entrada un archivo? · '-size -100k' ¿tiene la entrada menos de 100k? · '-atime -7' ¿es el tiempo de acceso menos de hace 7 días?

Page 288: Documento de Apoyo No. 4 Cisco It Essentials II

288

Si cualquiera de los atributos de prueba falla, find deja de procesar el resto de los atributos de prueba y pasa a la siguiente entrada. Usando el ejemplo de arriba, cualquier archivo que sea más de 350k falla la prueba del atributo tamaño y no se probará para su tiempo de acceso o cualquier atributo de prueba subsecuente.

El comando grep El comando grep le permite buscar un patrón en una lista de archivos. Estos patrones se especifican como expresiones regulares, que son cadenas, como palabras o fragmentos de oraciones. La forma de buscar una cadena mediante el comando grep es colocar las palabras que está buscando juntas entre comillas simples. La sintaxis de grep es la siguiente:

$ grep pattern file-name-1 file-name-2 …file-name-n

Un ejemplo se muestra en el ejemplo de arriba del comando find. También podrían agregarse al final los nombres de archivos "Lab_A", "Lab_B", y "Lab_C" después de la cadena de búsqueda "Biología_Ciencia_Experimento" como se muestra a continuación:

$ grep 'Biología_Ciencia_ Experimento' Lab_A Lab_B Lab_C

El resultado que se devuelve mostraría todas las líneas de los archivos "Lab_A", "Lab_B", y "Lab_C" que contengan la cadena "Biología_Ciencia_Experimento".

10.3 Sistema de Archivos y Administración de Servicios

10.3.3 Contraseñas y permisos

El sistema de permisos de Linux es mucho más difícil que el de Windows 2000. Se da más control a los administradores de sistemas mediante el uso de tres categorías de permisos distintivas de lectura, escritura y ejecución. Un ejemplo de algunos archivos Linux con explicaciones detalladas de los permisos de archivos y directorios por defecto se muestran en la Figura . En Windows 2000, el permiso de lectura controla la capacidad de un usuario para entrar a y ver un directorio. Esta funcionalidad se divide en dos permisos separados en Linux. Por lo tanto, el permiso de ejecución controla la capacidad de un usuario de entrar a un directorio, mientras que el permiso de lectura controla su legibilidad. Esto permite un control muy detallado de los permisos del sistema. También hace a la necesidad de seguridad aún más importante ya que usuarios inexpertos pueden no estar al tanto de ningún "agujero" de seguridad que hayan creado inintencionadamente.

El Comando chown Los permisos de archivos y directorios en Linux se controlan mediante el uso de los dos comandos muy importantes chown y chmod. El comando chown es llevado a cabo por todos los usuarios para especificar la pertenencia a usuario y gruop de un archivo o directorio y sigue el formato:

chown nombreusuario.grupo nombrearchivo

Page 289: Documento de Apoyo No. 4 Cisco It Essentials II

289

Por ejemplo: chown jdoe.ejecutivos informe_01

En este ejemplo, el usuario jdoe y el grupo ejecutivos son ahora los propietarios del archivo llamado informe_01.

El Comando chmod La propiedad de archivos y directorios es un concepto importante en Linux porque los permisos se declaran tanto para usuarios como para grupos basándose en esta pertenencia. Por ejemplo, si el archivo informe_01 permite acceso completo al usuario y denega todo acceso del grupo, entonces jdoe podrá acceder al archivo, pero los miembros del grupo ejecutivos serán bloqueados. Estos permisos se declaran mediante el uso del comando chmod:

chmod modo nombrearchivo Por ejemplo: chmod 700 informe_01

Este comando de muestra ha otorgado ahora al usuario todos los permisos de lectura, escritura y ejecución, no dándole a su grupo ni a todos los otros usuarios ningún permiso. Esto se especifica en el modo del comando, que en este caso es 700. Cada dígito del número representa los tres diferentes tipos de usuarios del sistema. Comenzando desde la izquierda, el primer dígito representa al usuario o propietario, el dígito medio representa al grupo, y el dígito del extremo derecho representa a todos los otros usuarios del sistema (usuario-grupo-otro). A los tres tipos de permisos de lectura, escritura y ejecución se les otorga valores numéricos según se muestra a continuación:

Lectura = 4 Escritura = 2 Ejecución = 1

Para otorgar a un usuario en particular permisos específicos, los números apropiados se suman y luego se los enumera en el orden apropiado. Por ejemplo, para otorgar al propietario permisos de lectura y ejecución, al grupo permiso de ejecución, y a todos los otros usuarios permiso de escritura, el número apropiado sería 512. Y por supuesto, para no otorgar ningún permiso, un cero se adjudica para esa categoría de usuario. Asignar permisos en Linux es bastante más tedioso que la interfaz manejada por menúes de Windows 2000. No obstante, la flexibilidad de Linux sí proporciona mayor control al administrador de sistemas experimentado.

El atributo sticky bit Los permisos de acceso a directorios estipulan que si un usuario tiene permiso de escritura en un directorio, puede modificar o borrar archivos en dicho directorio, incluso archivos que no le pertenecen. Muchas versiones de Linux tienen una forma de evitar eso. El propietario de un directorio puede establecer el atributo sticky bit. En este caso, la única persona que puede renombrar o eliminar cualquier archivo en ese directorio son el propietario del archivo, el propietario del directorio o la cuenta raíz. El siguiente ejemplo muestra cómo establecer el permiso sticky bit en el directorio testdir y también la diferencia entre antes y después de haber establecido el atributo:

Root$ ls -ld testdir drwxrwxrwx 2 rtalbot rtalbot 512 Jul 15 21:23 testdir Root$ chmod +t testdir Root$ ls -ld testdir drwxrwxrwt 2 rtalbot rtalbot 512 Jul 15 21:23 testdir

10.3 Sistema de Archivos y Administración de Servicios

10.3.4 Montaje y administración de sistemas de archivos

Los dos comandos que usa Linux para montar y desmontar sistemas de archivos y particiones son mount y umount. La sintaxis para el comando mount es la siguiente:

Page 290: Documento de Apoyo No. 4 Cisco It Essentials II

290

mount [-alrsvw] [-t fstype] [-o options]

Sigue una lista de los parámetros comunes que pueden usarse junto con el comando mount. Tenga en cuenta que ésta no es una lista completa de todos los parámetros que pueden usarse con el comando mount Para encontrar una lista abarcativa, se recomienda consultar la página man de mount. Algunas de las opciones que pueden usarse junto con el comando mount se muestran en la Figura .

La opción -o toma una lista de las opciones separadas por coma, que se muestra en la Figura .

Un administrador muy a menudo sólo utilizará el argumento por defecto con el comando mount. La sintaxis tendría este aspecto:

mount/dev/hda4/mnt/ITEss2

Este comando montaría el contenido de /dev/hda4 en el directorio /mnt/ITEss2, auto-detectando e tipo de sistema de archivos y usando las opciones por defecto.

Uso del Comando umount El uso del comando umount es más simple que el uso del comando mount. La sintaxis para el uso del comando umount es la siguiente:

umount[-anrv] [-t fstype] [device | mountpoint]

Page 291: Documento de Apoyo No. 4 Cisco It Essentials II

291

Los parámetros que se usan con el comando umount son muy similares a los usados con el comando mount. Algunas de las diferencias más importantes se muestran en la Figura .

Las mismas reglas para mount se aplican a umount en relación a quién se le permite ejecutar estos comandos. Solamente el usuario raíz puede usar el comando umount. Esto es a menos que un usuario o propietario específico en la lista del archivo /etc/fstab/ tenga permiso para usar el comando umount para desmontar una partición, sistema de archivos, o dispositivo.

Uso del Comando df El comando df es un comando útil usado para ayudar a administrar sistemas de archivos en máquinas Linux. Un ejemplo de la salida del comando df se muestra en la Figura . El comando df mostrará información acerca de una unidad de disco rígido o partición que incluya espacio en disco rígido total, usado y disponible. Hay muchos parámetros que pueden usarse con este comando también. Algunos de los importantes se muestran en la Figura .

El comando df puede usarse solo o en combinación con estos parámetros para mostrar información sobre cualquier sistema de archivos que se monta en un sistema Linux. Puede mostrarse información sobre un dispositivo o partición específicos agregando el dispositivo en el cual reside la partición o cualquier archivo o directorio del sistema de archivos, que limitará la salida a una partición específica.

Uso del Comando du El comando df es un comando muy útil que puede usarse para mostrar información acerca de sistemas de archivos y particiones que se montan en un sistema Linux. No obstante, a veces es

Page 292: Documento de Apoyo No. 4 Cisco It Essentials II

292

necesario encontrar información acerca de directorios o archivos individuales que están ubicados en una de estas particiones. Por ejemplo, si es necesario liberar espacio en un disco rígido, use el comando du para mostrar información acerca del directorio home de un usuario específico para tomar una decisión respecto a qué archivos mover o borrar para hacer espacio. Un ejemplo de la salida del comando du se muestra en la Figura . Usar el comando df podría brindar información sobre toda la partición o unidad pero no sobre un directorio específico.

Al igual que con el comando df, hay varios parámetros que pueden usarse junto con el comando du. Algunos de ellos se muestran en la Figura .

Ésta no es una lista completa de todos los parámetros que pueden usarse con el comando du. Para encontrar una lista abarcativa, se recomienda consultar la página man de mount. El comando du puede usarse solo o en conjunción con estos parámetros para mostrar información acerca de cualquier archivo o directorio que se monta en un sistema Linux.

10.3 Sistema de Archivos y Administración de Servicios

10.3.5 Archivos de configuración del sistema de archivos

Existen dos tipos de archivos de configuración para el sistema de archivos Linux. Ellos son archivos de configuración del Usuario y del Sistema. Los archivos de configuración del usuario almacenan información que es específica de un usuario individual como las ubicaciones de los íconos del escritorio, las preferencias del administrador de ventanas, y los scripts que se configuran para ejecutarse automáticamente. Los archivos de configuración del usuario son componentes esenciales que componen un sistema multiusuario. Estos archivos almacenan información para cada usuario

Page 293: Documento de Apoyo No. 4 Cisco It Essentials II

293

para que cuando inician sesión para usar el sistema, todas sus configuraciones permanezcan intactas. Los archivos de configuración del sistema controlan las configuraciones para todo el sistema. Éstos son archivos que controlan servicios que se configuran para ejecutarse para cada usuario que inicia sesión en el sistema. Saber dónde localizar estos archivos y editarlos ayudará a cualquier administrador a resolver una variedad de problemas asociados con el sistema operativo Linux.

Archivos de Configuración del Usuario Puesto que estos archivos controlan la configuración de cada usuario individual, los archivos que almacenan estas configuraciones se almacenan en el directorio home de cada usuario. Los archivos de configuración del usuario se almacenan como archivos de punto (.). La Figura proporciona un ejemplo de un directorio home de muestra con los archivos de punto (.) visibles. Por ejemplo, la configuración del usuario para la interfaz KDE se almacenan en los archivos .kde y .kderc. Estos archivos de punto están ocultos y son ignorados por la mayoría de las herramientas de Linux. Si se usa el comando ls para enumerar el contenido del directorio home del usuario, estos archivos no figurarán en la lista. Pueden figurar agregando el parámetro -A al comando ls. Este comando enumera todo excepto los archivos . y ... El OS Linux hace a estos archivos ocultos para que no distraigan y parezcan ejecutarse en segundo plano. Algunos archivos de configuración del usuario importantes se muestran en la Figura .

Éstos son solamente algunos de los archivos de configuración del usuario que se almacenan en un sistema Linux. Al inspeccionar el directorio home se notarán más y a medida que se instalan y ejecutan programas, incluso más pueden aparecer. También hay muchos archivos de configuración asociados con programas que almacenan información específica de un usuario individual.

Archivos de Configuración del Sistema Los archivos de configuración del sistema controlan aspectos del sistema operativo que se relacionan con todo el sistema en oposición a cualquier usuario específico. Estos archivos se encuentran usualmente en su correspondiente subdirectorio ubicado en el directorio /etc. Por ejemplo, los archivos de configuración de Samba pueden encontrarse en el directorio /etc/Samba. Éstas son unas pocas diferentes categorías de archivos de configuración del sistema. Algunos se ejecutan cuando el sistema se inicia, otros controlan el sistema después de que se ha iniciado, y otros controlan servidores específicos de un sistema Linux.

Archivos de Configuración de Inicio El programa principal que se usa para ejecutar los archivos de configuración de inicio es el programa init. Este programa usa el archivo de configuración /etc/inittab para almacenar las configuraciones respecto a cómo deberá iniciarse el sistema. Red Hat Linux usa el script de inicialización /etc/rc.d/rc.sysinit, que se especifica en el archivo de configuración para que ejecute una serie de scripts de inicio que indican cómo se supone que arranque el sistema. Específicamente, estos scripts se ejecutan de acuerdo al nivel de ejecución del sistema. Los niveles

Page 294: Documento de Apoyo No. 4 Cisco It Essentials II

294

de ejecución se tratarán posteriormente en este capítulo. En este punto simplemente comprenda que el sistema siempre se inicia en un nivel de ejecución en particular, 0-6. Si el sistema se configura para que inicie en el nivel de ejecución 5, entonces todos los scripts que están configurados para ejecutarse en el script de inicialización /etc/rc.d/rc.sysinit inician cuando el sistema se inicia en el nivel de ejecución 5. Todos los servidores y utilidades del sistema que están configurados para ejecutarse en un nivel de ejecución en particular se almacenan en archivos de acuerdo al nivel de ejecución en particular en el cual se inician. En Red Hat Linux, el nombre de este archivo es /etc/rc.d/rc#.d, donde # es el número de nivel de ejecución. Los scripts que se almacenan en estos archivos se configuran para iniciar o eliminar un servidor o utilidad del sistema en particular cuando el sistema se inicia en ese nivel de ejecución en particular.

El resultado de estos archivos de configuración de inicio es que un administrador puede configurar un sistema para controlar qué servidores y utilidades del sistema se inician en cualquier nivel de ejecución determinado automáticamente al iniciarse el sistema.

Archivos de Configuración de Función del Sistema Los archvos de configuración de función del sistema controlan las funciones del sistema una vez que éste ha arrancado. A diferencia de los archivos de configuración de inicio, estos archivos no son scripts. Son archivos usados por otros programas. Algunos de los más importantes archivos de configuración de función del sistema se muestran en la Figura .

Éstos son solamente unos pocos de los muchos archivos de configuración que controlan funciones del sistema una vez que el sistema ha arrancado. Hay muchos más pero la mayoría de ellos nunca necesitarán ser configurados. Dependiendo de la distribución de Linux en particular que se está usando, las ubicaciones o nombres exactos de estos archivos podrían ser levemente diferentes. No obstante, usualmente todos llevarán a cabo las mismas funciones.

Archivos de Configuración para Servidores Específicos Los archivos para servidores también están ubicados en el directorio /etc. Estos archivos controlan programas que se ejecutan en segundo plano, más a menudo inadvertidos por el usuario. Estos archivos están configurados usualmente para iniciar el servidor o cambiar su comportamiento en alguna forma si el servidor ya se ha iniciado. Algunos de los servidores más importantes que usará un administradores se muestran en la Figura .

Page 295: Documento de Apoyo No. 4 Cisco It Essentials II

295

Nuevamente, hay muchos otros servidores ubicados en /etc o en un subdirectorio de /etc. No obstante, estos servidores son los más populares que se configurarán en un sistema Linux. Es posible también que los archivos de configuración de los servidores estén ubicados en otros directorios. Usualmente es fácil hacer coincidir un servidor en particular con el nombre hallado en el directorio. Como puede apreciarse, como con el archivo httpd.conf por ejemplo, tiene sentido que éste tuviera algo que ver con el servidor web.

Edición de los Archivos de Configuración Comprender la diferencia entre archivos de configuración del usuario y del sistema y dónde se ubican estos archivos es solamente el primer paso para poder administrar apropiadamente un sistema Linux. Un administrador de un sistema Linux tendrá que editar apropiadamente estos archvos para que éstos configuren apropiadamente un sistema Linux. No hay una forma de explicar a alguien cómo editar cualquiera de estos archivos. Esto es porque dependiendo del sistema en sí, el usuario, y muchos otros factores, cómo se editan estos archivos puede variar completamente de un sistema a otro. Un mejor enfoque a tomar es explicar el formato de estos archivos y cómo todas las líneas de los siguientes archivos de configuración cambiarán qué hará el sistema. Tomando este enfoque, cualquier administrador de sistemas puede configurar estos archivos según sus propias necesidades. Tenga en cuenta que estos archivos pueden editarse usando cualquier editor de texto como vi y que más información puede hallarse sobre estos comandos observando sus páginas man.

El Archivo /etc/inittab El archivo /etc/inittab se describió en la sección anterior. Recuerde que el archivo /etc/inittab es responsable de controlar procesos init, lo cual ejecuta los scripts de inicio en un sistema Linux. Hay dos tipos de líneas que se encontrarán en los archivos /etc/inittab: líneas de comentario y líneas de control. Las líneas de comentario son tipos típicos de líneas que se encontrarán en todos los scripts de cualquier sistema operativo. Éstas son las líneas que se comentan usando un signo numeral (#). Estas líneas se ignoran y no se procesan. Las líneas de control son las líneas que lee el programa. Las líneas de control del archivo /etc/inittab se muestran en el siguente formato en las Figuras y

.

Page 296: Documento de Apoyo No. 4 Cisco It Essentials II

296

id:runlevel:action:process

Observe la Figura para ver que la parte de id del archivo se muestra en el formato n, donde n es el nivel de ejecución (0-6). Esto representa la acción a tomar al pasar a un nuevo nivel de ejecución. Refiérase a la Figura , para ver qué nivel de ejecución puede mostrarse usando un único nivel de ejecución o múltiples niveles de ejecución y puede usarse aquí como 2345 para los niveles de ejecución 2-5.

Hay diversas razones por las cuales un administrador necesitaría editar el /etc/inittab. Una de las razones más comunes es cambiar el nivel de ejecución por defecto del sistema. Los niveles de ejecución se tratarán en más detalle en la sección 10.3.6.

El Archivo /etc/fstab Tal como se aprendió en la sección anterior, el archivo /etc/fstab proporciona acceso a particiones de disco y a dispositivos de medios removibles. Linux soporta una estructura de directorios unificada lo que significa que cada directorio está ubicado en algún lugar en relación a la raíz del árbol que es /. Cualquier dispositivo o partición que se monta en un sistema Linux también se ubica en esta estructura de directorios. Por ejemplo, los archivos de un cdrom que se monta pueden hallarse en el directorio /mnt/cdrom. Los directorios ubicados fuera de esta raíz (/) pueden ser otras particiones, discos o directorios. Un sistema Linux tratará a todos de la misma manera. El directorio /etc deberá estar en el mismo directorio que la raíz pero otros directorios como los directorios home pueden almacenarse en otra partición o disco en el cual no esté la raíz. El archivo /etc/fstab maneja esto permitiendo a un sistema Linux saber dónde se ubican estos archivos para que puedan ser accesibles al sistema operativo.

La estructura de /etc/fstab es como la muestra la Figura . Observe este archivo y note que hay seis columnas separadas por espacios. Vea la línea comentada en la parte superior, que indica lo que cada una de estas columnas representa. Nuevamente, cualquier línea que comience con un signo numeral (#) será comentada e ignorada. Los significados de cada una de estas columnas se muestran en la Figura .

Page 297: Documento de Apoyo No. 4 Cisco It Essentials II

297

10.3 Sistema de Archivos y Administración de Servicios

10.3.6 Administración de niveles de ejecución

Los niveles de ejecución se han mencionado en las secciones anteriores de este capítulo. Hasta este punto todo lo que ha sido mencionado acerca de los niveles de ejecución es que controlan qué conjunto predeterminado de programas se ejecutarán en el sistema cuando el sistema arranca. En otras palabras, hay programas que solamente se ejecutan en niveles de ejecución específicos. En qué nivel de ejecución se arranca el sistema determinará qué programas se cargan al sistema. La misma regla se aplica aquí para los niveles de ejecución que para los archivos de configuración. Como administrador, no es suficiente simplemente saber qué hacen los niveles de ejecución. El conocimiento de cómo administrar eficazmente niveles de ejecución en un sistema Linux también es necesario.

La administración apropiada de niveles de ejecución es un método que puede usar un administrador de sistemas para cambiar qué servicios ofrece un sistema. Por ejemplo, un sistema Linux puede configurarse para arrancar con dos configuraciones diferentes. Una configuración podría ser con todos los servidores de red y la otra podría ser un conjunto más limitado de servicios del sistema en el cual otras tareas como mantenimiento del sistema necesiten hacerse. En lugar de tener que detener manualmente todos estos servicios, puede arrancarse con un nivel de ejecución diferente y ninguno de los servidores del sistema se cargarían. Usar el sistema X Window es otro ejemplo donde puede usarse el nivel de ejecución. Arrancar en una interfaz en modo texto o en una interfaz GUI puede hacerse automáticamente arrancando con diferentes niveles de ejecución.

Cambio del Nivel de Ejecución También se mencionó en secciones anteriores de este capítulo que el programa init controla los niveles de ejecución en un sistema Linux. Las configuraciones que controlan cómo arranca el sistema y en qué nivel de ejecución arrancar están almacenadas en el archivo /etc/inittab. El programa init lee las configuraciones de este archivo y por lo tanto configura el nivel de ejecución inicial del sistema.

Una vez que el sistema ha arrancado es posible cambiar el nivel de ejecución usando los programas init o telinit. La sintaxis para estos dos comandos es la siguiente:

telinit niveldeejecución init niveldeejecución

La mayoría de las veces, para nivel de ejecución, simplemente introduzca el nivel de ejecución al que ha de pasarse, ya sea 0-6. No obstante, también hay unos pocos códigos que pueden introducirse aquí en lugar de un número. Por ejemplo introducir S o s cambiará el nivel de ejecución

Page 298: Documento de Apoyo No. 4 Cisco It Essentials II

298

a modo de usuario único y Q o q leerá nuevamente el archivo /etc/inittab e implementará cualquier cambio que se hayan hecho en el mismo.

Para averiguar cuál es el nivel de ejecución actual, use el comando runlevel. Este comando mostrará el nivel de ejecución anterior del sistema, así como el nivel de ejecución actual.

Un parámetro de utilidad a usar con los programas telinit o init es -t tiempo. Esto retrasará el cambio hasta el tiempo especificado. Este parámetro puede ser útil porque al cambiar de nivel de ejecución muchos de los procesos del sistema se eliminarán. Inicialmente, los sistemas intentan hacer esto mediante el comando SIGTERM. El comando SIGTERM permite a un programa administrar su propio proceso de cerrado, haciéndolo por lo tanto de manera segura. No obstante, si el proceso no se cierra, el sistema usará el comando SIGKILL que inmediatamente finalizará el proceso y podría ocasionar daño al sistema. Usar el parámetro -t tiempo puede retrasar el proceso durante un tiempo para dar a todos los procesos del sistema tiempo para cerrarse por sí mismos.

Cambiar al nivel de ejecución 0 es un caso especial porque requiere apagar la computadora y detenerla. Dependiendo de la distribución de Linux que se esté usando, cambiar a nivel de ejecución 0 apagará el sistema así como toda la alimentación del mismo donde sea seguro apagar manualmente la alimentación. Pasar a nivel de ejecución 0, para apagar el sistema, puede hacerse mediante los comandos telinit o init. No obstante, se recomienda usar el comando shutdown en cambio por las muchas opciones que brinda. La sintaxis para el comando shutdown es:

shutdown [-t sec] [-arkhcfF] time [warning-message]

Estos parámetros para el comando shutdown se explican en la Figura .

Cambiar el Nivel de Ejecución por Defecto Cambiar el nivel de ejecución por defecto en un sistema Linux permanentemente es un proceso muy simple. Simplemente involucra editar el archivo /etc/inittab. Específicamente, la línea id:3:initdefault:. Esta línea indica a un sistema que está configurado para el nivel de ejecución tres (3) por defecto. Para cambiar esto, simplemente cambie el 3 por el nivel de ejecución deseado en el que ha de arrancar el sistema. Despues de hacer este cambio, use el comando init q para escanear el archivo /etc/inittab e implementar el cambio.

Page 299: Documento de Apoyo No. 4 Cisco It Essentials II

299

10.3 Sistema de Archivos y Administración de Servicios

10.3.7 Documentación de la configuración de un sistema Linux

Un paso muy importante a recordar para cualquier administrador, al cambiar cualquier tipo de configuración en un sistema Linux, es documentar los cambios que se han realizado. La documentación es un paso extremadamente importante, especialmente al administrar un sistema Linux. Como se aprendió a lo largo de los pasos anteriores, la mayor parte de todas las configuraciones Linux tienen lugar editando los diversos archivos de configuración. Puede ser imposible seguir el rastro de todos los cambios que se han hecho en un sistema sin mantener una buena documentación. Sin una documentación apropiada, los cambios que se han efectuado pueden olvidarse, lo cual puede conducir a problemas en el futuro. Una documentación apropiada ahorrará tiempo valioso al detectar problemas en el sistema posteriormente. Por ejemplo, si los cambios en la configuración se hicieron en un script de inicio para lanzar un servidor al inicio, entonces posteriormente un servidor se actualiza o reemplaza sin actualizar la configuración del script de inicio, serios errores podrían resultar, haciendo que el sistema no pueda iniciar. La documentación apropiada del sistema habría ahorrado mucho tiempo y problemas. Los cambios de configuración que se hicieron podrían haber sido vistos y luego cambiados de acuerdo a ello.

Log de Mantenimiento del Sistema Muchos administradores mantienen un log para administradores en el cual mantienen registro de todos los cambios de configuración que hacen en sus sistemas. En general es una buena regla mantener un log del administrador en un cuaderno que puede escribirse y no electrónicamente en una computadora. Esto hace fácil la referencia, pero también lo hace disponible incluso si la computadora en la cual se almacena se cae.

Hay varias cosas importantes que documentar en un log del administrador. Unos pocos de estos ítems son los siguientes, pero esto puede ser diferente dependiendo de la red y la configuración del sistema.

· Configuración inicial · Instalaciones de paquetes · Ediciones de los archivos de configuración · Cambios en el sistema de archivos · Recompilaciones del kernel · Cambios en el hardware

Configuración Inicial Es importante documentar cómo estaba configurado originalmente el sistema durante el proceso de instalación. Esto puede incluir cosas como el hardware que se instaló en el sistema. Además, incluya cualquier configuración de hardware que se haya hecho, cualquier información sobre el disco rígido como esquemas de particionamiento, el número de versión de la distribución de Linux, y también qué opciones de instalación se instalaron, como los paquetes.

Instalaciones de Paquetes Es importante registrar qué paquetes de software se instalaron en el sistema. Esto es especialmente importante si los paquetes instalaron son tarballs o si el paquete se ha compilado manualmente. No se mantiene ninguna base de datos de estos paquetes, por lo cual es importante tener una.

Ediciones de los Archivos de Configuración Han habido muchos archivos que se han tratado en este capítulo que requieren efectuar ediciones de configuración. Es una buena idea mantener un registro de estos cambios en el libro log. Si el cambio es pequeño, escribir el cambio exacto que se efectuó está bien. Si fue un gran cambio en el archivo de configuración, usualmente lo mejor es escribir una descripción general de qué cambio se efectuó.

Page 300: Documento de Apoyo No. 4 Cisco It Essentials II

300

Cambios en el Sistema de Archivos A menudo hay muchos cambios que deben efectuarse en el sistema de archivos. Estos cambios podrían ser archivos o directorios que es necesario mover o cuando el sistema de archivos necesita un cambio de tamaño.

Recompilaciones del Kernel Si y cuando el kernel Linux necesita recompilarse o actualizarse, siempre es una buena idea hacer notas acerca de los cambios. Estos cambios deberán incluir el número de versión, cualquier función que se agregó o eliminó, así como el nombre del nuevo Kernel.

Cambios en el Hardware Cada vez que se hace cualquier cambio en el hardware, es importante tomar notas de los cambios que se harán en el archivo /etc/fstab para el disco rígido y para las configuraciones del servidor X con la placa de video.

El libro log deberá ser fácilmente accesible pero también deberá almacenarse en un lugar seguro. La documentación de los cambios de configuración ahorrará tiempo a un administrador al hacer actualizaciones e instalar cualquier nuevo hardware o software. Esta práctica es invalorable para cualquier buen administrador de sistemas.

Copia Backup del Directorio /etc Otro medio de documentar cualquier cambio de configuración es hacer un backup de todo el directorio /etc. Usando el comando tar es posible hacer un backup del directorio /etc en cualquier dispositivo montado. Hacer esto esencialmente preserva una copia de la documentación del sistema. Esto puede usarse para ir hacia atrás y usarse como referencia para ver qué cambios en la configuración se han efectuado. La sintaxis de comandos para ello se muestra en la Figura .

En este ejemplo, en lugar de xxxx, coloque cualquier dispositivo en el que se hizo el backup. Hacer un backup de todo el directorio /etc es a veces una buena idea para hacerlo antes de hacer cualquier cambio extensivo en la configuración. De esta forma, si se comete un error el antiguo directorio siempre puede restaurarse del backup.

Tenga en cuenta no obstante, que este método no es un sustituto de mantener un log de mantenimiento. Es solamente otro medio de ayuda al efectuar cambios en la configuración. Mantener un log puede conducir directamente a un cambio de configuración que se efectuó. No obstante, si había solamente un backup, todos esos archivos deberán analizarse para hallar el cambio de configuración que se efectuó.

Page 301: Documento de Apoyo No. 4 Cisco It Essentials II

301

10.4 Daemons

10.4.1 Introducción a los daemons Linux

Podría no ser enteramente correcto llamar a todos estos procesos de Red/NOS, servicios. Tal vez un término más genérico, independiente del sistema operativo sería más correcto. Esto se debe a que si los usuarios se refieren a estas funciones como servicios, están usando el término que Microsoft usa para referirse a estos procesos de red. Si los usuarios estuvieran usando Linux, se referirían a estos servicios como daemons. Novell se refiere a estos servicios como Módulos Descargables Netware (NLMs). Servicios, daemons y NLMs todos llevan a cabo esencialmente las mismas tareas. Permiten al sistema operativo proporcionar funciones como Internet, archivos compartidos, intercambio de correo, servicios de directorio, administración remota, y servicios de impresión. No obstante, funcionan un tanto diferentemente en Windows en oposición a Linux o Novell.

Las funciones que se denominan servicios en Windows y Módulos Descargables Netware (NLMs) en Novell se denominan daemons en Linux. Ejemplos de daemons Linux son FTPD y HTTPD. Los daemons no están integrados al sistema operativo como los servicios lo están en Windows. Los daemons se ejecutan como procesos en segundo plano. Se ejecutan continuamente sin producir ninguna salida visible. Por ejemplo, el daemon FTP (FTPD) se ejecutará en segundo plano. A medida que procesa solicitudes entrantes, enviará los archivos según sea necesario, pero no mostrará nada en la pantalla. Las actividades de los daemons se registran en un archivo log. Muchos daemons pueden ejecutarse en un sistema Linux en cualquier momento determinado. Hay varios daemons Linux comunes:

· HTTPD Este daemon es responsable de las solicitudes del navegador web. · Inetd Este daemon esperará que se haga una solicitud entrante y luego envía esa solicitud

al daemon apropiado. · Crond Este daemon ejecutará scripts en un momento especificado. · Syslogd Este daemon registrará información acerca de programas en ejecución

actualmente al archivo log del sistema.

Los daemons pueden cargarse o descargarse de la memoria en cualquier momento. También pueden reiniciarse sin tener que reiniciar todo el sistema. La Figura muestra un ejemplo del daemon xinetd.d siendo iniciado. Con Microsoft, el sistema debe reiniciarse cuando se instala una aplicación o servicio. Pero Novell y Linux pueden cargar, descargar y reiniciar un daemon o NLM sin requerir que un administrador reinicie el sistema.

Page 302: Documento de Apoyo No. 4 Cisco It Essentials II

302

10.4 Daemons

10.4.2 Inicio, detención y reinicio de daemons

Antes de entrar en descripciones y ejemplos de daemons específicos de Linux y cómo configurarlos, primero es necesario aprender cómo iniciar o detener estos servicios. Cuando un sistema Linux está funcionando e incluso cuando no hay nada en la pantalla excepto un prompt de inicio de sesión, aún hay varios programas y servicios en continua ejecución. Algunos de ellos son simples programas que manejan cosas tales como prompts de inicio de sesión basados en texto. Hay otros servicios más complejos que se están ejecutando que hacen el sistema disponible para otros sistemas exteriores. En un sistema operativo Linux, muchos de estos servicios que se inician y detienen se denominan daemons. Estos daemons necesitan iniciarse de alguna manera y en ciertas ocasiones incluso necesitan ser detenidos o reiniciados. Linux proporciona varias formas diferentes de configurar un sistema para que inicie daemons o programas.

Uso de Scripts Sys V para Iniciar y Detener Servicios y Daemons Linux Los scripts Sys V pueden usarse para iniciar, detener o reiniciar daemons Linux. Los scripts se ubican en directorios en particular, más comúnmente en los directorios /etc/rc.d/init.d o /etc/init.d. Para ejecutar estos scripts, necesitan ir seguidos por opciones tales como start, stop o restart. La opción status puede usarse en algunos scripts también para obtener feedback acerca de en qué estado actual se encuentra el daemon. Por ejemplo, el siguiente comando reiniciará el daemon Apache Web server en un sistema Red Hat 7.2.

# /etc/rc.d/init.d/httpd restart

Si por alguna razón este script es ejecutado y si devuelve un mensaje de Fallido [Failed], indica que hay algo mal en la configuración.

Hay algunas cosas que es importante saber al iniciar o detener manualmente un daemon de esta manera.

Primero, dependiendo de qué distribución de Linux se está usando, el nombre exacto del script puede ser levemente diferente. Por ejemplo, en algunas distribuciones el servidor Samba usa el script smb y en otras, usa el script samba para iniciar, detener o reiniciar el daemon Samba. Otra instancia en la cual el nombre del script de inicio podría no estar estandarizado es cuando hay scripts que llevan a cabo operaciones complejas que comienzan varios otros programas junto con el programa o daemon que se pretende que se inicie con el script. El script Network o Networking es un ejemplo que se incluye en algunas distribuciones que se usa para inicializar muchas funciones de red.

Segundo, los scripts de inicio Sys V están diseñados para ser ejecutados en distribuciones particulares de Linux. Un script de inicio Sys V de Red Hat no funcionará en otras distribuciones de Linux.

Tercero, se mencionó antes qué indica un mensaje Failed cuando se ejecuta el script. No obstante, a veces un script se ejecutará y parecerá estar funcionando correctamente incluso aunque no está operando correctamente. Si el daemon no está funcionando apropiadamente verifique el archivo log, usualmente localizado en el archivo /var/log/messages. Este archivo log puede proporcionar alguna indicación respecto a qué errores se están generando.

Cuarto, siempre es una buena idea leer la documentación específica del daemon para las diferentes opciones que reconoce el script. Esto se debe a que algunos scripts soportan diferentes opciones que otros. Por ejemplo, algunos daemons necesitan reiniciarse cuando se ha efectuado un cambio en la configuración. Para hacer esto, simplemente ejecute el script con la opción de reinicio. Algunos scripts no necesitan reiniciarse sino que necesitan detenerse completamente y luego volverse a iniciar. Algunos daemons tienen comandos que simplemente releen la

Page 303: Documento de Apoyo No. 4 Cisco It Essentials II

303

configuración sin tener que reiniciarlos.

Iniciar o Detener un Daemon o Servicio de Forma Permanente mediante scripts Sys V Para poder iniciar o detener eficazmente un servicio o daemon que se ejecuta en un sistema Linux, es necesaria una buena comprensión de qué son los niveles de ejecución. Comprender cómo los niveles de ejecución pueden usarse para controlar qué servicios, programas y daemons carga automáticamente el sistema cuando inicia también es necesario. Refiérase a la sección 10.3.5 para repasar niveles de ejecución.

También se mencionó anteriormente en esta sección que los scripts de inicio Sys V que se usan para iniciar, detener y reiniciar temporalmente los daemons están ubicados en los directorios /etc/rc.d/init.d o /etc/init.d. También hay varios directorios dentro de la estructura de directorios Linux que contienen vínculos simbólicos a estos scripts. Estos vínculos simbólicos están asociados a los diferentes niveles de ejecución. Cuando un sistema Linux se arranca en un nivel de ejecución específico, estos vínculos simbólicos que están asociados a un nivel de ejecución específico, hacen referencia a los scripts Sys V para que carguen servicios, programas y daemons de manera permanente. Estos directorios que contienen los vínculos simbólicos se denominan por lo común /etc/rc.d/rcx.d o /etc/rcx.d. La x es el número de nivel de ejecución especificado, que se trató en la sección 10.3.5. Los vínculos simbólicos de estos directorios contienen archivos que ejecutan los scripts Sys V cuando el sistema arranca en el nivel de ejecución correspondiente. Estos nombres de archivo asumen la forma Kxxdaemon o Sxxdaemon, donde xx es un número de dos dígitos y daemon es el nombre del daemon. Cuando el sistema introduce un nivel de ejecución especificado los scripts Kxxdaemon y Sxxdaemon se ejecutan y los daemons o servicios que comienzan con S reciben el comando start. Los scripts que comienzan con K reciben el comando stop. Por lo tanto, daemon y servicios pueden iniciarse o detenerse con facilidad permanente y automáticamente cuando el sistema arranca, renombrando estos scripts en los directorios de vínculos simbólicos con una S o una K. El número de dos dígitos representa el orden en el cual los daemons o servicios se inician o detienen. El sistema ejecutará los scripts con el número más bajo primero. Esto puede ser importante porque algunos servicios deberán iniciarse o detenerse antes que otros. Por ejemplo, el daemon del servidor web Apache deberá iniciarse después de que los servicios básicos de networking se hayan iniciado.

Los Archivos xinetd.conf y xinetd.d Los scripts Sys V son ideales para ejecutar daemons y servicios que necesitan estar ejecutándose constantemente. No obstante, ejecutar estos daemons y servicios de forma permanente, consumen valiosos recursos del sistema y memoria incluso cuando no están siendo usados. El archivo xinetd.d es lo que se denomina un super-servidor. El concepto principal detrás de los super-servidores es escuchar solicitudes para cualquiera de los daemons y servicios del servidor. Luego, cargar el daemon o servicio en la memoria solamente cuando se ha hecho una solicitud y está en uso. Hasta que la solicitud se haya hecho, el daemon no estará ejecutándose ni consumirá nada de memoria. Un problema con la disposición del super-servidor es que puede tomar un poco más de tiempo acceder al servidor. Esto se debe a que el daemon o servicio necesita cargarse en la memoria primero. Los dos tipos de super-servidores que se usan en Linux son inetd.d y xinetd.d. Este curso trata solamente xinetd.d porque éste es el super-servidor que se usa en Red Hat 7.2. Red Hat usaba inetd.d antes de pasarse a xinetd.d. El super-servidor xinetd.d proporciona funciones de seguridad adicionales que son similares a los wrappers TCP. Recuerde que los wrappers TCP se trataron en capítulos anteriores. El archivo xinetd.conf, que se muestra en la Figura , es el archivo de configuración que controla a xinetd.d. El archivo xinetd.conf contiene configuraciones y directivas a archivos que están almacenados en /etc/xinetd.d. Cada daemon y servicio que haya sido configurado para ejecutarse instalará un archivo en /etc/xinetd.d con sus propias opciones de configuración. Las siguientes secciones describen cómo configurar servidores individuales para ejecutarlos usando xinetd.d.

Page 304: Documento de Apoyo No. 4 Cisco It Essentials II

304

Uso de Scripts de Inicio Personalizados Hay otra forma de iniciar automáticamente un daemon o servicio cuando el sistema arranca. Colocando el texto apropiado en el script /etc/rc.d/rc.local, es posible iniciar cualquier daemon o proceso. Este script se ejecuta después de que los scripts de inicio Sys V se ejecutan y carga lo que se especifica en este script. Este método puede ser práctico para su uso cuando el desempeño es un problema o cuando el daemon o servidor no pueden ejecutarse en un script de inicio Sys V. Por ejemplo, para iniciar el servidor web Apache en el script /etc/rc.d/rc.local, que se muestra en la Figura , coloque la siguiente línea en el archivo:

/etc/rc.d/init.d/httpd start

Es importante comprender que iniciar y ejecutar un daemon o servicio de esta forma no proporciona ningún medio para detener el servicio como puede hacerse usando el comando stop. La única forma de detener un daemon que ha sido iniciado colocando una entrada en el script /etc/rc.d/rc.local es usar los comandos kill o killall después de localizar el número de ID del proceso (PID) usando el comando ps.

10.4 Daemons

10.4.3 HTTP

El NOS Linux no es capaz de proporcionar el daemon HTTP a los usuarios. En cambio, un programa de web-hosting separado y extremadamente popular llamado Apache es la solución común. Apache proporciona los mismos daemons HTTP para Linux que la herramienta Servicios de Información de Internet (IIS) proporciona para Windows 2000. La diferencia entre las dos

Page 305: Documento de Apoyo No. 4 Cisco It Essentials II

305

implementaciones es que la configuración basada en texto CLI de Apache difiere de las opciones manejadas con menúes de Windows 2000. Además, Apache tiende a ser mucho más complejo, proporcionando un nivel más profundo de personalización y potencia a los administradores de sistemas. Una configuración típica del servidor web Apache se muestra en la Figura . Note cómo el gráfico demuestra cómo cualquier usuario que ejecute cualquier sistema operativo puede acceder al servidor web. No tiene que estar ejecutando un sistema Linux para acceder al daemon del servidor web Apache porque el servidor web Apache es accedido mediante el protocolo HTTP, que es independiente del sistema operativo.

La complejidad adicional de Apache requiere a menudo un sólido conocimiento de web hosting y temas de seguridad antes de que los administradores del sistema intenten configurar su servicio HTTP para Linux. El proceso de configuración tiene lugar editando cuatro archivos de configuración httpd.conf, srm.conf, access.conf, y mimes.types. Éstos se encuentran en el directorio /conf de la instalación de Apache. Estos archivos contienen todas las configuraciones de inicialización para Apache, como los tipos de datos a servir y las estructuras de directorios web. Solamente administradores de sistemas experimentados deberían intentar editar estos archivos en un servidor web, ya que una configuración inapropiada podría crear "agujeros" de seguridad en el sistema.

Apache, como Linux, está disponible para su descarga sin costo para los usuarios. Apache está disponible en http://www.apache.org. Diferentes versiones del programa se configuran, empaquetan y envían con la mayoría de las opciones populares de Linux, como Red Hat Linux. En tales casos, Linux inicia Apache automáticamente y el servicio HTTP (HTTPD) además de otros daemons como FTP (FTPD) cada vez que arranca el sistema.

A los usuarios de un sistema Linux habilitado para HTTP se les da típicamente un directorio especial dentro de su directorio home para colocar archivos web públicos. Este directorio a menudo se llama "public_html" y se convierte automáticamente en el directorio web raíz del usuario. Un ejemplo de esta página se muestra en la Figura . Por ejemplo, si un usuario llamado jdoe existe en un sistema Linux con una dirección IP de 123.45.67.90, el usuario tendría también una dirección web por defecto:

http://123.45.67.90/~jdoe

Page 306: Documento de Apoyo No. 4 Cisco It Essentials II

306

A los directorios o archivos ubicados en el directorio public_html se les otorga los permisos apropiados, la categoría "otros" debe tener permisos de lectura y/o ejecución, y son también visibles por Internet. Por ejemplo, un subdirectorio llamado "images" y un archivo dentro de él llamado "mom.jpg" sería visible en la siguiente dirección web:

http://123.45.67.90/~jdoe/ images/mom.jpg 10.4 Daemons

10.4.4 FTP

Aunque el servicio FTP de Windows 2000 puede o no estar disponible por defecto, el servicio FTP de Linux no necesita configuración. Esta configuración se encuentra en /etc/rc.d/init.d/xinetd con la línea mostrada en la Figura .

Si un administrador de sistemas desea inhabilitar el servicio, un signo numeral (#) puede ubicarse al principio de la línea. De otro modo, Linux inicia automáticamente el daemon FTP (FTPD) durante el proceso de inicio, y los usuarios pueden usar FTP remotamente a la máquina en cualquier momento.

Page 307: Documento de Apoyo No. 4 Cisco It Essentials II

307

Al iniciar sesión en una máquina Linux usando FTP, los usuarios a menudo son llevados inmediatamente a su directorio home. En otros casos, los administradores de sistemas pueden crear un directorio especial para que sirva como punto de entrada al sistema para todos los usuarios. Este directorio raíz virtual aparece ante los usuarios FTP en la parte superior de la estructura de directorios del sistema y no permite un acceso más alto dentro del sistema. Implementar este método proporciona a un administrador de sistemas mayor control sobre los datos y proporciona una seguridad del sistema más estrecha. También proporciona una ubicación central para crear directorios públicos donde los datos puedan compartirse libremente entre usuarios FTP. Recuerde que las mismas pertenencias y permisos de archivos y directorios se aplican en el entorno FTP que los que se aplican en cualquier otro entorno Linux. Por ejemplo, los usuarios que desean obtener un archivo remoto ubicado en un directorio específico deben tener permisos de usuario, grupo u otros para ese directorio. De otro modo, el acceso al directorio se denegará de manera muy similar a como se denegaría en un prompt de comandos estándar de Linux. 10.4 Daemons

10.4.5 Telnet

Telnet permite a un usuario remoto iniciar sesión en un sistema con el propósito de emitir comandos y acceder a archivos usando una Interfaz de Línea de Comandos (CLI). Telnet fue desarrollado para que los usuarios finales puedan acceder a potentes mainframes desde terminales bobas. Hoy, los administradores usan Telnet para administrar remotamente servidoresde red, impresoras y otros dispositivos. La Figura ilustra un usuario remoto que está usando Telnet para administrar dispositivos remotos.

La conveniencia de administrar remotamente un sistema no se obtiene sin precio. Configurando un NOS para que acepte conexiones Telnet, los administradores crean un problema potencial de seguridad. Telnet debe configurarse de modo tal que solamente los usuarios autorizados puedan acceder al servidor.

Establecer una contraseña a menudo no es suficiente. Cuando se configura un daemon, como Telnet, el servidor se ve forzado a escuchar solicitudes. Al descubrir que un servidor está escuchando solicitudes Telnet, un hacker puede intentar usar la fuerza bruta para irrumpir en el sistema. Un ataque de fuerza bruta puede involucrar el uso de un programa que adivina la contraseña, usando un diccionario como fuente de sus adivinaciones.

Page 308: Documento de Apoyo No. 4 Cisco It Essentials II

308

Incluso si un hacker no puede irrumpir en el sistema usando la fuerza bruta, un servidor en escucha puede aún ser vulnerable a ataques de Denegación del Servicio (DoS). Un ataque DoS por lo común involucra la inundación de un servidor con solicitudes falsas, evitando que el servidor responda a fuentes legítimas.

El protocolo Telnet en sí no es especialmente seguro. Por ejemplo, Telnet envía nombres de usuario y contraseñas en texto claro, que puede ser leído por otros hosts de la red. Una alternativa más segura a Telnet es Secure Shell (SSH). Muchas organizaciones implementan SSH en lugar de daemons Telnet porque SSH cifra las contraseñas y proporciona otras funciones de seguridad.

La mayoría de los sistemas UNIX ejecutan daemons Telnet por defecto. No obstante, a causa de los problemas de seguridad arriba anotadas, el administrador debe habilitar Telnet manualmente en Red Hat Linux 7. Configurar daemons Telnet en Red Hat Linux y Windows 2000 se trata en las siguientes secciones.

Hay un comando CLI estándar para abrir una conexión Telnet a una computadora remota:

telnet hostname | IP_address

Por ejemplo: telnet computer.company.com o telnet 123.45.67.90 10.4 Daemons

10.4.6 Protocolo Bloque de Mensaje de Servidor (SMB)

El protocolo Bloque de Mensaje de Servidor (SMB) está diseñado para ser un protocolo para compartir archivos. Ha sido renombrado Sistema Común de Archivos de Internet (CIFS) pero aún se usa para compartir archivos e impresoras. Este protocolo se utiliza para permitir que sistemas no Linux ni UNIX monten sistemas de archivos e impresoras Linux en la red. El protocolo SMB permite que un cliente Windows haga esto de la misma forma en que si estuviera conectado a otro sistema Windows. Esto proporciona una forma fácil para que los sistemas clientes que corran windows accedan a un archivo o un servidor de impresión Linux.

Linux incluye una herramienta para hacer esto llamada Samba que proporciona al sistema Linux la capacidad de interactuar con los sistemas Windows que usan SMB/CIFS. Samba viene con todas las principales distribuciones de Linux..

Page 309: Documento de Apoyo No. 4 Cisco It Essentials II

309

Samba usa dos programas clientes llamados smbclient y smbmount. El smbclient es un programa que permite que otro cliente Linux o UNIX acceda a compartidos en un sistema Linux o Windows usando un inicio de sesión e interfaz en modo texto. Si server es el nombre del servidor samba Linux a ser accedido y share es la unidad o directorio a ser accedido, escriba smbclient //server/share. El smbclient usa el nombre de sesión como nombre de usuario pero aún se necesitará ingresar una password para acceder al compartido. Una vez autenticado, use comandos para transferir archivos y obtener listados de archivos y directorios de la misma forma en que si estuviera conectado usando FTP con los comandos dir, get, y put.

El programa smbclient es muy útil cuando se está restringido a una interfaz en modo texto. Sin embargo, SMB/CIFS se pensó para brindar acceso directo para compartir archivos y usando el utilitario smbmount. Éste realmente montará el compartido en Linux. La sintaxis es similar al comando smbclient. Por esta razón, la ubicación del punto de montaje necesita ser agregada al comando. Escriba smbmount//server/share/mnt/xxx, donde xxx es la ubicación del compartido de Linux. Usar el utilitario smbmount tiene muchas ventajas en que monta el compartido directamente sobre el sistema para que el usuario pueda accederlo como si estuviera en una unidad local. El usuario puede abrir un documento, editarlo, y luego grabarlo en el servidor.

Otra forma de acceder a un compartido SMB/CIFS es usar el comando mount para montar el compartido smb. El tipo de sistema de archivos smbfs necesitará ser especificado con el comando mount. La sintaxis para el comando es la siguiente:

# mount –t smbfs// server/share/mnt/xxx

El servidor Samba se configura con el archivo smb.conf que está ubicado en /etc/samba. La configuración predeterminada de Samba funcionará. Sin embargo, hay un par de items que podría necesitar configurar antes de que Samba funcione por completo. Primero, si el sistema cliente es parte de un grupo de trabajo o dominio, este nombre de grupo de trabajo o dominio debe ser listado en el archivo smb.conf con el parámetro workgroup. Segundo, alguna versión nueva de Windows usa passwords encriptadas pero lo predeterminado de Samba para eso es usar passwords encriptadas. Si se está usando una versión de Windows que utiliza passwords encriptadas, entonces fije el parámetro encrypt passwords en yes en el archivo smb.conf. Luego, para agregar una password para el usuario, use el comando smbpasswd. La sintaxis para este comando es la siguiente:

# smbpasswd –a jsmith

Esto fijará una password encriptada para jsmith. Luego, finalmente defina cuál será el compartido en el sistema Linux. La configuración predeterminada permite que los usuarios accedan a sus directorios principales. Puede encontrar más información en http://www.samba.org y hay libros completos que sólo hablan del servidor Samba. 10.4 Daemons

10.4.7 NFS (Sistema de Archivos de Red)

Similar al protocolo SMB/CIFS, NFS se usa como medio para compartir archivos entre varios sistemas informáticos conectados en una red. No obstante, la principal diferencia con NFS es que está diseñado para funcionar en sistemas UNIX. Puesto que la arquitectura de los sistemas Linux semejan mucho la de los sistemas UNIX, NFS puede usarse para intercambiar archivos entre

Page 310: Documento de Apoyo No. 4 Cisco It Essentials II

310

sistemas Linux conectados mediante una red y es realmente el método preferido para compartir archivos entre sistemas Linux.

NFS es el método preferido para compartir archivos entre sistemas Linux y UNIX. Esto se debe a que los sistemas clientes pueden acceder a partes compartidas NFS en un servidor de archivos NFS con utilidades de acceso a archivos Linux. Por ejemplo, para acceder a una parte compartida NFS desde una estación de trabajo cliente, el usuario solamente necesita montar la ubicación de la parte compartida usando el comando mount. Este comando se ha tratado a lo largo de todo este capítulo así como en la sección anterior, SMB. Usando este comando, los sistemas cliente Linux pueden acceder a partes compartidas NFS en el servidor de archivos y usar la parte compartida como si estuviera almacenada localmente en su sistema. La sintaxis usada desde la estación de trabajo cliente para montar la parte compartida NFS es la siguiente:

# mount /mnt/xxx

Para desmontar la unidad un usuario tipearía:

# umount /mnt/xxx

Hay algunos pasos que el administrador debe dar antes de que el usuario pueda montar la parte compartida NFS así de fácilmente. Las partes compartidas necesitan montarse en un servidor de archivos y hacerse disponibles primero. Esto se hace usando el comando mount también pero la sintaxis es levemente diferente. La sintaxis para este comando es la siguiente:

# mount server:/home/jsmith/mnt/xxx

En este comando, reemplace server con el nombre de host del servidor. Las xxx son la ubicación de la parte compartida en el servidor de archivos. Tenga en cuenta que los usuarios regulares no podrán usar el comando mount por defecto. Recuerde que editando el archivo /etc/fstab es posible habilitar un comando normalmente sólo disponible para la cuenta raíz para que sea utilizado por cuentas de usuario regulares. Específicamente, la siguiente línea necesitaría agregarse a este archivo:

server:/home/jsmith/mnt/xxx nfs user,noauto,exec 0 0

Agregando este archivo, cualquier usuario podría montar y desmontar la parte compartida NFS usando los comandos mencionados anteriormente. Otras opciones para agregar esta línea al archivo /etc/fstab es dejar la sección no automática del usuario. Esto montaría automáticamente la parte compartida cada vez que el sistema arranca. No hay contraseña que tenga que usarse para acceder a la parte compartida. El servidor se basa en la seguridad del lado del cliente para controlar el acceso a la parte compartida.

10.4 Daemons

10.4.8 Cliente de Correo

Al configurar el e-mail en el sistema Linux, el administrador tendrá una amplia variedad de opciones. El tipo de e-mail seleccionado dependerá de si el módem de conexión telefónica se usa para acceder al ISP o si hay una conexión permanente a Internet usando una conexión LAN. La

Page 311: Documento de Apoyo No. 4 Cisco It Essentials II

311

forma en la cual los usuarios envían y reciben e-mail determinará qué configuración se elige para configurar e-mail en un sistema Linux.

Para configurar el daemon de e-mail en Linux, el administrador necesitará configurar un agente de usuario de correo, también conocido como mailer, el agente de transferencia de correo (MTA), y el protocolo de transporte. El mailer proporciona al usuario una interfaz para leer y componer mensajes. El mailer usa el MTA para transferir el correo desde el emisor al destinatario y viceversa. El MTA usa un protocolo de transferencia para hacer la transferencia.

Cuando se configura correo en un sistema Linux, el administrador primero necesitará seleccionar qué tipo de MTA usar. Los dos MTAs importantes son SMTP y Sendmail. Una vez que el MTA está configurado y el protocolo es determinado, debe configurarse un mailer. Un ejemplo sería IMAP o POP3. Hay varios mailers populares de los cuales elegir, como Elm, Pine o Netscape Messenger.

10.4 Daemons

10.4.9 Impresión en un entorno Linux

La configuración de impresoras en un entorno Linux puede ser una tarea muy complicada porque requiere conocimientos de edición y configuración de archivos de impresión específicos. No es un proceso paso a paso como con un sistema Windows 2000. La configuración puede ser muy complicada porque es necesario saber los comandos y textos que se deben ingresar en el archivo apropiado. El proceso funciona en forma similar a Windows 2000 pero no es tan directo. Una impresora puede ser configurada localmente, o un servidor de impresión puede ser configurado para que administre los pedidos de impresión y envíe esos pedidos hacia la impresora apropiada.

Componentes de la impresión en Linux Al igual que con otros sistemas operativos configurados como servidores de impresión, el componente principal de la impresión en Linux es la cola de impresión. La cola de impresión es lo que reside en un servidor de impresión Linux que manipula todas las tareas de impresión entrantes dirigidas a las impresoras en red. Las colas de impresión pueden ser configuradas en una variedad de formas en el servidor de impresión. Normalmente, habrá una cola de impresión por cada impresora a la que esté sirviendo el servidor de impresión. Sin embargo, es posible configurar múltiples colas de impresión para una impresora. Esto es útil cuando hay una cola que imprime hojas de un solo lado y otra cola que imprime las hojas doble faz.

El utilitario Linux que se usa para imprimir se llama lpr. Este comando puede ser ingresado manualmente en la línea de comando para especificar una tarea de impresión que se quiere enviar a la cola de impresión u otros programas pueden llamar a este comando para que les permita imprimir archivos. El programa Daemon de Impresora en Línea (lpd) es el que administra las colas de impresión en un servidor de impresión Linux. Cuando lpr o computadoras remotas envían un pedido de impresión a una cola, el programa lpd acepta la tarea de impresión, y la dirige hacia la

Page 312: Documento de Apoyo No. 4 Cisco It Essentials II

312

impresora correcta. El programa lpd también monitorea las colas de impresión y además dirige las tareas de impresión desde las colas de impresión hacia las múltiples impresoras. Para realizar esto, el programa lpd usa el archivo de configuración /etc/printcap, que será tratado en la sección siguiente.

Otro aspecto importante a saber sobre la impresión con un sistema Linux es que a veces puede ser difícil de trabajar con ella porque es esencialmente unidireccional. Esto significa que las tareas de impresión se originan en una aplicación y son enviadas a ciegas a la impresora sin saber el tipo de impresora a la que se está enviando el trabajo. Linux envía sus tareas de impresión usando el lenguaje de impresora PostScrip, sin embargo no todas las impresoras son capaces de manipular el lenguaje Postscript.

El archivo de configuración /etc/printcap Cuando se configura el servidor de impresión Linux, que a menudo será en un entorno de trabajo, el administrador necesitará conocer el sistema de spooling de impresión LPRng. El software LPRng proporciona el servidor con la capacidad de manipular múltiples impresoras y colas además de proporcionar la seguridad que será necesaria en una red grande. Cuando una tarea de impresión es enviada al servidor, el daemon de impresora en línea (lpd) procesará el pedido. El otro componente principal del Software LPRng es el archivo /etc/printcap. Un ejemplo de este archivo de configuración se muestra en la Figura . Este es el archivo que se edita para definir las impresoras en la red. Al usar las entradas del archivo /etc/printcap, Linux sabrá cuáles impresoras están en línea y disponibles para imprimir. El procedimiento recomendad para editar el archivo printcap es usar el comando printtool, un administrador de sistema de impresión. El comando printtool será tratado más tarde. Estos pasos son las tareas más complicadas cuando se administra un servidor de impresión. La edición correcta de estos archivos permitirá al administrador especificar cosas como permisos y seguridad en una impresora.

Como administrador de sistemas, va a ser importante saber cómo editar el archivo /etc/printcap . Esto es así porque ése es el archivo que está en el núcleo del software de impresión LPRng. Este archivo puede ser usado para configurar múltiples impresoras en él, sin embargo se deben usar diferentes nombres de impresora. Los componentes del archivo /etc/printcap son mostrados en la Figura .

Page 313: Documento de Apoyo No. 4 Cisco It Essentials II

313

Después de hacer cambios en este archivo, el daemon de impresora necesitará ser reiniciado. Tenga presente que es mucho más fácil y más común configurar una impresora con el utilitario de interfaz GUI printtool. Sin embargo, es importante que cualquier administrador comprenda lo que hacen todos estos componentes del archivo /etc/printcap. Esto es así porque permite que un administrador haga cualquier cambio que pudiera necesitar hacer que esté disponible usando la herramienta GUI. Además, como no todas las distribuciones Linux usan una interfaz GUI, será necesario poder reconocer las características del archivo /etc/printcap .

El utilitario GUI printtool Red Hat viene con una herramienta GUI que puede ser usada para configurar impresoras llamada printtool, que se muestra en la Figura . Para usar la herramienta, escriba printtool en un prompt de shell. Esto lanzará la herramienta de configuración de impresora. Este es un medio más directo para configurar una impresora y una cola de impresión en un servidor de impresión. Esta herramienta ayuda en la configuración de una estación de trabajo cliente en la red. Esta herramienta proporciona menúes paso a paso para seleccionar e ingresar las características específicas de la impresora que está siendo instalada.

Para configurar una impresora en un servidor de impresión para ser usada por múltiples usuarios, primero agregue la impresora localmente a la computadora que va a ser el servidor de impresión. El proceso para hacer esto está en el laboratorio que acompaña a este texto. Una vez que una impresora ha sido agregada al servidor de impresión, los sistemas Microsoft, Novell y UNIX pueden imprimir en la impresora configurando el servidor de impresión Linux para permitir que estos sistemas lo hagan. Los usuarios Linux podrán imprimir automáticamente sólo dándoles permisos. Esto se hace editando el archivo /etc/lpd.perms.

El traductor Ghostscript La administración de impresión en un sistema Linux es muy diferente de la de otros sistemas operativos que podrían ser más comercialmente conocidos o familiares. En otros sistemas operativos como Windows o Macintosh, la impresora se comunica con el sistema operativo mediante un controlador de impresora. En otras palabras, el controlador de impresora permite que la aplicación en el OS se comunique con la cola de impresión. En Linux, el controlador de impresora funciona en una forma ligeramente diferente. El controlador de impresora en un sistema Linux o UNIX es parte de Ghostscript.

Ghostscript es una parte de la cola de impresión de Linux. Sin embargo, tenga presente que algunas aplicaciones e impresoras no necesitarán usar Ghostscript. Ghostscript es un traductor que permite a los sistemas Linux y UNIX, que usan el lenguaje de impresión PostScript, imprimir en impresoras no PostScript. Casi todas las impresoras disponibles hoy usan PostScript como el lenguaje de impresión principal. Por lo tanto, el traductor Ghostscript no será necesario porque la impresora podrá interpretar la salida del sistema Linux. Sin embargo, algunas impresoras no

Page 314: Documento de Apoyo No. 4 Cisco It Essentials II

314

soportan el lenguaje de impresión PostScript. Por lo tanto, sin GhostScript, los sistemas Linux y UNIX no podrían imprimir en las impresoras PsotScript.

La razón por la que los sistemas Linux y UNIX necesitan usar GhostScript es porque no tienen controladores que trabajen de la misma forma que lo hacen los controladores de Windows con las colas de impresión. Los programas escritos para Windows fueron desarrollados para comunicarse con el controlador de impresora. Sin embargo, los programas Linux general PostScript y envían esta salida a la cola de impresión de Linux. Si la impresora es una impresora no PostScript, entonces la información no se imprimirá. Esto está combinado con el hecho de que las impresoras laser se han vuelto muy populares y se convirtieron en las impresoras elegidas para los sistemas UNIX y Linux. Por lo tanto, los programas escritor para los sistemas Linux y UNIX usan lenguaje PostScript por defecto.

El problema con los programas UNIX y Linux que sólo generan PostScript es que éste no es usado comúnmente en las impresoras de precios bajos y medios. Esto no es mucho problema para los sistemas UNIX, que casi siempre usarán una impresora láser costosa que sea compatible con el lenguaje PostScript. Sin embargo, los sistemas Linux a menudo son usados con impresoras más pequeñas y menos costosas que no soportan el lenguaje de impresión PostScript. Por lo tanto, para permitir que los programas en un sistema Linux que generan salida PostScript hacia una impresora, se necesita un traductor como GhostScript. Como se mencionó antes, Ghostscript reside en la cola de impresión de Linux y puede traducir el lenguaje PostScript para impresoras no PostScript. 10.4 Daemons

10.4.10 Scripts

El sistema operativo Linux también puede dar sitio a muchos lenguajes de scripting diferentes. Los más comunes y básicos de éstos son las capacidades de scripting incorporadas el shell. Un script de muestra se exhibe en la Figura . Tenga en cuenta que éste es un script muy simple y breve. A menudo los scripts pueden ser muy largos y complejos y contendrán numerosas líneas de código que ejecutan diversas tareas automatizadas. Un script del shell es un archivo de texto que contiene cualquier cantidad de comandos Linux en una lista sucesiva. Al igual que los lenguajes de scripting de Windows 2000, Linux ejecuta un script de shell de arriba a abajo. Cada comando se ejecuta a su vez exactamente como si se hubiera tipeado en el prompt de comandos. Los scripts de shell también pueden contener lógica de programación como sentencias de bucle y condicionales. Todos éstos podrían introducirse manualmente en el prompt de comandos. Creando un archivo script, los usuarios y administradores del sistema pueden combinar una serie de comandos y parámetros en un único comando de script simplificado.

La mejor forma de comprender este proceso es volver a crear un script simple hello world en Linux. Usando cualquier editor de texto, como vi, la siguiente línea de código puede introducirse y guardarse.

echo Hello world

A diferencia de Windows 2000, los scripts de shell de Linux no requieren que se siga ninguna convención de nombrado en particular. Por lo tanto, el usuario puede asignar cualquier nombre de archivo Linux estándar al script como hello, helloworld, o hello.world. Luego debe asignarse al archivo los permisos apropiados de ejecución para el usuario. Luego puede ejecutarse en el prompt de comandos introduciendo la ruta de directorios relativa y el nombre de archivo:

Page 315: Documento de Apoyo No. 4 Cisco It Essentials II

315

./hello

Esto imprime el mensaje anteriormente codificado en la pantalla según lo esperado. Esta funcionalidad básica detrás de los scripts de shell es atractiva tanto para los usuarios inexpertos como para los administradores de sistemas. Puesto que Linux es principalmente un NOS dirigido por comandos, los usuarios pueden crear fácilmente archivos script haciendo una lista de varios comandos en un archivo de texto y viendo la salida del script. Una vez que estos conceptos básicos se hacen familiares, la lógica de programación y sintaxis adicionales pueden aprenderse con facilidad.

Resumen

Este capítulo trató el sistema operativo Linux. Algunos de los conceptos importantes a retener de este capítulo son los siguientes:

· Linux tiene algunos pasos de instalación que no se encuentran en Windows. Por ejemplo, puesto que Linux está destinado principalmente a ser un Sistema Operativo de Red (NOS) basado en servidor, hay una opción para hacer una instalación en estación de trabajo o una instalación en servidor.

· Linux usa X Window como interfaz gráfica pero es importante comprender la Interfaz de Línea de Comandos (CLI). Puede accederse a la consola de comandos usando la ventana de terminal o la consola principal.

· Las páginas man describen los comandos online del sistema, llamadas a comandos, formatos de archivos, y mantenimiento del sistema. Las páginas man online son parte del OS Linux y se instalan por defecto. Las páginas man asumen la forma de pantallas basadas en caracteres simples y se accede a ellas desde el prompt de comandos.

· Los shells Linux operan como intérpretes de comandos. El intérprete de comandos del entorno MS-DOS es similar. Los shells Linux se cargan solamente al sistema cuando el usuario lo solicita o inicia sesión en el shell. Incluyen al Shell Bourne, al Shell C, al Shell Korn, y al Shell Bourne Again.

· Los daemons permiten al OS proporcionar funciones como servicios web, archivos compartidos, intercambio de correo, servicios de directorio, administración remota, y servicios de impresión. Los daemons no están integrados al sistema operativo como los servicios lo están en Windows, y se ejecutan como procesos en segundo plano.

· El sistema operativo Linux puede dar lugar a muchos lenguajes de scripting diferentes. Los más comunes y básicos de ellos son sus capacidades de scripting incorporadas al shell. Un script del shell es un archivo de texto que contiene cualquier cantidad de comandos Linux enumerados sucesivamente. Un administrador del sistema puede combinar una serie de comandos y parámetros en un único comando script simplificado.

Uno de los deberes más importantes de un administrador de sistemas es proteger la información almacenada en los servidores de red. El siguiente capítulo detalla la administración avanzada de un NOS.

11. Administración del NOS avanzada Descripción general

Se requiere de un administrador de sistemas que proteja la información almacenada en servidores de red. Esto se logra llevando a cabo un procedimiento regular denominado backup del sistema. Este capítulo tratará los tipos de backups que pueden hacerse. Además, el alumno aprenderá cómo mapear una unidad para proporcionar a los usuarios acceso a información almacenada en servidores de red. Monitorear al sistema es una tarea requerida que permite al administrador mantener un rastreo de los recursos, incluyendo administración del disco, uso de la CPU, y uso de la memoria. Este capítulo también trata los conceptos clave de análisis y optimización de la red. Con esta información, pueden implementarse directrices para la resolución de problemas en el proceso de detección y resolución de

Page 316: Documento de Apoyo No. 4 Cisco It Essentials II

316

problemas. 11.1 Backups

11.1.1 Descripción general de los métodos de backup

Uno de los deberes más importantes de un administrador de sistema es proteger la información almacenada en los servidores de red. Estos datos podrían dañarse de muchas maneras diferentes, incluyendo error humano, fallo del hardware, problemas de software, o incluso desastres naturales. A menudo, los usuarios de una red borran accidentalmente datos importantes almacenados en un servidor. Es el trabajo de un administrador de sistemas intentar restaurar estos archivos perdidos. Tal recuperación es posible mediante un procedimiento regular llamado backup del sistema.

El proceso de backup involucra la copia de datos de una computadora a algún otro medio de almacenamiento confiable para salvaguardarlos. Una vez que los datos han sido archivados por un dispositivo semejante, el administrador del sistema puede entonces restaurar los datos al sistema desde cualquier backup grabado anteriormente. Estos dispositivos de almacenamiento alternativos no necesitan ser extremadamente rápidos o fácilmente accesibles. Hay otras consideraciones que son más relevantes:

· Costo · Tamaño · Manejabilidad · Confiabilidad

Costo Los backups son llevados a cabo bastante a menudo y requieren almacenamiento eficaz en materia de costos. Afortunadamente, con los rápidos avances de la tecnología moderna, los dispositivos de almacenamiento se están volviendo simultáneamente más rápidos y más baratos.

Tamaño Los servidores por lo común pueden almacenar cantidades extremadamente grandes de datos. Como resultado de ello, es importante seleccionar un medio de backup que proporcione una capacidad de almacenamiento comparable.

Manejabilidad A pesar de su importancia, los administradores de sistemas no pueden darse el lujo de pasar varias horas de cada día en backups del sistema. Cada dispositivo debe ser eficiente y fácilmente manejable para ayudar a dar lugar al proceso.

Confiabilidad El backup del sistema sólo es beneficioso si los datos pueden restaurarse exitosamente en algún punto en el futuro. Si un medio de almacenamiento se desgasta fácilmente o se vuelve ilegible, el esfuerzo hecho por hacer un backup del sistema se desperdicia.

Dispositivos de backup comúnmente usados incluyen unidades de cinta, unidades de disco removibles, unidades de disco compacto grabables (CD-R), y otras unidades de disco rígido. La Figura ilustra los dispositivos de backup más comunes que hay disponibles. Estos dispositivos varían, y los administradores de sistemas deberán seleccionar las herramientas apropiadas para cumplir con sus necesidades particulares.

Page 317: Documento de Apoyo No. 4 Cisco It Essentials II

317

Grandes backups del sistema pueden consumir mucho tiempo y por lo común solamente se llevan a cabo para computadoras críticas, como servidores de red. Para evitar restringir los recursos limitados del servidor, los backups usualmente se ejecutan durante horas de red no pico, que es por lo general en medio de la noche. Son más eficaces cuando se los lleva a cabo a intervalos regulares y comúnmente están programados tan a menudo como una vez por día. Sin un cronograma regular de backups del sistema, el riesgo potencial de perder datos es mucho mayor.

Tipos de Backups El tipo más común de procedimiento de backup consiste en que el administrador coloque una cinta de backup en una unidad de cinta y copie los datos a un backup de cinta. Por ejemplo, el administrador puede especificar qué datos se copian y en qué puntos se copian los datos. Los backups usan un tipo de "marcador" de backup, que sirve como atributo de archivo que marca un archivo cuando ha cambiado desde la última vez que el archivo fue sometido a backup. El método de backup escogido puede usar este atributo para determinar si hacer o no backup del archivo. Cuando el archivo es copiado, el atributo se borra. Hay cuatro tipos de procedimientos de backup que definen cómo éste tendrá lugar:

· Completo · Parcial · Incremental · Diferencial

Completo Un backup completo, también llamado backup normal, copiará todo en el disco rígido en un momento programado del día. Hará esto cada día. Un backup completo no usa los "marcadores" previamente mencionados ni atributos de archivo para determinar qué archivos copiar. Cuando se lleva a cabo un backup completo, cada marcador de archivo se borra y marca como copiado. Los backups normales aceleran el proceso de restauración, porque los archivos copiados son los más actuales.

Parcial Un backup parcial copia los archivos seleccionados. Los tipos de backup parcial incluyen backup de copia y diario. Un backup de copia copiará cualquier archivo y carpeta que un administrador seleccione para ello. Este tipo de backup parcial es útil para backups que pueden hacerse sin borrar los marcadores. Un backup de copia no busca y elimina marcadores cuando se hace el backup. Un backup diario es un método de backup parcial útil que un administrador puede hacer para seleccionar todos los archivos y carpetas que han cambiado durante el día.

Incremental En un backup incremental, sólo los archivos que han cambiado desde el último backup se seleccionarán para el mismo. Los archivos se seleccionan basándose en si han o no cambiado

Page 318: Documento de Apoyo No. 4 Cisco It Essentials II

318

recientemente, en lugar de una selección arbitraria basándose en nombres de directorio o archivo.

Diferencial Un backup diferencial copiará los archivos creados o cambiados desde el último backup normal o incremental. No marca los archivos como copiados. Un backup diferencial no borrará los marcadores. Todos los archivos, incluyendo aquéllos que no han cambiado desde el último backup, se copiarán. 11.2 Mapeo de Unidades

11.2.1 ¿Qué es el mapeo de unidades?

El mapeo de unidades es una herramienta útil que permite a un administrador compartir recursos almacenados en un servidor. El mapeo es un proceso de dos etapas que requiere definir primero la ruta al recurso de red, y luego la asignación de una letra de unidad a ese recurso. Las letras de unidad son significativas sólo localmente, lo que significa que diferentes letras de unidad en diferentes computadoras cliente podrían representar la misma solución de recurso de red a intrincados dispositivos robóticos. La Figura muestra un ejemplo de una unidad de red mapeada en un sistema operativo Windows.

11.2 Mapeo de Unidades

11.2.2 Mapeo de unidades en redes Windows

Mapear una unidad de red en el NOS Windows puede lograrse en una de dos maneras:

· Usando el Explorador de Windows · Usando el comando net use

Mapeo de una Unidad con el Explorador de Windows Para mapear una unidad con el Explorador de Windows, navegue hasta la carpeta del sistema remoto en el Explorador de Windows seleccionando Red > Entorno > Nombre del servidor > Nombre de la carpeta compartida. Un ejemplo del Explorador de Windows se muestra en la Figura

. Otra forma de hacer esto es elegir el menú Herramientas, y después elegir Mapear Unidad de Red, como lo muestra la Figura . Note que si está instalado Internet Explorer 4.0 o una versión posterior, otra opción es hacer clic con el botón derecho en el nombre de la carpeta compartida en el Explorador de Windows y luego elegir Mapear Unidad de Red desde el menú contextual.

Page 319: Documento de Apoyo No. 4 Cisco It Essentials II

319

La unidad mapeada aparece como la letra de unidad asignada en el panel izquierdo del Explorador, junto con las disqueteras, unidades de CD, y particiones del disco rígido. Se puede acceder a ella desde el Explorador de Windows, Mi PC, o desde el escritorio si se ha creado un acceso directo.

Mapeo de una Unidad mediante el Comando net use Otra forma de mapear una unidad en sistemas operativos Windows utiliza la ruta de Convención de Nombrado Universal (UNC). Usar la siguiente sintaxis puede identificar la unidad compartida:

\\nombrecomputadora\ nombrecompartido

Para mapear una unidad de red al recurso compartido, introduzca lo siguiente en el prompt de comandos:

net use <letraunidad:\\ nombrecomputadora\ nombrecompartido>

El comando net use puede usarse en lugar del mapeo de unidades mediante el Explorador de Windows. net use también puede incorporarse a un script de inicio de sesión que se ejecute automáticamente cuando el usuario inicie sesión en la red.

11.2 Mapeo de Unidades

11.2.3 Mapeo de unidades en redes Linux

Mapear una unidad a un servidor Linux se hace usando uno o dos métodos. Si los clientes están usando Windows, entonces el daemon Samba necesitará cargarse al servidor Linux. El daemon Samba carga el protocolo SMB, que permite la comunicación entre computadoras Linux y Windows. Una vez que el daemon Samba se ha cargado y se han configurado los directorios apropiados para compartir, entonces los clientes Windows pueden mapear una unidad al directorio compartido en el servidor Linux, como si estuvieran conectados a un servidor Windows. El usuario seguiría los pasos descritos previamente para mapearse al directorio compartido.

Una computadora cliente que corra Linux debe mapearse de manera levemente diferente. Primero, use el comando mount para establecer una conexión al directorio compartido en el servidor. Introducir la sintaxis mapeará una unidad para compartir en Linux/UNIX. La sintaxis es la siguiente:

mount nombreservidor:/directorio/ subdirectorio/ directoriolocal

La designación de directorio local que señala a la unidad remota compartida denotada por la primera parte del comando se llama punto de montaje del directorio. La ubicación del punto de

Page 320: Documento de Apoyo No. 4 Cisco It Essentials II

320

montaje ya debe existir antes de que se pueda mapear a ella. Esto significa que el punto de montaje debe establecerse primero en el servidor Linux que estará compartiendo los recursos.

11.3 Administración de Particiones y Procesos

11.3.1 Uso de fdisk, mkfs, y fsck

El Capítulo 9 trató el particionamiento y el uso de las herramientas de particionamiento para crear particiones Linux durante la instalación. Esta sección del Capítulo 11 se concentra en la administración de particiones y sistemas de archivos que se almacenan en las particiones. Las herramientas principales en un sistema Linux que se usan para administrar particiones de disco son las utilidades fdisk, mkfs, y fsck.

La Utilidad fdisk El Capítulo 7 trató los conceptos básicos sobre qué hace la utilidad fdisk. No obstante, los detalles acerca de cómo usar fdisk y todas las opciones no se trataron. La versión de Linux de fdisk opera de manera muy diferente a la versión que se usa en los sistemas Windows y DOS.

Al igual que la mayoría de las utilidades Linux, fdisk está basada en texto y requiere el uso de comandos de una letra para manipular las opciones. Para obtener una lista de los comandos que pueden usarse con fdisk, tipee m o ? en el prompt de fdisk. Algunos de los comandos más comúnmente usados se enumeran en la Figura .

La sintaxis de comandos para usar fdisk es bien simple. El comando fdisk se usa junto con el nombre de archivo del dispositivo en particular asociado con la partición. Por ejemplo, el siguiente comando debe emitirse primero para poder usar cualquiera de las opciones de más arriba:

fdisk /dev/hda2

Una vez usado este comando, es una buena idea usar primero la opción p para mostrar la información acerca de la partición. Desde este punto, cualquiera de los comandos enumerados más arriba puede usarse para hacer cambios en la partición. Tenga en cuenta que no sólo es una buena idea conocer qué información hay en la partición, sino que toda ella está copiada en un backup primero. Una vez borrada la partición, también lo son todos los datos en dicha partición. Algunas de las opciones enumeradas en la Figura requerirán información adicional tal como cuándo se crean nuevas particiones. Luego, deberá introducirse información acerca de los nuevos parámetros de la partición.

Page 321: Documento de Apoyo No. 4 Cisco It Essentials II

321

La Utilidad mkfs Crear una nueva partición o hacer cambios en la partición es solamente el primer paso de la administración de particiones. Una vez que se han hecho los cambios en la partición, un sistema de archivos debe crearse en ella. Esto también se denomina formatear la partición. Use la utilidad mkfs para crear un sistema de archivos en Linux. En el Capítulo 9 se explicó que esta utilidad se usaba para crear un sistema de archivos y formatear una partición. No obstante, los detalles de esta utilidad se describen en esta sección.

La sintaxis para la utilidad mkfs es la siguiente:

mkfs [-V] [-t fstype] [options] device [blocks]

Los parámetros para este comando se definen en la Figura .

Una vez emitido este comando, comenzará el proceso del sistema de archivos o proceso de formateo. Este proceso puede llevar un breve periodo o un largo periodo dependiendo del tamaño de la partición y de si se especificó o no una verificación del sistema de archivos. Una vez completo este proceso, la partición está completa para almacenar datos.

La Utilidad fsck El comando fsck se usa para verificar el sistema de archivos y reparar archivos dañados. Por ejemplo, si accidentalmente se apaga su sistema y se daña la estructura de archivos, se puede usar el comando fsck para intentar reparar el sistema de archivos.

También es una buena idea verificar sus sistemas de archivos ocasionalmente para ver si hay archivos dañados o corruptos. El comando fsck actúa como programa introductorio a una serie de comandos diseñados para verificar sistemas de archivos específicos. En otras palabras, verifica el sistema de archivos que coincide con el tipo que se especifica. La sintaxis para el comando fsck es la siguiente:

fsck [-A] [-V] [-t fs-type] [-a] [-l] [-r] [-s] filesys

La Figura describe estas opciones de línea de comandos para el comando fsck. Para que el comando se ejecute apropiadamente, Linux necesita saber qué tipo de sistema de archivos está verificando. La forma más fácil de asegurarse de que fsck llama al comando correcto es especificar un tipo de sistema de archivos con la opción -t. Si no se usa la opción -t, Linux intenta descubrir el tipo de sistema de archivos mirando el sistema de archivos en /etc/fstab y usando el tipo de sistema de archivos especificado ahí. Es crítico que se especifique qué sistema de archivos verificar porque hay diferentes tipos de sistemas de archivos que Linux puede usar (ext2, ext3, reiser, etc.). Es

Page 322: Documento de Apoyo No. 4 Cisco It Essentials II

322

especialmente importante si está verificando un sistema de archivos que no está enumerado en el archivo /etc/fstab. Una buena práctica es desmontar un sistema de archivos antes de verificarlo. Esto asegura que ninguno de los archivos del sistema de archivos esté en uso cuando están siendo verificados.

Intentar verificar el sistema de archivos raíz presenta un problema adicional. No se puede desmontar directamente el sistema de archivos raíz, porque Linux debe poder acceder a él para poder ejecutarse. Para verificar el sistema de archivos raíz, deberá arrancarse desde un diskette de recuperación/instalación que tenga un sistema de archivos raíz en él, y después ejecutar fsck en su sistema de archivos raíz real desde el diskette especificando el nombre de dispositivo especial de su sistema de archivos raíz. Si fsck hace cualquier cambio en su sistema de archivos, es importante que reinicie su sistema inmediatamente. Esto permite a Linux releer información importante acerca de su sistema de archivos y evita que el mismo se siga corrompiendo.

Los nuevos sistemas de archivos tal como ext3, XFS, o ReiserFS no llevan a cabo verificaciones del sistema de archivos durante el inicio, incluso si el sistema no ha sido apagado apropiadamente. Estos tipos de sistemas de archivos usan un sistema de diario, que mantiene un registro de operaciones que necesitan llevarse a cabo en caso de que el sistema se caiga o tenga lugar un fallo de alimentación. Estas operaciones pendientes puede hacerse o deshacerse para mantener la integridad de los sistemas de archivos intacta. Este proceso se hace automáticamente cada vez que se monta el sistema de archivos. Tenga en cuenta que estos sistemas de archivos aún necesitan tener programas de verificación como fsck que se ejecuten periódicamente en caso de que otras cosas como bugs del sistema operativo, virus, fallos en la alimentación, o un fallo de hardware ocurran.

11.3 Administración de Particiones y Procesos

11.3.2 Administración de procesos del sistema mediante trabajos Cron

La manera de programar tareas para que se ejecuten a intervalos regulares en un sistema Linux es mediante Programas Cron. Los Programas Cron, también llamados trabajos Cron, programan tareas de mantenimiento del sistema que se llevan a cabo automáticamente. Por ejemplo, el directorio /tmp se llena de archivos inútiles creados por los usuarios que inician sesión en el sistema. Es posible programar una tarea que vacíe este directorio a intervalos de tiempo programados.

La Responsabilidad del Cron Cron es controlado por las entradas de los directorios /var/spool/cron y /etc/cron.d y del archivo /etc/crontab. Ejecuta sus comandos basándose en si hay una entrada especificada en estos archivos para ello. Cron no es un comando, sino más bien es un daemon que se ejecuta constantemente en segundo plano como un servidor FTP o HTTP. Está constantemente ejecutándose y escaneando el sistema en busca de eventos que podrían habilitarlo. El daemon

Page 323: Documento de Apoyo No. 4 Cisco It Essentials II

323

Cron funciona de manera levemente diferente a otros daemons en que se ejecuta una vez por minuto, escanea los tres archivos de configuración previamente mencionados, y lleva a cabo cualquier tarea especificada en estos archivos.

El primero de dos tipos de trabajos Cron que pueden programarse son los trabajos Cron del Sistema. Éstos son los trabajos que consisten en tareas de mantenimiento del sistema esenciales que mantienen el sistema funcionando tan eficientemente como es posible. Éstas incluyen tareas tales como la mencionada anteriormente de limpieza del directorio /tmp regularmente. Otro ejemplo de un trabajo Cron del Sistema es la rotación de logs. La rotación de logs cambia los nombres de los archivos log y borra los antiguos archivos log como rutina para evitar que se hagan demasiado grandes para el disco rígido. El segundo tipo de trabajo Cron se denomina trabajo Cron del Usuario. Los trabajos Cron del Usuario pueden ser creados por usuarios regulares para llevar a cabo ciertas funciones que necesiten para ejecutar un programa específico que usan. Los Trabajos Cron del Sistema sólo pueden ser ejecutados por el usuario raíz. No obstante, puede ser útil ejecutar un trabajo Cron del Usuario como raíz para ejecutar una tarea durante un tiempo especificado por el administrador. Los trabajos Cron del Sistema tienden a ser bastante rígidos en el tiempo en el cual están programados para ejecutarse. Esto deja muy poca flexibilidad. Los trabajos Cron del Usuario pueden ejecutarse de manera mucho más flexible.

Creación de un Trabajo Cron del Sistema Los trabajos Cron del Sistema son controlados mediante el archivo /etc/crontab, que se muestra en la Figura . El archivo comienza con un conjunto de variables ambientales. Éstas establecen ciertos parámetros para los trabajos Cron, como PATH y MAILTO, que implica a qué dirección la salida del trabajo se envía por correo. Las otras líneas de este archivo, como se muestra en la Figura , especifican cosas como el minuto, hora, día, mes y día de la semana en los cuales el trabajo Cron del Sistema se ejecutará. Tenga en cuenta que estos valores temporales se introducen usando el reloj de 24 horas. Los valores son indicados por los números de la Figura . Los asteriscos (*) indican que todos los valores posibles de la variable tendrán efecto.

La siguiente variable de este archivo indica el nombre de cuenta que se usará para ejecutar el programa. Por ejemplo, en la Figura se indica "raíz", que siempre será el caso en un trabajo Cron del Sistema. La última variable indica qué comando ejecutar. Usando la Figura nuevamente como referencia, run-parts /etc/cron.daily es uno de los comandos que se ejecutarán en este trabajo. Por lo tanto, de acuerdo a la Figura , todos los scripts en /etc/cron.daily se ejecutarán a las 4:02 am cada día. Usando este ejemplo, es fácil comprender cómo crear trabajos Cron del Sistema. Modele otros trabajos Cron del Sistema según los trabajos Cron existentes. De ser necesario para un trabajo ejecutarse en un momento diferente que el especificado en este archivo, simplemente edítelo de acuerdo al tiempo correcto. Un trabajo Cron del Usuario también puede crearse, lo cual se explica en la siguiente sección.

Creación de un Trabajo Cron del Usuario Los trabajos Cron del Usuario se crean usando la utilidad crontab. Esto no debe confundirse con

Page 324: Documento de Apoyo No. 4 Cisco It Essentials II

324

el archivo /etc/crontab, porque son dos cosas diferentes. La utilidad crontab es un comando que se introduce en el prompt y la sintaxis para este comando es la siguiente:

crontab [-u usuario] [-l | -e | -r] [archivo]

La utilidad crontab puede usarse con o sin el parámetro -u usuario . Si este parámetro se usa con este comando, entonces un trabajo Cron del Usuario se creará para el usuario especificado en el parámetro. Si no se especifica ningún usuario con este parámetro, entonces el trabajo Cron del Usuario se creará para el usuario actual. Es una buena práctica en un sistema Linux usar siempre el parámetro -u usuario para especificar el usuario para el trabajo Cron que se creará. Por ejemplo, el comando su podría usarse para cambiar al usuario actual y luego el comando crontab podría introducirse sin el parámetro -u usuario . No obstante, esto a veces confunde a la utilidad crontab, y puede producir resultados imprevistos. Incluso se recomienda que se use el parámetro -u usuario incluso si se crea un trabajo Cron del Usuario para el usuario individual.

Los otros parámetros asociados a la utilidad crontab se usan para visualizar, editar y crear trabajos Cron del Usuario. Específicamente, las opciones -l, -e, y -r se usan para trabajar en trabajos Cron del Usuario actuales. La opción -l, mostrará el trabajo Cron del Usuario actual. La opción -e abrirá un editor, para que el trabajo Cron del Usuario actual pueda editarse. La opción -r eliminará el trabajo Cron actual.

Para crear un nuevo trabajo Cron del Usuario, debe introducirse el comando crontab usando el parámetro archivo. Por ejemplo, el comando crontab –u jsmith js_cronjbs creará un nuevo trabajo Cron del Usuario llamado "js_cronjbs" para los trabajos Cron de jsmith. La sintaxis para crear un trabajo Cron del Usuario será la misma que para un trabajo Cron del Sistema del que hablamos en la sección anterior. Aún se utilizarán variables ambientales para indicar dónde y cómo ha de ejecutarse el trabajo, y la sintaxis para crear un comando a ejecutarse en un momento específico también será la misma. La única diferencia será que el usuario no necesita especificar el nombre de usuario usado para ejecutar el trabajo Cron porque el propietario del trabajo Cron ya indica esta información.

Ejecución de un Comando en Momentos Programados mediante el Comando at El comando at es similar al uso de cron en que toma una lista de comandos tipeados en la interfaz del shell o guardados en un archivo y los ejecuta en el momento especificado por el comando. Todos los comandos programados son útiles para ejecutar tareas el momentos en los cuales el sistema no está demasiado ocupado. Para programar uno o más comandos para un tiempo especificado, use el comando at. Con este comando, se puede especificar una hora, fecha o ambos. El comando espera dos o más argumentos. Como mínimo, se especifica el momento en que desea que se ejecuten los comandos y los comandos que desea ejecutar.

En el siguiente ejemplo el comando at lleva a cabo su trabajo a la 1:23 am. La impresión (comando lp) está programada para ejecutarse hoy, a la 1:23 am. Si el sistema está ocupado a la 1:23 am, el comando se ejecutará a la 1:23 am del día siguiente. El trabajo imprime todos los archivos del directorio /home/rtalbot/thesis y envía al usuario llamado rtalbot un e-mail anunciando que el trabajo de impresión se llevó a cabo a la 1:23 am.

Para ejecutar el ejemplo del párrafo precedente tipee los siguientes comandos en la terminal, presionando <Enter> al final de cada línea. Una vez que introdujo cada línea, presione <Ctrl-d> para finalizar el comando.

at 1:23 lp /home/rtalbot/thesis/* echo "Your files were printed, rtalbot!" | mail -s"Complete" boss

Los comandos a ser programados por at se introducen como una lista de comandos en la línea que sigue al comando at. Una vez que termine el comando at, ve una pantalla que muestra lo que

Page 325: Documento de Apoyo No. 4 Cisco It Essentials II

325

sigue:

job 55842688.a at Thurs June 17 01:23:00 2004

Esta salida indica que el trabajo se ejecutará a la 1:23 según lo especificado. El número de trabajo 55842688.a, identifica al trabajo. Si decide cancelar el trabajo, hágalo usando el número asociado a él, como sigue:

at -d 55842688.a

Si tiene varios comandos que desea programar usando at, lo mejor es ponerlos en un archivo, como se sugirió más arriba. Si el nombre de archivo es scheduledjobs.txt y desea programar los comandos para las 8:00 am, tipee el siguiente comando:

at 8:00 -f scheduledjobs

También se puede especificar una fecha para un trabajo at. Por ejemplo, para programar un trabajo para el 17 de junio, se agregaría June 17 al primer comando de ejemplo mostrado arriba. Los trabajos que se programan con at se colocan en una cola que el sistema operativo verifica periódicamente.

La Figura resume las diferentes formas de usar el comando at. Como usuario raíz, puede usar cualquiera de estos comandos; para otros usuarios, los archivos /etc/at.allow y /etc/at.deny determinan el permiso para usar los comandos. Si /etc/at.allow existe, solamente se permite usar los nombres de usuario enumerados en el archivo con el comando at. Si el archivo /etc/at.allow no existe, el sistema verifica /etc/at.deny y a cada nombre de usuario no mencionado en /etc/at.deny se le permite usar el comando at. Si ninguno de los archivos existe, solamente el raíz puede usar at. Como alternativa, si etc/at.deny está vacío, cada usuario puede usar at.

11.3 Administración de Particiones y Procesos

11.3.3 Descargas del Núcleo

Otro aspecto importante de la administración de procesos en un sistema Linux es cómo tratar con las caídas del software. Cuando tales caídas ocurren, a menudo generan errores de causas potenciales. Estos errores están contenidos en un archivo del núcleo que se crea entonces. Estos archivos del núcleo también se llaman Descargas del Núcleo.

Es importante comprender qué pueden proporcionar las Descargas del Núcleo y cómo administrarlas. Una vez que el error o errores han sido identificados, pueden reemplazarse o repararse. Reparar un software propenso a los errores requiere habilidades de programación avanzadas que van más allá del alcance de este curso. No obstante, si el administrador o el usuario comprende el lenguaje en que está escrito el software, entonces el usuario puede intentar reparar el programa sin tener que reemplazarlo.

Comprensión Acerca de Qué Es una Descarga del Núcleo El propósito de las Descargas del Núcleo es permitir a los programadores estudiar el archivo para

Page 326: Documento de Apoyo No. 4 Cisco It Essentials II

326

averiguar exactamente qué ocasionó que el programa se cayera. Sin crear una Descarga del Núcleo, no habría forma de volver atrás y examinar el estado que hizo que el sistema se caiga. Una vez que el programa se ha caído, todos sus procesos se eliminan de la memoria. Los programadores pueden estudiar el código de debugging para rastrear a través de los pasos que condujeron a la caída, lo cual hace fácil identificar qué ocasionó la caída.

El tamaño de la Descarga del Núcleo dependerá del tamaño del programa que lo produjo. Un programa grande que usa muchos recursos del sistema y memoria producirá un archivo de Descarga del Núcleo mucho más grande que un programa más pequeño que usa menos memoria y recursos del sistema. En cualquiera de los casos, el archivo se creará en el mismo directorio en el cual está ubicado el programa que se cayó. No obstante, en algunos casos no se creará un archivo Descarga del Núcleo. Por ejemplo, un usuario puede no tener permisos escritos al directorio, o podría haber un límite en cuanto al tamaño de los archivos del Núcleo que se generan. Limitar el tamaño de un archivo del Núcleo puede ser útil, para que el espacio libre de los directorios no se consuma. La sintaxis para limitar el tamaño de los archivos del Núcleo es la siguiente:

ulimit –c [tamaño]

El parámetro tamaño se especifica en kilobytes y asegura que no se cree ningún archivo del Núcleo más grande que el tamaño especificado. Si un archivo del núcleo es más grande que el tamaño especificado, se cortará para que tenga este tamaño. Estos archivos del Núcleo abreviados usualmente no son de gran utilidad. Si se pone un cero como parámetro tamaño, no se generarán archivos del Núcleo en absoluto, y el parámetro unlimited puede usarse, para que no haya límites en el tamaño de los archivos del Núcleo que se generan.

Ubicación y Borrado de Archivos del Núcleo A menos que el usuario tenga acceso a la cuenta raíz de un sistema Linux, ubicar y borrar archivos del Núcleo será una tarea problemática. Sin acceso a la cuenta raíz, los usuarios regulares no podrán acceder a todos los directorios en los cuales estos archivos están ubicados. Esto resultará en no tener acceso a todos los archivos del Núcleo en un sistema. El comando usado para ubicar los archivos del Núcleo en un sistema Linux es el siguiente:

# find / -name core

También es importante tener en cuenta que este comando dará como salida algunos archivos y directorios que no son necesariamente archivos Descarga del Núcleo. Por ejemplo, el archivo /dev/core es un archivo de dispositivos y /proc/sys/net/core es un directorio. Después de emitir este comando y ubicar los archivos del Núcleo específicos que se buscan, ¿qué hacen los usuarios con ellos ahora? Como se dijo antes, a menos que los usuarios estén familiarizados con el lenguaje de programación en el que está escrito el programa, no podrán comprender la mayor parte del contenido de este archivo. La mayor parte de este contenido será útil a los programadores que estén familiarizados con el código fuente del programa que creó el archivo. No obstante, una ventaja de Linux es que la mayor parte del código fuente para los programas que se usan en un sistema Linux está disponible para cualquiera que tenga la ambición de aprender cómo leerlo, y así ser capaz de sacar los bugs y solucionar los problemas enunciados en el archivo del Núcleo.

Hay unas pocas cosas en estos archivos de las cuales los usuarios podrían querer enterarse o que pueden ayudar a descubrir qué creó el archivo del Núcleo y determinar si el archivo es útil o no. Por ejemplo, puede ser de ayuda familiarizarse con las siguientes propiedades del archivo del Núcleo:

· Propietario del archivo indica quién ejecutó el programa. Descubrir al propietario del archivo del Núcleo es útil al determinar si borrar o no el archivo por varias razones. Por ejemplo, un usuario podría estar actualmente escribiendo programas para el sistema, y se colocaron archivos del Núcleo con este usuario como propietario. Sería una buena idea verificar con ese usuario primero antes de borrarlos, porque podría necesitarlos por alguna razón.

· Fecha de Creación del archivo Núcleo es simplemente la fecha en la cual ocurrió la caída, y cuándo se creó la Descarga del Núcleo. Identificar la fecha de creación del archivo es útil.

Page 327: Documento de Apoyo No. 4 Cisco It Essentials II

327

Puede darnos más ayuda en determinar cuáles borrar o conservar. Usualmente los archivos más antiguos ya no sirven y pueden borrarse.

· Propiedades del Programa Creador de los archivos del Núcleo indicarán qué programa cayó y generó los archivos de Descarga del Núcleo. Esto, no obstante, se averigua indirectamente mediante el uso de un comando diferente. Para averiguar qué programa creó los archivos del Núcleo, tipee gdb -c core. Este comando lanza el debugger de GNU, que muestra varias salidas acerca del archivo del Núcleo incluyendo el programa que cayó. Para salir del debugger GNU, tipee exit.

Deberá tenerse cuidado antes de mover o borrar cualquier archivo del Núcleo, porque como se enunció anteriormente, podría haber archivos y directorios del Núcleo que no son los archivos del Núcleo que el usuario podría estar buscando. Borrar uno de estos archivos puede hacer que otros programas no funcionen. Se trató anteriormente que es posible incluir el comando find, con un trabajo Cron del Usuario. Si la variable ambiental MAILTO está configurada apropiadamente, todos los archivos del Núcleo del sistema serán reportados cada vez que el trabajo Cron está programado para ejecutarse. Puede ser útil generar este informe una o dos veces por mes para mantenerse alerta de cualquier tipo de archivo del Núcleo que podría ser necesario inspeccionar.

Procesos Críticos y No Críticos Para administrar eficazmente los procesos del sistema en un sistema Linux, es importante ser capaz de determinar qué procesos se están ejecutando en un sistema y qué procesos son críticos y no críticos. Este concepto es importante de comprender en un sistema Linux a causa del hecho de que es un sistema multiusuario y multitareas. Un proceso en un sistema Linux es cualquier programa que actualmente esté ejecutándose. Puesto que muchos usuarios pueden haber iniciado sesión en cualquier sistema Linux en un momento y usando el mismo programa, es posible para un sistema Linux tener dos o más procesos ejecutando el mismo programa al mismo tiempo. Por ejemplo, si dos usuarios hubieran iniciado sesión y ambos estuvieran usando el editor vi para editar un archivo de configuración, el sistema mostraría dos procesos de vi actualmente en ejecución. Un proceso se lanza en un sistema Linux desde el shell, y el shell a su vez lanza el proceso. Esto se conoce como proceso madre y proceso hijo. El proceso original se denomina proceso madre. Cualquier sub-proceso lanzado desde dentro del proceso madre es un proceso hijo. Esta relación inicial puede rastrearse hasta el programa init, que da origen al proceso de inicio de sesión, que a su vez da origen al shell en el cual se introducen los comandos.

El Comando ps Los procesos que actualmente se están ejecutando en un sistema Linux pueden ser visualizados usando el comando ps. Éste es uno de los comandos más importantes que un administrador necesitará conocer en lo que respecta a la administración de procesos en un sistema Linux. Puede ser de particular utilidad cuando el sistema está ejecutándose lentamente, para terminar procesos que están consumiendo demasiados recursos del sistema.

Al igual que la mayoría de los comandos Linux que han sido tratados en este curso, el comando ps tiene una variedad de opciones que pueden usarse con el comando para manipular su salida. Algunas de estas opciones se enuncian en la Figura .

Page 328: Documento de Apoyo No. 4 Cisco It Essentials II

328

También es importante mencionar que estas opciones pueden usarse juntas para mostrar la salida deseada usando el comando ps.

La Salida del Comando ps Puede haber algunas salidas considerables que se generan cuando se introduce un comando tal como ps -A -forest según se muestra en la Figura . La información mostrada por el comando ps –A –forest se muestra en la Figura .

El Comando top Otro comando informativo, que es similar al comando ps , es el comando top. Éste funciona de manera muy similar a la herramienta Desempeño de Windows 2000, proporcionando información detallada respecto al uso de la CPU y de la RAM. La Figura muestra la salida del comando top. Tal información incluye la cantidad de usuarios que actualmente han iniciado sesión en el sistema, la cantidad de memoria disponible, y el porcentaje de la CPU usada para diversas tareas. Estas tareas se ordenan descendentemente, que permiten al administrador del sistema ver rápidamente qué usuarios consumen la mayor parte de los ciclos de CPU. Por defecto, la salida se actualiza cada cinco segundos para proporcionar datos continuamente actualizados al usuario. Los administradores

Page 329: Documento de Apoyo No. 4 Cisco It Essentials II

329

del sistema por lo común ejecutarán este comando bastante a menudo para monitorear los niveles de actividad en el sistema y asegurarse de que los recursos suficientes estén disponibles para sus usuarios.

Eliminación de Procesos A veces un proceso hará que el sistema se bloquee. Además, puede comenzar a consumir todos los recursos del sistema, por lo cual el sistema comienza a funcionar lentamente. Esto hace imposible para los usuarios ejecutar cualquier otro programa. En el caso de que esto ocurriera, puede usarse el comando kill. Hay algunos parámetros diferentes que pueden usarse con el comando kill, que determinan cómo se termina el proceso. La sintaxis genérica para el comando es la siguiente:

# kill –s signal pid

La opción signal representa la señal específica que se envía al proceso. Hay aproximadamente sesenta y tres (63) parámetros que pueden introducirse para la señal que se envía al proceso. Cada una de ellos terminará el proceso de manera diferente. Por ejemplo, el usuario puede introducir el nombre de la señal como SIGKILL o el número correspondiente a SIGKILL, que es el nueve (9). Signal 9 eliminará el proceso sin llevar a cabo ninguna tarea de apagado. La Figura muestra todos los parámetros signal posibles que pueden introducirse. Este menú que se muestra en la Figura puede mostrarse introduciendo el comando kill –l. Si el usuario no especifica una señal, se usará la señal por defecto 15, que es SIGTERM. Signal 15 eliminará el proceso pero le permitirá cerrar cualquier archivo abierto que podría estar usando primero. La sección anterior explicó qué es una pid y qué pid está usando un proceso específico usando el comando ps. La pid debe introducirse para el proceso que ha de terminarse.

Page 330: Documento de Apoyo No. 4 Cisco It Essentials II

330

Otra opción disponible para eliminar un proceso es usar el comando killall en lugar de sólo kill. El comando killall se usa para eliminar cada proceso por nombre y no por su número de pid. Por ejemplo, para eliminar todas las instancias de vi en ejecución, introduzca killall vi. Esto eliminaría todos los procesos vi actualmente en ejecución, independientemente del número de pid. Podría haber ocasiones en las que es necesario eliminar todos los procesos excepto uno. Para ello, use el comando killall con la opción -i. Por ejemplo, si el usuario tipea el comando killall -i vi en el prompt, el sistema confirmará cada instancia de vi que está ejecutándose. Entonces el usuario puede terminarlas a todas excepto la que desea que siga ejecutándose.

11.3 Administración de Particiones y Procesos

11.3.4 Asignación de permisos para los procesos

Una de las áreas finales de la administración esencial de procesos en un sistema Linux es poder controlar quién tiene la capacidad de ejecutar determinados programas asignando el permiso apropiado. Por lo común, los programas tienen los mismos tipos de permiso y pueden leer los mismos archivos que el usuario que ejecuta el programa. Existen no obstante, determinados programas que requieren permiso adicional para ser ejecutados por ciertos usuarios.

El comando su es un ejemplo de esto. El comando su permite a un usuario pasarse a otro usuario y ejecutar programas con la cuenta de otro usuario. Los usuarios regulares no pueden ejecutar el comando su, porque requiere privilegios de cuenta raíz. Programas como éste se ejecutan usando el bit SUID o SGID, que permite ejecutar estos programas bajo el permiso de otro usuario. En este ejemplo el comando su tendría un bit SUID raíz para permitir que los usuarios regulares lo ejecuten.

El Set User ID (SUID) se usa con archivos ejecutables en un sistema Linux. Le indica al sistema operativo que ejecute el programa con el permiso de quien posea el archivo, en lugar de aquél del usuario que ejecuta el programa. Como en el ejemplo del comando su, el bit SUID fue establecido como cuenta raíz, lo que significa que cualquier usuario podría ejecutar este programa usando el permiso de la cuenta raíz.

La Set Group ID funciona igual, pero establece el bit SGID para el grupo al cual está asociado el programa.

El uso de estas funciones puede ser de ayuda y a veces necesario para permitir a los usuarios ejecutar programas específicos que requieren un permiso que normalmente no tienen. Es importante limitar esta capacidad a tan pocos archivos como sea posible a causa del riesgo de seguridad que representa. Si esta opción para el comando su está habilitada, como en el ejemplo de más arriba, eso daría a los usuarios la capacidad de asumir la identidad de otros usuarios de la

Page 331: Documento de Apoyo No. 4 Cisco It Essentials II

331

red.

Riesgos de Seguridad de SUID y SGID Hay unos pocos riesgos de seguridad involucrados en el uso del bit SUID o SGID para permitir a los programas el ser ejecutados con permiso de otros usuarios:

Permitir a los usuarios ejecutar ciertos programas como su, cp, o fdisk es un riesgo. Aplicar permisos de raíz SUID para el comando fdisk podría permitir a un usuario borrar completamente el disco rígido del servidor. Hacerlo para el comando cp permitiría al usuario copiar cualquier archivo del servidor. Esto podría ocasionar serias amenazas a la seguridad si un usuario copiara un archivo sensible como /etc/shadow, que contuviera la información de contraseña de otro usuario.

Otro riesgo de seguridad es si hay bugs en cualquiera de los programas, SUID o SGID. Si estos programas contuvieran problemas o bugs y son ejecutados por usuarios que no deberían tener permiso para ello, podrían potencialmente ocasionar más daño al sistema que si fueran ejecutados con los privilegios normales. Por ejemplo, si un programa es ejecutado que tenga un bug desconocido que intente borrar cualquier archivo que se encuentre en el directorio, esto podría ocasionar mucho daño al sistema. No habría mucho daño si un usuario con privilegios normales ejecutara este programa. No obstante, si este programa tuviera privilegios raíz SUID, todo el directorio o más podría resultar dañado.

Estos dos ejemplos son ejemplos de los peores casos y es improbable que ocurran. Esto es así especialmente en el caso del programa que tiene bugs y borra todos los archivos de un directorio. Es muy común que los programas contengan bugs, pero es muy poco común que dicho bug comience a borrar archivos. No obstante, los archivos pueden corromperse haciendo que ya no funcionen. En cualquier caso, es siempre una buena idea tener particular cuidado respecto a qué programas se asigna un permiso de bit SUID o SGID y minimizar la cantidad de programas que tienen estos permisos especiales.

Otros comandos para administrar procesos Algunos de los otros comandos útiles para administrar procesos son los comandos bg, fg, nice, renice, y rc. Las funciones de estos comandos son:

· bg Coloca el trabajo actual o el trabajo especificado en segundo plano, suspendiendo su ejecución para que un nuevo prompt del usuario aparezca inmediatamente. Use la opción jobs con el comando bg para especificar un trabajo en particular o descubrir la identidad de trabajos en segundo plano.

· fg Coloca el trabajo actual o el trabajo especificado en primer plano. Use la opción jobs con el comando fg para especificar un trabajo en particular o para descubrir las identidades de los trabajos en segundo plano.

El comando nice se usa para alterar la prioridad inicial de un trabajo. En sistemas Linux esto es bien simple: cuanto más bajo es el comando nice, más alta es la prioridad. El rango en un sistema Linux es de -20 (la más alta) a 19 (la más baja). El uso de nice es muy simple. Por ejemplo, si desea asegurarse de que un programa que compila e instala tiene una alta prioridad, podría introducir el siguiente comando:

nice -n 5 make

El comando anterior baja el número de nice y elevó la prioridad del trabajo inicialmente para esta tarea. El comando renice se usa para alterar el valor nice de un trabajo una vez que se lo ha empezado. Es importante notar que sólo el raíz puede alterar el valor nice de trabajos que no son suyos, lo que evita que los usuarios molesten a otros usuarios. Los usuarios no-raíz solamente pueden alterar sus valores nice entre 0 y 20, lo cual protege los procesos privilegiados del sistema. El siguiente comando es un ejemplo del uso de renice en un único proceso:

Page 332: Documento de Apoyo No. 4 Cisco It Essentials II

332

renice 5 -p 10023

En el comando anterior el valor de nice es bajado a 5 del PID 10023. El comando renice también puede afectar un grupo entero de procesos. Por ejemplo, si quisiera que todos los procesos del usuario jdoe tuvieran un valor de nice de 12, se introduciría el siguiente comando:

renice 12 -u jdoe

11.4 Monitoreo de Recursos

11.4.1 Administración del disco

Un buen administrador de sistemas es constantemente consciente de los muchos recursos críticos de un NOS. Estos recursos deberán monitorearse en todas las computadoras importantes de la red, tal como los diversos servidores de una organización. Si una computadora corre lenta en cualquier recurso en particular, el administrador del sistema debe estar al tanto del problema y corregirlo inmediatamente antes de que ocurra un problema serio. La administración del disco es una de las tareas más comunes e importantes llevadas a cabo por el administrador del sistema. Usando regularmente programas de verificación de errores y defragmentación y administrando continuamente el espacio libre en disco, el administrador del sistema puede mantener una unidad (o unidades) de disco rígido saludable. La Figura muestra la pantalla de Administración de Disco de Windows 2000.

El espacio en disco disponible en una unidad de disco rígido es un recurso limitado que puede consumirse rápidamente en los servidores de red. A cada usuario de una red se le otorga por lo común permiso de escritura completo en el directorio home o en algún otro almacenamiento central de la red. El comportamiento de los usuarios puede ser muy impredecible. Cuando muchos usuarios almacenan sus datos en la misma unidad de disco rígido, el disco puede llenarse bastante

Page 333: Documento de Apoyo No. 4 Cisco It Essentials II

333

rápidamente. Las consecuencias de quedarse sin espacio en disco a veces son impredecibles y podrían incluso incluir fallos inesperados de los programas en ese servidor.

La administración del espacio en disco de rutina puede llevarse a cabo de varias maneras. Un método incluye inspeccionar regularmente el estado del disco y hacer cualquier ajuste necesario manualmente. Otra solución más práctica usa mensajes de alerta automatizados para notificar al administrador del sistema cuándo el espacio disponible en disco cae por debajo de un nivel predeterminado. Tales alertas pueden ser muy buenas herramientas que ahorran tiempo y ayudan a administrar no sólo el almacenamiento en disco, sino también todos los recursos del NOS.

Una herramienta de administración de disco preventiva disponible para los administradores del sistema es el uso de "cuotas" para las cuentas de los usuarios. Una cuota actúa como techo de almacenamiento que limita la cantidad de datos que cada usuario puede almacenar en la red. Usando esta herramienta, un administrador de sistemas puede planificar y administrar mejor el espacio disponible en la unidad de disco rígido de la red. Si no se implementa una cuota, los usuarios pueden por lo común almacenar tantos datos como lo deseen en el disco de la red. Aunque este método proporciona una mayor flexibilidad a los usuarios, también obliga al administrador del sistema a monitorear de cerca el nivel actual de espacio disponible en disco. En definitiva, los métodos de administración del disco que un administrador de sistemas emplea son una combinación de preferencias personales y de las necesidades de los usuarios.

11.4 Monitoreo de Recursos

11.4.2 Uso de la memoria

Otro recurso crítico que un administrador del sistema debe administrar es la Memoria de Acceso Aleatorio (RAM). Cada vez que una aplicación se ejecuta en una computadora, se lee información del disco rígido y se la coloca en el almacenamiento temporario de la RAM. La computadora usa esta porción de su RAM para ejecutar el programa y eventualmente libera el espacio una vez que se sale del programa. La RAM es mucho más rápida que un disco rígido, pero también es mucho más pequeña. Como resultado de ello, es posible usar el 100 por ciento de la RAM del sistema simplemente ejecutando varios programas a la vez.

Una falta de RAM disponible puede tener un impacto severo en el desempeño de una computadora, especialmente en una que funciona como servidor de red. Cuando la memoria es baja, obstaculiza severamente la potencia de procesamiento del sistema y puede producir efectos colaterales negativos, como caídas de programas. En el caso de un servidor de red, un pobre desempeño de la memoria puede incluso evitar que los usuarios inicien sesión en el servidor. Es el deber de un administrador de sistemas monitorear el uso de las aplicaciones y evitar que estos eventos ocurran. Las herramientas de diagnóstico que permiten descubrir las aplicaciones intensivas en materia de RAM, y detenerlas si es necesario, están por lo común incorporadas a la mayoría de plataformas de NOS. La Figura muestra el administrador de tareas usado para verificar el uso de la memoria.

Page 334: Documento de Apoyo No. 4 Cisco It Essentials II

334

Puesto que la RAM es usualmente un recurso limitado, los administradores de sistemas pueden compensar la falta de memoria mediante el uso de "memoria virtual". La memoria virtual adjudica espacio en el disco rígido y lo trata como una extensión de la RAM del sistema. Aunque el acceso al disco rígido es significativamente más lento que a la RAM estándar, la memoria virtual ayuda a evitar la falta de RAM incrementando mucho la cantidad total disponible. La mayor parte del software NOS proporcionará la capacidad de administrar la memoria virtual directamente con herramientas incorporadas. Un administrador de sistemas puede elegir incrementar la cantidad por defecto de memoria virtual si el NOS continuamente sufre de falta de memoria.

11.4 Monitoreo de Recursos

11.4.3 Uso de la CPU

La Unidad Central de Procesamiento (CPU) actúa como cerebro de una computadora moderna. Toda la información usada por el NOS, incluyendo el NOS en sí, es procesada millones de veces por segundo por la CPU para mostrar información al usuario. Cada aplicación que se esté ejecutando, ya sea visible o en segundo plano, consume valiosos ciclos de procesamiento de la CPU. La mayoría de los sistemas operativos priorizan estas tareas, permitiendo a la CPU servirlos de acuerdo a la importancia. No obstante, la CPU puede en ocasiones sobrecargarse con grandes cantidades de procesamiento llevado a cabo simultáneamente. Esto es especialmente común en el caso de los servidores de red, donde muchos usuarios intentan acceder a los recursos de la computadora al mismo tiempo. A medida que más usuarios solicitan información al servidor, la CPU debe trabajar más para cumplir esas demandas.

Como todos los otros recursos de un NOS, herramientas incorporadas se proporcionan comúnmente para permitir a los administradores del sistema monitorear el nivel actual de actividad de la CPU. Este feedback se presenta a menudo en términos del porcentaje de la CPU actualmente usado y se actualiza a intervalos frecuentes. La Figura muestra el uso de la CPU durante el periodo de una semana.

Además, las aplicaciones por lo común se enumeran individualmente con sus respectivas estadísticas de uso. Si una aplicación o usuario en particular causa en el sistema un excesivo esfuerzo de procesamiento, el administrador del sistema puede elegir terminar la causa del problema. Aunque puede parecer desagradable obligar a un usuario a desconectar o detener un programa en medio de su uso, la realidad es que tales acciones a menudo son necesarias para mantener un desempeño de procesamiento aceptable para todos los usuarios.

11.4 Monitoreo de Recursos

11.4.4 Revisión de registros diarios

Un aspecto importante de monitorear los recursos de cualquier computadora es revisar los archivos log [registro] del sistema. La mayoría de programas de computadora, servidores, procesos de inicio de sesión, así como el kernel del sistema, registran resúmenes de sus actividades en archivos log. Estos resúmenes pueden usarse y revisarse para diversas cosas, incluyendo software que podría estar funcionando mal o intentos de irrumpir en el sistema.

Para ayudar a crear un informe de estos eventos, los "logs" son generados automáticamente por el sistema y sus aplicaciones. Estos archivos por lo común consisten en sentencias de texto que detallan información específica acerca del evento que ocurrió. Por ejemplo, la mayoría de servidores web mantienen un archivo log que detalla cada solicitud de información hecha al

Page 335: Documento de Apoyo No. 4 Cisco It Essentials II

335

servidor. Información relativa al momento de la solicitud, la dirección IP de la computadora remota, y archivos accedidos se almacenan como registros únicos del log. Estos registros proporcionan al administrador de sistemas feedback y datos estadísticos necesarios para implementar mejoras en las operaciones del servidor.

En Windows 2000, la herramienta Administración de la Computadora permite a los usuarios navegar por los eventos registrados generados por el NOS. La Figura muestra un ejemplo de los eventos registrados en Linux. Dos categorías debajo del encabezado Herramientas del Sistema, se almacena la información registrada. Son el "Visor de Eventos" y "Logs y Alertas de Desempeño". Varios tipos diferentes de eventos registrados se registran aquí, incluyendo Información, Advertencias y Errores. Hacer doble clic en cualquiera de estas entradas muestra la información registrada en mayor detalle.

Uso de los Archivos Log del Sistema Operativo La mayoría de los sistemas operativos proporcionan un medio de escribir automáticamente en un archivo log del sistema. Este archivo detalla fallos de dispositivos, intentos fallidos de comunicaciones, y otras condiciones de error. La información es un útil punto de partida para detectar y resolver problemas. Por ejemplo, Windows NT y Windows 2000 proporcionan el Visor de Eventos. Si se selecciona un evento específico, tal como un error de TCP/IP por ejemplo, pueden verse más detalles acerca del evento. La información que se mostrará indica que ocurrió un conflicto de direcciones IP, lo cual explicaría por qué esta computadora no puede comunicarse en la red.

Ubicación de Archivos Log del Sistema en un Sistema Linux El monitoreo y la visualización de logs en un sistema Linux se hace de manera muy diferente que en un sistema Windows. Linux usa daemons de log para controlar los eventos que se introducen en el log del sistema. El primer paso para poder ver los archivos log en un sistema Linux es poder localizarlos. La mayoría de los archivos log de los sistemas Linux se ubican en el directorio /var/log. Los archivos log que se encuentran en este directorio son mantenidos por el daemon de log del sistema (Syslogd) y el daemon de log del kernel (klogd). Estos dos daemons se configuran usando el archivo syslog.conf, que se muestra en la Figura . Como se muestra en este ejemplo, la mayoría de las entradas especifican que el log se envíe a un log en el directorio /var/log.

Muchos de los servidores en un sistema Linux, como Samba por ejemplo, mantienen sus propios archivos log. La ubicación donde se almacenan estos archivos puede configurarse mediante el archivo de configuración nativo del servidor, como smb.conf con Samba. El parámetro del archivo log en los archivos smb.conf controla dónde se ubica el archivo log. No obstante, normalmente se lo encuentra en el directorio /var/log o en uno de sus subdirectorios por defecto.

Page 336: Documento de Apoyo No. 4 Cisco It Essentials II

336

Identificación de Información Importante en los Archivos Log Existen varios archivos log en un sistema Linux. Puede ser difícil determinar qué archivos son importantes o qué información importante deberá tener la mayor atención en estos archivos. La mayoría de los archivos log nunca necesitarían de alguien que se preocupara por ellos o que ni siquiera los mirara. Hay, no obstante, alguna información importante contenida en algunos de estos archivos. Por ejemplo, los archivos log de un sistema Linux mantienen inicios de sesión hechos por la cuenta raíz e intentos de usar el comando su para obtener privilegios de raíz. Los archivos log también mantienen información acerca de intentos por abrir o acceder a puertos que han sido cerrados por el firewall o intentos fallidos de acceder a servidores o programas xinetd. Es raro que un sistema Linux alguna vez necesite apagarse, por lo tanto cualquier inicio o apagado no autorizado podría ser sospechoso. Por ejemplo, reinicios no autorizados del servidor podrían significar una intrusión exitosa en el sistema. Por esta razón se mantienen logs de todos los inicios y apagados del sistema. Se mantienen logs de error, que usualmente ocurren cuando un mensaje de error extraño podría aparecer en la pantalla. Más a menudo, éste es sólo el resultado de una mala configuración del servidor, pero a veces puede significar que se hizo un intento de irrumpir en el sistema. Otros archivos log importantes para prestarles atención son los archivos log del kernel. A veces el kernel contraerá bugs, o un fallo en el hardware puede resultar en lo que se llaman oops del kernel.

Dependiendo de la distribución de Linux usada, los archivos log serán diferentes. Por ejemplo, no hay archivos log para sendmail en Mandrake o Debian Linux, ya que estas distribuciones usan otros servidores de correo. Hay otras razones para familiarizarse con los archivos log y la información que se introduce en los archivos log que hay en el sistema Linux. Lo más importante, porque un usuario podrá determinar mejor qué eventos se registran como eventos normales y cuáles no. Esto es así para que los que no lo son puedan ser fácilmente identificados y examinados en mayor detalle.

Herramientas de Análisis de los Archivos Log Los archivos log de un sistema Linux pueden volverse muy grandes y difíciles de administrar, lo cual hace de cualquier análisis productivo de estos archivos algo muy difícil. Hay varias herramientas en un sistema Linux que ayudarán a administrar los archivos log del sistema y que harán del análisis de los archivos algo mucho más fácil. Anteriormente se explicó acerca de los trabajos Cron y cómo pueden usarse para renombrar viejos archivos log. Esto es así para que puedan crearse nuevos y los viejos borrarse regularmente para evitar que los archivos log crezcan continuamente hasta alcanzar tamaños inadministrables y que ocupen espacio innecesario en el disco rígido. Esta rotación de archivos log puede configurarse para que ocurra diariamente, semanalmente, o mensualmente dependiendo de la actividad del sistema y de cuán largos son los archivos que se almacenan en él.

Otra herramienta de análisis de archivos log que puede usarse es Logcheck. Algunas distribuciones incluyen esta herramienta por defecto, como Mandrake y Debian Linux. Es más fácil de usar cuando viene preconfigurada con la distribución de Linux. Al usar una distribución que no incluye Logcheck, tendrá que configurarse para que se ejecute en el sistema. Lo mejor es verificar la documentación en busca de instrucciones específicas acerca de cómo configurar esto en un sistema Linux. El archivo principal que debe editarse es el archivo logcheck.sh, que se instala con el paquete. Este archivo debe configurarse para verificar los archivos log que han de monitorearse. Las funciones, como por ejemplo qué usuario recibe informes cuando se ha hallado una violación, pueden ajustarse. Por lo común esto se configura a raíz por defecto. Una vez configurado Logcheck, debe crearse un trabajo Cron, que cronometre los intervalos cuando se ejecuta y a quién se enviarán los informes por e-mail.

Page 337: Documento de Apoyo No. 4 Cisco It Essentials II

337

11.4 Monitoreo de Recursos

11.4.5 Verificación del uso de los recursos en Windows 2000 y Windows XP

Los recursos del sistema se monitorean en Windows 2000 y Windows XP mediante la Herramienta Desempeño como lo muestra la Figura . Esta aplicación se encuentra bajo la opción del menú Inicio > Programas > Administración del Sistema > Desempeño. El árbol del menú a la izquierda presenta el "Monitor del Sistema" y "Logs y Alertas de Desempeño", que es la misma opción que se encuentra en las opciones de Herramientas de Administración de la Computadora. Seleccionar el Monitor del Sistema muestra un gráfico vacío por defecto. Los usuarios pueden entonces hacer clic con el botón derecho en el gráfico y seleccionar Agregar Contadores para especificar qué recursos del sistema monitorear en el gráfico. La Figura ilustra el proceso de agregar recursos monitoreados a la herramienta de Desempeño de Windows 2000.

Por ejemplo, para monitorear el uso actual de la RAM del sistema, use el menú desplegable "Objeto de Desempeño" para seleccionar la opción de la memoria. A continuación, el usuario puede decidir qué aspectos del uso de la memoria visualizar seleccionando de la lista del contador y presionando el botón Agregar. Varias adiciones pueden hacerse al gráfico desde esta ventana, y una descripción de cada recurso está disponible haciendo clic en el botón Explicar. Hacer clic en el botón Cerrar y regresar a la Herramienta de Desempeño muestra las estadísticas de los recursos seleccionados usando un gráfico de línea por defecto. El gráfico de línea proporciona un historial visual de la actividad de los recursos. Esto incluye información acerca de sus valores actual, promedio, mínimo y máximo.

Para configurar más aún esta pantalla, los usuarios pueden hacer clic con el botón derecho en el gráfico y seleccionar Propiedades. Aparece el recuadro de diálogo Propiedades del Monitor del Sistema, donde los usuarios pueden seleccionar vistas de los datos tales como Histograma o informe sólo texto. Varias otras opciones personalizables pueden encontrarse aquí, la más importante de las cuales es el recuadro de verificación "Actualizar automáticamente...". Marcar esta opción permite a la Herramienta de Desempeño automatizar la pantalla automáticamente según el intervalo especificado. Deberá notarse que una tasa de refresco más rápida incrementará la cantidad de datos proporcionados al usuario, pero a un costo significativo. Irónicamente, la Herramienta de Desempeño en sí usa valiosos recursos del sistema para monitorear e informar sobre estos mismos recursos. Especificar una tasa frecuente de actualizaciones podría tener un impacto levemente negativo en los recursos disponibles para Windows 2000/XP y otras aplicaciones.

Page 338: Documento de Apoyo No. 4 Cisco It Essentials II

338

11.4 Monitoreo de Recursos

11.4.6 Verificación del uso de recursos en Linux

Las herramientas Linux más comunes usadas para investigar el uso de recursos consisten en varios comandos basados en texto introducidos en la línea de comandos. La Figura muestra comandos comunes para mostrar el uso de recursos. Para más detalles respecto a los diversos parámetros de estos comandos, los usuarios pueden ver sus respectivas páginas del manual introduciendo el comando man en el prompt. No obstante, estos comandos son relativamente simples en su uso y son extremadamente informativos para los administradores de sistemas sin especificar parámetros adicionales. Por lo común no generan información gráfica como las cartas que genera Windows 2000. En cambio, listas detalladas de información textual se muestran organizadamente para permitir al usuario interpretar los datos. Las herramientas comúnmente usadas se tratan a continuación.

El Comando df La primera de ellas es el comando df. Se lo usa para mostrar la cantidad de espacio en disco actualmente disponible para los diversos sistemas de archivo de la máquina. La Figura muestra la salida del comando df. Su salida es organizada en seis columnas. Éstas incluyen sistema de archivos, bloques, usados, disponibles, capacidad y montados. Cada sistema de archivos se enumera en líneas individuales a lo largo de su información de uso correspondiente. Este comando proporciona una mirada de alto nivel al uso del disco de parte del sistema. Si un sistema de archivos en particular se está poniendo innecesariamente grande, el administrador del sistema se enterará en primer lugar del problema aquí.

El Comando du No obstante, si es necesario un rastreo más profundo de los recursos del disco, el comando du puede usarse entonces para determinar la ubicación exacta del problema. Cuando se especifica un nombre de directorio, el comando du devuelve el uso del disco tanto para el contenido del directorio como para el contenido de cualquier subdirectorio por debajo suyo. La Figura muestra la salida del comando du. Ejecutarlo para directorios de alto nivel con muchos subdirectorios puede resultar en un conjunto de salidas muy grande. Este comando se usa mejor dentro de los niveles más bajos de la estructura de directorios para ayudar a ubicar áreas específicas del sistema de archivos que consumen grandes cantidades de espacio de disco.

Page 339: Documento de Apoyo No. 4 Cisco It Essentials II

339

El Comando top El tercero y tal vez más informativo comando disponible para la administración de recursos básica de Linux es el comando top. Esto funciona de manera muy similar a la Herramienta de Desempeño de Windows 2000, proporcionando información detallada respecto al uso de la CPU y la RAM. La salida del comando top se mostró anteriormente en este capítulo. Tal información incluye la cantidad de usuarios actualmente con sesión iniciada en el sistema, la cantidad de memoria disponible, y el porcentaje de la CPU usada para diversas tareas. Estas tareas se ordenan en orden descendente, lo cual permite al administrador del sistema ver rápidamente qué usuarios están consumiendo la mayor parte de los ciclos de la CPU. Por defecto, la salida se refresca cada cinco segundos para proporcionar datos continuamente actualizados al usuario. Los administradores de sistemas por lo común ejecutarán este comando bastante a menudo para monitorear los niveles de actividad en el sistema y asegurarse de que hay los suficientes recursos disponibles para sus usuarios. 11.5 Análisis y Optimización del Desempeño de la Red

11.5.1 Conceptos clave en el análisis y optimización del desempeño de la red

La administración de una red de computadoras es a menudo un trabajo de mucha ocupación y gran presión. Esto es así en un departamento de soporte de tecnología de la información para una red de nivel empresarial o en una pequeña compañía con un único administrador de LAN. Puesto que puede haber poco tiempo disponible para el personal de la red, muchos administradores se encuentran a sí mismos operando de modo reactivo. Es decir, tratan los problemas a medida que ocurren, lo cual no deja tiempo para implementar medidas que evitarían que esos problemas ocurrieran en primer lugar.

El administrador de red debería hacerse tiempo para concebir un plan proactivo para administrar la red. Este plan habilita la detección de pequeños problemas antes de que se conviertan en grandes. Si puntos problemáticos potenciales se anticipan y se toman medidas para corregirlos, pueden ahorrarse mucho tiempo y dinero. Los tres conceptos clave para el análisis y optimización del desempeño de la red son los siguientes:

· Cuellos de botella · Líneas básicas · Mejores prácticas

Las siguientes secciones observan más de cerca cada concepto y tratan la velocidad de conexión a Internet, que es otro factor importante al evaluar y optimizar una red. Muchos de los términos importantes que se relacionan con problemas de desempeño y monitoreo serán definidos.

Page 340: Documento de Apoyo No. 4 Cisco It Essentials II

340

11.5 Análisis y Optimización del Desempeño de la Red

11.5.2 Cuello de botella

Un cuello de botella es exactamente lo que el nombre implica. Es el punto en el sistema que limita el throughput de datos, que es la cantidad de datos que pueden fluir a través de la red.

Un cuello de botella puede estar ocasionado por un problema con un componente o por limitaciones inherentes al mismo. Un ejemplo podría ser una red que tiene hubs y switches de 10/100 Mbps y switches y computadoras con placas de red de 10/100 Mbps, pero sólo par trenzado Categoría 3 en la infraestructura de cableado. Puesto que el cable de par trenzado Categoría 3 no soporta una velocidad de transferencia de datos elevada, el cable es el cuello de botella que ralentiza la red.

Es dudoso que todos los componentes de la red puedan ponerse a punto de manera tan precisa que todos operen exactamente a la misma velocidad. No obstante, optimizar el desempeño tiene en cuenta encontrar los cuellos de botella y actualizar, reconfigurar y reemplazar los componentes para elevar su desempeño hasta o por encima del nivel del resto de los componentes de la red. Este proceso de manera casi inevitable crea un nuevo cuello de botella en otro punto, pero con buena planificación el nuevo cuello de botella debería ser menos restrictivo que el anterior.

Para poder diagnosticar qué componente del servidor de red está ocasionando un cuello de botella en el sistema, debe haber herramientas de software de monitoreo de desempeño específicas del sistema operativo del servidor de red. La mayoría de los sistemas operativos de servidores de red tienen al menos un paquete de software de monitoreo de desempeño básico incluido en el sistema operativo. Fabricantes terceros también tienen herramientas de software de monitoreo de desempeño disponibles para la mayoría de los sistemas operativos de servidores de red.

Ejemplos de herramientas de software de monitoreo de desempeño para diversos sistemas operativos de servidor de red incluyen los siguientes:

· Performance Para Microsoft Windows 2000 Server · sar, iostat, vmstat, ps Para UNIX/Linux

La herramienta principal de monitoreo de desempeño de Windows 2000 Server de Microsoft se llama simplemente Performance [Desempeño], que se muestra en la Figura . Performance puede monitorear casi todos los componentes de hardware y software de un servidor Windows 2000. El monitoreo puede asumir la forma de crear un gráfico en tiempo real de utilización de recursos, o puede asumir la forma de un archivo log para un posterior análisis. El archivo log puede analizarse o exportarse en un formato que pueda ser usado por otro software, como un paquete de software de estadísticas estándar para el análisis o Microsoft Excel para generar gráficos o estadísticas. La Herramienta de Windows 2000 Server (Performance) encaja en la Consola de Administración de Microsoft. La apariencia del monitor de desempeño de NT 4.0 es levemente diferente, pero la funcionalidad básica es casi idéntica.

Page 341: Documento de Apoyo No. 4 Cisco It Essentials II

341

Las diversas versiones de los sistemas operativos UNIX/Linux tienen utilidades de línea de comandos que pueden usarse para monitorear el desempeño del servidor de red UNIX/Linux. Las herramientas principales son sar, vmstat, iostat, y ps. Los indicadores usados por estos comandos pueden variar en las diferentes versiones de UNIX/Linux. Use el comando man de UNIX/Linux para obtener especificaciones acerca del uso de estos comandos. La información mostrada por el comando man también indica cómo interpretar la salida generada por el comando.

El System Activity Reporter de UNIX/Linux, o comando sar, recoge e informa sobre la actividad del sistema, que incluye utilización del procesador, utilización del buffer, etcétera para el servidor de red UNIX/Linux. El Virtual Memory Statistics de UNIX/Linux, o comando vmstat, proporciona información acerca del sistema de memoria virtual para el servidor de red UNIX/Linux. El Input/Output Statistics de UNIX/Linux, o comando iostat, proporcoina información acerca de la entrada/salida del subsistema de disco para el servidor de red UNIX/Linux. El comando Processes (ps) de UNIX/Linux enumera todos los procesos que se están ejecutando en el servidor de red UNIX/Linux.

Cuellos de Botella del Procesador Use las herramientas de monitoreo del desempeño disponibles para el sistema operativo del servidor de red para monitorear la utilización del o de los procesador(es) del servidor de red. Los dos contadores a observar más de cerca son la utilización porcentual del procesador y la longitud de la cola del procesador. La utilización porcentual del procesador es el porcentaje de tiempo en que el procesador está ocupado. Si la utilización porcentual del procesador es constantemente mayor que el 70%, el procesador es el cuello de botella del servidor de red. La longitud de la cola del procesador es la cantidad de procesos esperando al procesador. Si la longitud de la cola del procesador es constantemente mayor que 2, el procesador es el cuello de botella del servidor de red. Alivie el cuello de botella del procesador haciendo cualquiera de las siguientes cosas:

· Actualice el procesador existente a uno más rápido. · Agregue un procesador adicional al servidor de red. · Mueva las aplicaciones o servicios de este servidor de red a otro.

Cuellos de Botella de Memoria En servidores de red con sistemas operativos que no soportan memoria virtual, los cuellos de botella de memoria son bastante fáciles de detectar. La falta de memoria se manifiesta en estos sistemas como la incapacidad de cargar software adicional o la falta de "buffers", que es almacenamiento temporal entre el sistema y sus unidades de disco. Los buffers son fácilmente detectados usando software de administración de servidores estándar. La solución a una falta de memoria es agregar más memoria.

Page 342: Documento de Apoyo No. 4 Cisco It Essentials II

342

En servidores de red con sistemas operativos que sí soportan memoria virtual, varios indicadores o contadores deberán monitorearse. El primer contador es la cantidad de memoria disponible, o la memoria que no se está usando, una vez que se ha cargado todo el software del servidor de red. Para evitar totalmente la paginación o intercambio de páginas de memoria al disco, simplemente coloque más memoria real o física de la necesitada por todo el software que se ejecuta en el servidor de red.

El otro contador que debería monitorearse para verificar si hay cuellos de botella de memoria es la cantidad de páginas que se leen o escriben en el archivo de paginación del disco en un segundo. La cantidad de páginas por segundo aceptable depende de la velocidad del procesador. En general, la cantidad debería ser menor que 2.000 por segundo. Una paginación densa a menudo se manifiesta como alta utilización del disco, porque las páginas de memoria se escriben en el disco cuando la memoria es necesitada por otro programa.

Otro indicador de la falta de memoria es la cantidad de fallos de página generados por segundo. Un fallo de página es la condición encontrada cuando hay un intento de acceder a una página de un programa, la página ya no está en la memoria, pero debe recuperarse del disco. Un problema de fallo de página está indicado si la cantidad de fallos de página por segundo es más del doble de los fallos de página grabados en las mediciones de línea básica del servidor tomados bajo una carga de trabajo normal. Para aliviar un cuello de botella de memoria, agregue más memoria al servidor de red. El desempeño de la paginación puede mejorarse a menudo colocando el archivo de paginación, o archivo de intercambio, en el disco más rápido del servidor de red. Además, este disco no debe contener el sistema operativo del servidor de red o los archivos de datos usados por la aplicación más importante que se ejecuta en el servidor de red.

Cuellos de Botella del Subsistema de Disco El subsistema de disco puede ocasionar cuellos de botella del sistema, especialmente cuando el servidor de red tiene el rol de un servidor de red que requiere un subsistema de disco rápido como en un servidor de base de datos.

Los contadores del subsistema de disco que deberán monitorearse son la utilización del subsistema de disco y la longitud de cola del disco. Un porcentaje de utilización del subsistema de disco no deberá ser constantemente mayor del 90%. Esta tasa de utilización del subsistema de disco muy alta indica que el subsistema de disco es el cuello de botella.

La longitud de la cola del subsistema de disco indica cuántos elementos esperan para ser escritos al subsistema de disco. Una longitud de cola del subsistema de disco que es constantemente mayor que dos indica que el subsistema de disco es demasiado lento. Varias cosas podrían mejorar el desempeño del subsistema de disco:

· Defragmente el disco rígido. Tener archivos fragmentados en la unidad de disco puede reducir drásticamente el desempeño del disco.

· Mueva el archivo de paginación del sistema operativo del servidor de red a la unidad de disco más rápida del servidor de red y fuera de la unidad de disco donde está ubicado el sistema operativo del servidor de red.

· Mueva la aplicación que causa una alta utilización del disco a otro servidor de red. · Reemplace el controlador de disco por un controlador de disco que tenga un caché de

memoria incorporado. · Reemplace las unidades de disco por unidades de disco con una alta velocidad rotatoria y,

por lo tanto, más rápido tiempo de acceso. · Reemplace todo el subsistema de disco, que incluye el controlador y las unidades de disco,

por un subsistema de disco más rápido.

Cuellos de Botella del Subsistema de Red Los cuellos de botella del subsistema de red son tal vez los más difíciles de detectar y resolver. Un software de monitoreo de desempeño común puede proporcionar conteos de paquetes enviados y recibidos y poco más. Para analizar el desempeño de la red, es necesario un analizador para

Page 343: Documento de Apoyo No. 4 Cisco It Essentials II

343

hardware o software. Un analizador de red puede realmente capturar paquetes de la red para un posterior análisis. El porcentaje de utilización de la red, un indicador muy valioso del desempeño de la red, puede determinarse fácilmente. Un analizador de red también puede determinar el tipo de paquetes de red (por ejemplo, broadcasts, multicasts, o unicasts) y los protocolos que están consumiendo la mayor parte del ancho de banda de la red.

Un porcentaje del uso de la red que sea constantemente mayor que 65% se considera en general como una alta utilización y puede constituir un cuello de botella. Las soluciones a un cuello de botella de un subsistema de red son en general caras e incluyen lo siguiente:

· Reemplazar el subsistema de red por uno más rápido. Reemplazar una red Ethernet de 10 Mbps por una red Fast Ethernet de 100 Mbps probablemente eliminará el subsistema de red como cuello de botella.

· Reemplazar los hubs Ethernet por switches Ethernet. En un hub Ethernet, todo el ancho de banda de la red disponible es compartido. Usar un switch Ethernet en lugar de un hub proporciona a cada puerto la cantidad completa de ancho de banda, lo que significa que ésta no es compartida.

· Si el cuello de botella parece ser ocasionado por demasiados clientes intentando llevar al servidor de red, considere el uso de agrupación por adaptador para incrementar el ancho de banda de red disponible para el servidor de red. Esto requiere la instalación de varias NICs en el servidor de red y un switch Fast Ethernet que soporte la instalación de agregación de ancho de banda.

· Eliminar protocolos innecesarios de la red. Cuando hay varios protocolos instalados en un servidor de red, los anuncios enviados desde el servidor de red se envía una vez por cada protocolo instalado. Esto incrementa el tráfico en la red.

Los siguientes son un par de herramientas de monitoreo y análisis de red bien conocidas:

· Microsoft Network Monitor · Novell LANalyzer para Windows

11.5 Análisis y Optimización del Desempeño de la Red

11.5.3 Líneas básicas

Las mediciones de la línea básica deberán incluir las siguientes estadísticas:

· Procesador · Memoria · Subsistema de disco · Red - Longitud de la cola de red

Page 344: Documento de Apoyo No. 4 Cisco It Essentials II

344

El primer paso al determinar cuán eficientemente una red se está desempeñando involucra comparar diversas mediciones a las mismas mediciones tomadas en un momento anterior. Estas mediciones pueden incluir la cantidad de bytes transferidos por segundo, la cantidad de paquetes descartados, o una cantidad de otros indicadores de desempeño de la red. Una vez hecha esta comparación, puede responderse a una cantidad de preguntas:

· El desempeño, ¿ha mejorado o se ha degradado? · ¿Cuál es el efecto sobre el desempeño de implementar un nuevo servicio o función?

La única forma de conocer las respuestas es tener una medición válida con la cual comparar las lecturas actuales. Este punto de comparación se llama línea básica, que es el nivel de desempeño aceptable cuando el sistema está manejando una carga de trabajo típica. Una lectura de línea básica debería hacerse en un momento en que la red está funcionando normalmente. La medición no debería hacerse en el momento más ocupado del día, ni tampoco cuando la red no está en uso en absoluto. Una línea básica debería establecerse midiendo el desempeño de la red durante el uso normal. Una buena manera de hacer esto es tomar varias lecturas separadas a intervalos espaciados y después sacar un promedio. Usando las utilidades disponibles para los diversos sistemas operativos de red, pueden llevarse a cabo mediciones de línea básica. Las mediciones de línea básica incluyen las siguientes estadísticas:

· Procesador Porcentaje de uso · Procesador Longitud de la cola del procesador · Memoria Fallos de página de hard · Memoria Fallos de página de soft · Subsistema de disco Porcentaje de uso del disco · Subsistema de disco Longitud de la cola del disco · Red Porcentaje de uso de la red · Red Longitud de la cola de la red

Además de ayudar a identificar cuellos de botellas que pueden estar desarrollándose, una línea básica ayuda a:

· Identificar grandes usuarios · Mapear patrones de uso de la red diarios, semanales o mensuales · Detectar patrones de tráfico relativos a protocolos específicos · Justificar el costo de actualización de componentes de la red

Estos ítems se tratarán en detalle en las secciones que siguen.

Identificación del Uso Elevado No es inusual encontrar que unos pocos usuarios están usando un porcentaje desproporcionado del ancho de bando. Cuando estos grandes usuarios son identificados, se hace posible:

· Aconsejar a los grandes usuarios sobre formas de conservar el ancho de banda. · Restringir su uso mediante controles de software. · Planificar su gran uso y buscar formas de evitar que el uso afecte la eficiencia de la red.

Por supuesto, la opción elegida depende de quiénes son los grandes usuarios, sus roles en la organización, y el propósito de su gran uso.

NOTA: Algunas aplicaciones de software, por ejemplo, programas de backup y escaneos anti-virus basados en el servidor, también usan una gran cantidad de ancho de banda. Éstas deberían programarse para que se ejecuten durante periodos de bajo uso.

Mapeo de Patrones de Uso

Page 345: Documento de Apoyo No. 4 Cisco It Essentials II

345

El monitoreo también permite el mapeo de patrones de uso. No sólo es posible determinar dónde tiene lugar el gran uso, sino también cuándo ocurre. Esto hace más fácil el adjudicar ancho de banda para días de alto uso esperado u horas pico. También hace más fácil el programar el mantenimiento de la red y el tiempo de inactividad del servidor en un momento en el cual tenga menos efecto sobre los usuarios de la red.

Detección de Patrones de Tráficos Específicos del Protocolo Dispositivos y software de monitoreo de red permiten la detección de patrones de tráfico basados en el protocolo. También es posible determinar qué puertos se están usando. Un administrador de red es capaz de ver si el ancho de banda se desperdicia en actividades que no tienen que ver con los negocios como los juegos o navegar por la web.

Los monitores de red a menudo se denominan analizadores de protocolo. La mayoría de los analizadores se basan en software, y permiten la captura de paquetes individuales (también llamados frames) a medida que viajan por la red. Los analizadores de protocolo se tratan en más detalle en la sección "Herramientas de Monitoreo y Administración de Red" posteriormente en este capítulo. Solamente deberán capturarse la cantidad de estadísticas necesarias realmente para evaluar el desempeño de la red. El software de monitoreo de red solamente deberá usarse durante periodos de bajo uso, porque el software de monitoreo en sí tiene un efecto en el desempeño del sistema. 11.5 Análisis y Optimización del Desempeño de la Red

11.5.4 Determinación de la velocidad de conexión a Internet

Si una red está conectada a Internet, puede ser útil determinar la velocidad de conexión. El hecho de que un módem de 56 kbps se usa para conectarse no significa que realmente se establezca una conexión de 56 kbps. Es probable, dependiendo de las condiciones de la línea, que la velocidad de conexión sea de 50 kbps o inferior. De hecho, algunos servicios de compañías telefónicas como AT&T TrueVoice evitan que un módem de 56 kbps se conecte a su velocidad óptima.

NOTA:

En Estados Unidos, la Comisión Federal de Comunicaciones (FCC) limita la cantidad de energía eléctrica que puede transmitirse a través de las líneas telefónicas. Esto limita la velocidad de un módem de 56 kbps a alrededor de 53 kbps, incluso si todas las otras condiciones son óptimas. El throughput de datos puede variar a causa de factores tales como el uso de compresión de hardware o software. Esta compresión hace posible llegar a un throughput de 112 kbps con un

Page 346: Documento de Apoyo No. 4 Cisco It Essentials II

346

módem de 56 kbps a través de una línea telefónica analógica. La velocidad de una conexión está limitada por su componente de más baja velocidad o el cuello de botella. Esto significa que incluso si el equipamiento es capaz de una conexión de 50 kbps, la conexión será a la velocidad más baja si el módem remoto soporta solamente 33,6 kbps. El componente de networking de conexión telefónica de un sistema operativo puede indicar una velocidad de conexión, usualmente en bits por segundo (bps). Por ejemplo, una conexión de 50 kbps a menudo se muestra como de 50.000 bps. Esto podría no dar una indicación verdadera del throughput real, porque mide solamente la velocidad de conexión inicial entre el módem local y el módem remoto. El throughput normalmente fluctúa durante una sesión de conexión.

NOTA:

La velocidad de conexión puede mostrarse como velocidad de puerto (que es la velocidad de módem a computadora que incluye la compresión) o la velocidad de conexión real (la velocidad de módem a módem). Windows puede mostrar la velocidad en cualquiera de estos formatos, dependiendo del controlador del módem que esté instalado. Durante la descarga de un archivo por Internet, la velocidad de descarga usualmente es mostrada por el navegador o software FTP. Esto a menudo se muestra en kilobytes por segundo. Hay ocho bits por byte, así que una velocidad de conexión de 50 Kilobits por segundo (Kbps) probablemente mostrará una velocidad de descarga de alrededor de 6,25 Kilobytes per second (KBps). Descargar un archivo de música de cinco minutos y usando esta conexión podría llevar a un usuario de quince a veinte minutos. La Figura muestra el tiempo requerido para descargar cinco minutos de música en un archivo MP3. Esta información puede usarse para determinar la diferencia que hará la velocidad de conexión a Internet más alta y más baja. Hay varios sitios web que tienen como objetivo probar la velocidad de conexión. Estos sitios usan el Protocolo de Transferencia de Hipertexto (HTTP), la sobrecarga del cual afectará la velocidad de descarga. Los resultados de diferentes sitios pueden variar. No obstante, son útiles para comparaciones estimadas. Algunos de los sitios que miden la velocidad de conexión son:

· Dslreports.com está disponible en la siguiente dirección: http://www.dslreports.com/stest. · Telus.net High-Speed Internet está disponible en la siguiente dirección:

http://www.telus.net/highspeed/BC/hs-speed.html · Toast.net Internet Service está disponible en la siguiente dirección: http://www.toast.net

Hay muchas razones para una conexión a Internet lenta:

· Una conexión pobre al servidor de acceso remoto del ISP causada por problemas del módem en cada extremo y líneas con ruido

· Un servidor web, servidor FTP, o cualquier servidor en Internet lento al cual se envían las solicitudes

· Conexiones congestionadas en las líneas del backbone principal, que pueden ocurrir durante eventos de importancia nacional o internacional

· Ancho de banda compartido en la LAN o dentro de la red del ISP

Se esperan bajas temporarias en la velocidad ocasionales, y hay poco que pueda hacerse respecto a ello. Si la velocidad de conexión es inaceptable sobre una base continua, puede ser necesario cambiar a banda ancha u otro acceso de alta velocidad.

11.5 Análisis y Optimización del Desempeño de la Red

11.5.5 Software de monitoreo de la red

Muchos paquetes de software están disponibles para asistir en el monitoreo y administración de una red. Algunos vienen incluidos con un sistema operativo de red, y algunos son descargables desde la World Wide Web como freeware o shareware. Muchos de estos paquetes son tanto costosos como sofisticados.

En las siguientes secciones, se examinan algunos programas de monitoreo y administración populares. Los proveedores de servicio de administración de red también se tratan. Éstos son

Page 347: Documento de Apoyo No. 4 Cisco It Essentials II

347

profesionales del networking que se contratan para administrar la red de una organización.

El software de monitoreo de red va de simple a complejo y de gratis a caro. Los sistemas operativos modernos como Windows NT y Windows 2000 tienen herramientas de monitoreo incorporadas. Éstas no son tan sofisticadas o con muchas funciones como los productos de terceros, pero pueden ser útiles al establecer líneas básicas de desempeño o resolver problemas en la red.

Las herramientas de monitoreo de red sofisticadas se denominan analizadores de protocolo. Los analizadores de protocolo capturan los paquetes o frames que se transmiten entre dos o más computadoras o dispositivos de red. El analizador luego decodifica (interpreta) los paquetes de modo tal que los datos puedan visualizarse en inglés (o en otro idioma) en contraposición al lenguaje binario. Un analizador de protocolo sofisticado también proporciona estadísticas e información sobre tendencias en el tráfico capturado. El término "sniffer" se usa a menudo para referirse a cualquier programa que permite "escuchar" el tráfico en la red. Network Associates hace el producto con la marca registrada Sniffer y su versión mejorada, Sniffer Pro. Ambos productos son analizadores de red. Los programas de sniffing tienen mala reputación en algunos círculos, porque los hackers y crackers pueden usarlos para extraer nombres de usuario y contraseñas que se envían a través de una red en texto claro. Estas credenciales luego se usan para obtener acceso no autorizado a sistemas. No obstante, los sniffers tienen muchos usos legítimos para los administradores de red:

· Análisis de problemas de conectividad · Análisis del desempeño · Detección de intrusiones

Microsoft System Monitor y Microsoft Performance Monitor System Monitor en Windows 2000 y Performance Monitor en Windows NT 4.0 miden el desempeño de una gran cantidad de componentes del sistema, incluyendo contadores de componentes de la red.

Estos monitores pueden mostrar valores en formato de gráfico, guardar los datos en un log, y compilar informes. Las mediciones pueden verse en tiempo real, actualizarse automáticamente o actualizarse bajo demanda. Performance Monitor y System Monitor pueden configurar alertas y enviar notificación cuando un valor especificado pasa arriba o abajo de un límite predefinido. Para identificar cuellos de botella en la red, contadores de interfaz de red como los siguientes deberán monitorearse:

· Total de bytes por segundo · Bytes enviados por segundo · Bytes recibidos por segundo

Page 348: Documento de Apoyo No. 4 Cisco It Essentials II

348

Estos contadores de objetos de capa del protocolo también pueden monitorearse:

· Segmentos recibidos por segundo · Segmentos enviados por segundo · Frames recibidos por segundo · Frames enviados por segundo

Monitorear estos contadores ayuda a planificar una capacidad de ancho de banda apropiada. Por ejemplo, si la cantidad total de bytes transferidos por segundo está cerca de o es igual a la capacidad máxima de un medio de red, alguno de los equipos deberá actualizarse (por ejemplo, de Ethernet de 10 Mbps a Ethernet de 100 Mbps) o el uso de la red deberá reducirse.

Microsoft Network Monitor System Monitor mide valores de red relacionados con el desempeño. Para capturar y analizar realmente los paquetes a medida que viajan por la red, debe usarse una herramienta diferente. Windows NT 4.0 y Windows 2000 incluyen una versión "light" del Microsoft Network Monitor, que es parte del Servidor de Administración del Sistema (SMS) de Microsoft. SMS se tratará en la sección de Administración de Red de este capítulo.

El monitor de red que viene con Windows NT y Windows 2000 es una herramienta funcional y útil para llevar a cabo un análisis de protocolo de rutina. La Figura muestra al Network Monitor monitoreando la utilización de la red, frames por segundo, y estadísticas de la red adicionales.

Network Monitor puede usarse para mostrar los frames individuales de datos capturados. La figura muestra que paquetes para varios protocolos diferentes han sido capturados, incluyendo TCP, UDP, y SMB.

11.5 Análisis y Optimización del Desempeño de la Red

11.5.6 Software para la administración de la red

La diferencia entre software de monitoreo de red y software de administración de red es que el último es generalmente más abarcativo. Aunque incluye componentes de monitoreo, puede hacer mucho más.

La administración de servicios de red es una gran parte de cualquier trabajo de un administrador de red, y esto es especialmente cierto en el entorno a nivel empresarial. Un administrador de red deberá familiarizarse con las herramientas que pueden hacer esta tarea más fácil. Esto incluye las funciones de administración que están incorporadas a los modernos sistemas operativos de red y los productos de software ofrecidos por fabricantes de sistemas operativos y terceros.

Page 349: Documento de Apoyo No. 4 Cisco It Essentials II

349

Administrar la red incluye una cierta cantidad de tareas:

· Documentación de los dispositivos de la red y el estado de cada uno · Creación de un inventario de software de red que permita la implementación de software y

actualizaciones por la red · Medición de software para proporcionar datos sobre qué aplicaciones se están usando y

cómo, cuándo y por quién están siendo usadas · Administración de las licencias de software · Control remoto de máquinas cliente y servidores a través de la red y administración de

escritorios remotos · Notificación a los administradores de eventos tales como fallo de componentes de la red o

una capacidad de disco predefinida que se alcanza o excede

Hay varios programas de administración de red (o, más precisamente, suites de programas) en el mercado. En esta sección, se examinan algunos de los más populares:

· Microsoft SMS · Novell ManageWise · IBM Tivoli Enterprise · Hewlett Packard OpenView

Estos productos están diseñados teniendo en mente la red grande, multisitio, empresarial. El software de administración de red que es apropiado para la LAN de tamaño pequeño a mediano incluye LANExplorer y Lanware Network Monitoring Suite.

Microsoft Systems Management Server (SMS) Microsoft SMS es un paquete de administración de red de alta potencia que proporciona un inventario de hardware y software instalando el agente del cliente en computadoras destino. La Figura muestra el recuadro de propiedades del Agente Cliente de Inventario de Hardware. SMS también permite capacidades de diagnóstico remotas, control remoto del escritorio, e implementación de software.

SMS también incluye una versión más robusta del Microsoft Network Monitor que la incorporada a los sistemas operativos Windows NT y Windows 2000. Por ejemplo, el Network Monitor del SMS agrega la capacidad de buscar routers en la red y resolver direcciones a partir de nombres.

Page 350: Documento de Apoyo No. 4 Cisco It Essentials II

350

Una de las características más útiles de SMS es su función de distribución de software. Con ella, se crea un paquete de distribución. El paquete contiene la información usada por SMS para coordinar la distribución del software como lo muestra la Figura .

SMS usa el servidor Microsoft SQL para almacenar datos, lo que significa que los datos pueden exportarse fácilmente a Microsoft Access. SMS incluye soporte para clientes Macintosh, y puede integrarse fácilmente a un entorno Novell NDS.

Novell ManageWise Novell ManageWise consiste en un grupo integrado de servicios de administración de red que pueden usarse para administrar servidores NetWare o, mediante la adición de un agente agregado, servidores Windows NT. Los componentes incluyen un análisis del tráfico de la red, control de estaciones de trabajo y servidores, y administración de aplicaciones de red. La consola de ManageWise también incluye la capacidad de mapear unidades de red.

Al igual que SMS, ManageWise puede crear un inventario de dispositivos de red. Además, incluye una función de alarma/notificación. ManageWise incluye el agente NetWare LANalyzer, el agente de administración, Intel LANDesk Manager, y protección contra virus LANDesk. ManageWise incluye el Administrador de Escritorio, como lo muestra la Figura .

El Administrador de Escritorio [Desktop Manager] permite ver los inventarios de hardware y software de la estación de trabajo. También habilita la transferencia de archivos, chat, control remoto, y reinicio de la estación de trabajo.

Page 351: Documento de Apoyo No. 4 Cisco It Essentials II

351

IBM Tivoli Enterprise Tivoli Enterprise es un paquete de administración de red popular que incluye herramientas diseñadas para proporcionar administración de bienes, administración de disponibilidad, administración de cambios, administración de operaciones, administración de seguridad, administración de servicios, y administración de almacenamiento. Tivoli Enterprise hace fácil implementar estos componentes en fases.

Tivoli Enterprise es capaz de proporcionar una vista completa de la topología de red. Herramientas de reporte permiten la personalización de la vista en la cual se presentan los datos, y pueden crearse "sets inteligentes" que agrupan los datos lógicamente y que ayudan a analizar la salud de la red. IBM Tivoli Enterprise se muestra en la Figura .

Tivoli también ofrece soluciones para pequeños negocios con Tivoli IT Director y para organizaciones de tamaño medio con las suites de administración Tivoli.

Hewlett Packard OpenView Las herramientas de administración de Hewlett Packard OpenView incluyen OpenView Enterprise para soluciones para empresas a gran escala y OpenView Express para compañías de tamaño mediano. OpenView Enterprise está diseñado para redes que tienen miles de servidores, y más de 5000 estaciones de trabajo que corran sistemas operativos de red Windows NT, Windows 2000, o UNIX. OpenView Express proporciona administración para servidores web, administración de servidores de correo Exchange, y redes modo mixto Windows NT y Windows 2000. El componente OpenView ManageX es una herramienta de administración de servidores y desempeño que puede usarse en entornos NT y NetWare.

11.5 Análisis y Optimización del Desempeño de la Red

11.5.7 Software de administración para redes de tamaño pequeño y mediano

Además de los productos de administración de red ofrecidos por compañías de software importantes como Microsoft, Novell, IBM, y Hewlett Packard, numerosas compañías más pequeñas hacen productos dirigidos al mercado de tamaño pequeño a mediano. Éstos incluyen a Lanware Network Monitoring Suite (NMS), que usa el Protocolo de Administración de Red Simple (SNMP). NMS proporciona funciones tales como la capacidad de reiniciar servicios, programar eventos y reiniciar servidores. NuLink ViewLAN es otra herramienta de administración y monitoreo basada en SNMP relativamente simple. En las siguientes secciones, se tratan SNMP y el Protocolo de Información de Administración Común (CMIP). Estos protocolos son la base de muchas de estas soluciones de software simples.

Page 352: Documento de Apoyo No. 4 Cisco It Essentials II

352

SNMP SNMP es un protocolo que se incluye en la mayoría de las implementaciones de TCP/IP. Tiene varias ventajas como solución de administración de red:

· Simplicidad · Bajo costo · Relativa facilidad de implementación · Baja sobrecarga en la red · Soportado por la mayoría de los dispositivos de hardware de red

SNMP usa una base de datos jerárquica llamada Base de Información de Administración (MIB) para organizar la información que reúne acerca de la red. Software llamado administrador SNMP se instala en una computadora host que se usa para recolectar los datos. El software del agente SNMP se instala en las computadoras de la red desde las cuales se recogen los datos. Versiones freeware tanto de adminitradores como agentes SNMP están disponibles para diversos sistemas operativos.

CMIP CMIP fue diseñado para mejorar SNMP y expandir su funcionalidad. Funciona de manera muy similar a SNMP, pero tiene mejores características de seguridad. Además, permite la notificación cuando ocurren eventos especificados.

Puesto que la sobrecarga para CMIP es considerablemente más grande que lo requerido para SNMP, es implementado menos extensamente. CMIP se basa en la suite de protocolos OSI, mientras que SNMP se considera parte de la suite TCP/IP.

11.5 Análisis y Optimización del Desempeño de la Red

11.5.8 Proveedor del Servicio de Administración (MSP)

Un nuevo desarrollo en la administración de red es el Proveedor de Servicio de Administración (MSP). Una compañía se suscribe a un servicio MSP, que proporciona monitoreo del desempeño y administración de la red. Esto ahorra a la organización el costo de comprar, instalar, y aprender a usar el software de monitoreo y administración. Un ejemplo de una compañía que proporciona outsourcing de tareas de administración de red es Luminate.Net, que proporciona una interfaz basada en la web para la interacción con los clientes.

Page 353: Documento de Apoyo No. 4 Cisco It Essentials II

353

11.5 Análisis y Optimización del Desempeño de la Red

11.5.9 Conceptos y componentes de SNMP

SNMP es el Protocolo de Administración de Red Simple. Ejecutándose en el puerto 161 por defecto, es la única forma de obtener estadísticas verdaderas sobre el uso de la red bajo TCP/IP. SNMP habilita a los administradores de red para detectar problemas remotamente y monitorear hubs y routers. Gran parte de SNMP está definido dentro de los RFCs 1157 y 1212, aunque muchos más RFCs tratan SNMP. SNMP puede hallarse junto con otros RFCs, en diversos sitios web, incluyendo http://rs.internic.net. También puede efectuarse una búsqueda de SNMP o RFC y encontrar información más específica relacionada con una parte específica de SNMP.

Usando SNMP, puede encontrarse información acerca de estos dispositivos remotos sin tener que estar físicamente en el dispositivo en sí. Ésta puede ser una herramienta muy útil si se comprende y usa apropiadamente. Algunos ejemplos son:

· Dirección IP de un router · Cantidad de archivos abiertos · Cantidad de espacio disponible en el disco rígido · Número de versión de un host (como Windows NT)

Antes de configurar SNMP, es necesario tener las direcciones IP o nombres de host de los sistemas que serán iniciadores o de aquéllos que responderán a las solicitudes. El Servicio SNMP de Microsoft, por ejemplo, usa la resolución de nombres de host regular de Windows NT, como HOSTS, DNS, WINS, y LMHOSTS. Por lo tanto, al usar uno de estos métodos de resolución, agregue el nombre de host correcto a la resolución de dirección IP para las computadoras que están siendo configuradas con SNMP. Los tipos de sistemas en los cuales pueden hallarse los datos incluyen los siguientes:

· Mainframes · Gateways y routers · Hubs y bridges · Servidores Windows NT · Servidores LAN Manager · Agentes SNMP

SNMP usa un diseño de arquitectura distribuida para facilitar sus propiedades. Esto significa que diversas partes de SNMP se extienden a través de la red para completar la tarea de recolectar y procesar los datos para proporcionar administración remota. Un Servicios SNMP de Microsoft

Page 354: Documento de Apoyo No. 4 Cisco It Essentials II

354

permite a una máquina ejecutando Windows NT poder transferir su condición actual a una computadora ejecutando un sistema de administración SNMP. No obstante, éste es sólo el lado del agente, no las herramientas de administración. Diversas utilidades de administración de terceros están disponibles, incluyendo las siguientes:

1. IBM NetView 2. Sun Net Manager 3. Hewlett-Packard OpenView

Agentes y Administración SNMP Hay dos partes principales de SNMP:

1. Lado de la administración La estación de administración es la ubicación centralizada desde la cual los usuarios pueden administrar SNMP.

2. Agente La estación agente es la pieza de equipo desde la cual los emisores intentan extraer los datos.

Las siguientes secciones tratan cada parte.

El Sistema de Administración SNMP El sistema de administración es el componente clave para obtener información del cliente. Al menos un sistema de administración es necesario para poder usar el Servicio SNMP. El sistema de administración es responsable de "hacer las preguntas". Como se mencionó anteriormente, puede hacer a cada dispositivo una cierta cantidad de preguntas, dependiendo del tipo de dispositivo.

Ademas, determinados comandos pueden emitirse específicamente en el sistema de administración. La Figura muestra los comandos genéricos no específicos a ningún tipo de sistema de administración directamente.

Usualmente, solamente un sistema de administración está ejecutando el Servicio SNMP por grupo de hosts. Este grupo se conoce como comunidad. No obstante, más sistemas de administración pueden ser deseables por las siguientes razones:

· Varios sistemas de administración pueden hacer diferentes solicitudes a los mismos agentes.

· Diferentes sitios de administración pueden existir para una única comunidad. · Diferentes sistemas de administración pueden ser necesarios para ayudar a diferenciar

ciertos aspectos de la comunidad a medida que la red crece y se hace más compleja.

El Agente SNMP Anteriormente, se ha explicado de qué es responsable el lado de administración SNMP y qué puede hacer específicamente. En su mayor parte, el lado de administración es el componente activo para obtener información. El agente SNMP, por otro lado, es responsable de cumplir con las solicitudes y responder al administrador SNMP según corresponda. En general, el agente es un

Page 355: Documento de Apoyo No. 4 Cisco It Essentials II

355

router, servidor o hub. El agente es usualmente un componente pasivo que sólo responde a una solicitud directa.

En una única instancia en particular, el agente es el iniciador, actuando por su cuenta sin una solicitud directa. Este caso especial se denomina "trampa". Se tiende una trampa desde el lado de administración al agente. Pero la administración no necesita ir hacia el agente para averiguar si se ha caído en la información trampa. El agente envía un alerta al sistema de administración diciéndole que el evento ha ocurrido. La mayor parte del tiempo, el agente es pasivo excepto en esta única ocasión.

11.5 Análisis y Optimización del Desempeño de la Red

11.5.10 Estructura y funciones de SNMP

Ahora que se han tratado el sistema de administración y los agentes, exploraremos los diferentes tipos de bases de datos de consultas.

Base de Información de Administración (MIB) Los datos que el sistema de administración solicita a un agente están contenidos en la Base de Información de Administración (MIB). Ésta es una lista de preguntas que el sistema de administración puede hacer. La lista de preguntas depende de acerca de qué tipo de dispositivo se está preguntando. La MIB es la base de datos de información contra la que puede consultarse. El tipo de sistema que es determina qué puede consultarse específicamente. La MIB define qué tipo de objetos pueden consultarse y qué tipo de información está disponible acerca del dispositivo de red. Por ejemplo, hay MIBs para routers, hubs, switches, computadoras, e incluso algunos paquetes de software, como sistemas de base de datos. La MIB contiene una lista de los elementos que pueden ser administrados por SNMP en el dispositivo asociado con la MIB. Una variedad de bases de datos MIB pueden establecerse. La MIB se almacena en el agente SNMP. Estas MIBs están disponibles tanto para los sistemas agete y de administración como referencia de la que ambos pueden extraer información.

El Servicio Microsoft SNMP, por ejemplo, soporta las siguientes bases de datos MIB:

· Internet MIB II · LAN Manager MIB II · DHCP MIB · WINS MIB

Estructura de la MIB El espacio de nombre para objetos MIB es jerárquico. Está estructurado de esta manera para que a cada objeto administrable pueda asignársele un nombre globalmente único. Ciertas organizaciones tienen la autoridad para asignar el espacio de nombre a partes del diseño de árbol. La estructura MIB es similar a las direcciones TCP/IP. Obtener solamente una dirección de la InterNIC y luego aplicar subnetting de acuerdo a lo necesario. No es necesario contactarlos para preguntar acerca de cada asignación de direcciones. Lo mismo se aplica aquí. Las organizaciones pueden asignar nombres sin consultar a la autoridad de Internet por cada asignación específica.

Instalación y Configuración de SNMP SNMP permite a una consola de administración SNMP administrar dispositivos que tengan un agente SNMP instalado en ellos. SNMP fue diseñado para hacer posible administrar dispositivos de red, como routers. No obstante, el uso de SNMP ha sido expandido para permitirle poder administrar prácticamente cualquier dispositivo, incluyendo una computadora, conectado a una red. Instale el agente SNMP en el sistema operativo de red. Para instalar el agente SNMP en el sistema operativo de red, siga las instrucciones que vienen con el sistema operativo de red. Una vez instalado el agente SNMP, debe configurarse con un nombre de comunidad SNMP. El nombre de comunidad SNMP por defecto es Public. Siempre cambie esto a otra cosa que no sea Public. El nombre de comunidad es un mecanismo primitivo de contraseña. La consola de administración SNMP y los agentes SNMP con el mismo nombre de comunidad SNMP pueden intercambiar información. Si los nombres de comunidad SNMP difieren, no podrán comunicarse. El agente

Page 356: Documento de Apoyo No. 4 Cisco It Essentials II

356

SNMP sabe qué monitorear en el dispositivo de red mirando la Base de Información de Administración (MIB) del dispositivo. Cada dispositivo de red único tiene una MIB única definida. Por ejemplo, hay MIBs para routers, hub, switches, computadoras, e incluso algunos paquetes de software, como sistemas de base de datos. La MIB contiene una lista de los elementos que pueden ser administrados por SNMP en el dispositivo asociado a la MIB.

Lo Que Hace Realmente SNMP El siguiente ejemplo rastrea una muestra de tráfico SNMP entre un administrador y el agente. Recuerde que en la vida real, se utilizará software de administración, como OpenView de HP. Este software permite a los usuarios ver las MIBs y consultar sin conocer todos los números.

1. El sistema de administración SNMP hace una solicitud de un agente usando la dirección IP o nombre de host del agente.

· La solicitud es enviada por la aplicación al puerto UDP 161. · El nombre de host se resuelve a una dirección IP. Si se usó un nombre de host,

usando métodos de resolución de nombre de host; localhost, HOSTS file, DNS, WINS, broadcast, o archivo LMHOSTS, el paquete SNMP se configura con la información enumerada dentro, y enruta el paquete al puerto UDP 161 del agente.

· El comando para los objetos: get, get-next, set. · El nombre de comunidad y cualquier otro dato especificado.

2. Un agente SNMP obtiene el paquete y lo coloca en su buffer. · Se verifica la validez del nombre de comunidad. Si no es correcto o está

corrompido, el paquete se rechaza. · Si el nombre de comunidad se aprueba, el agente verifica si el nombre de host o

dirección IP originante también es correcto. Si no, se lo expulsa. · La consulta se pasa luego a la librería de vínculos dinámicos (DLL) correcta, como

se describe en la sección precedente sobre MIBs. · El identificador de objetos se mapea a la interfaz de aplicación-programación (API)

y esa llamada se hace. · La DLL envía los datos al agente.

3. El paquete SNMP se entrega al administrador SNMP con la información solicitada.

Comunidades SNMP Una comunidad es un grupo de hosts ejecutando el Servicio SNMP al cual todos pertenecen. Éstos usualmente consisten en al menos un sistema de administración y varios agentes. La idea es organizar lógicamente sistemas en unidades organizativas para una mejor administración de la red.

Las comunidades se llaman según un nombre de comunidad. Este nombre es sensible al uso de mayúsculas y minúsculas. El nombre de comunidad por defecto es "public" y en general todos los hosts pertenecen a él. También por defecto, todos los agentes SNMP responden a cualquier solicitud usando el nombre de comunidad "public". Usando nombres de comunidad únicos, pueden proporcionarse una seguridad limitada y segregación de hosts. Los agentes no aceptan solicitudes ni responden a hosts que no sean de su comunidad configurada. Los agentes pueden ser miembros de varias comunidades simultáneamente, pero deben configurarse explícitamente como tales. Esto les permite responder a diferentes administradores SNMP desde diversas comunidades.

Page 357: Documento de Apoyo No. 4 Cisco It Essentials II

357

Seguridad Realmente no hay una seguridad establecida en SNMP. Los datos no son cifrados, y no hay configuración para detener a alguien que quiera acceder a la red, descubrir los nombres de comunidad y direcciones usados, y enviar falsas solicitudes a los agentes.

Una razón importante por la que la mayoría de las MIBs son de sólo lectura es para que no puedan hacerse cambios sin autorización. La mejor seguridad es usar nombres de comunidad únicos. Elija Enviar Trampa de Autenticación, especifique un Destino para la Trampa, y estipule Sólo Aceptar Paquetes SNMP de Estos Hosts. Además, pueden configurarse trampas que permitan a los usuarios saber si los agentes reciben solicitudes de comunidades o direcciones no especificadas. De esta manera, la actividad SNMP no autorizada puede rastrearse.

Parámetros de Seguridad SNMP Pueden configurarse varias opciones que afectan la seguridad del agente SNMP. Por defecto el agente responde a cualquier administrador que use el nombre de comunidad "public". Puesto que esto puede estar dentro o fuera de la organización, como mínimo el nombre de la comunidad deberá cambiarse.

Agente SNMP En algunos casos se configurarán otros aspectos del agente SNMP. Éstos configuran el tipo de dispositivos que los usuarios monitorearán y quién es responsable del sistema.

Las opciones disponibles en esta pantalla son las siguientes:

· El nombre de contacto de la persona a ser alertada acerca de las condiciones en esta estación. En general, éste es el usuario de la computadora.

· La ubicación es un campo descriptivo para la computadora para ayudar a mantener un rastreo del sistema que envía la alerta.

La última parte de la pantalla identifica los tipos de conexiones/dispositivos que este agente monitoreará. Éstos incluyen:

· Físico Administración de dispositivos físicos como repetidores o hubs. · Aplicación Se lo configura si la computadora Windows NT usa una aplicación que usa

TCP/IP. Tilde este recuadro cada vez. Sólo por usar SNMP, deberá tener TCP/IP configurado.

· Enlace de Datos/Subred Para administrar un bridge. · Internet Hace que la computadora Windows NT actúe como gateway IP, o router. · Extremo a Extremo Hace que la computadora Windows NT actúe como host IP. Tilde este

recuadro cada vez, ya que lo más probable es que el usuario sea un host IP.

Cualquier error con SNMP se registra en el log del sistema. El log registra cualquier actividad SNMP. Use el Visor de Eventos para mirar los errores y encontrar el problema y las posibles soluciones.

Notificación Remota La única mejor manera de ser notificado de situaciones cuando surgen es mediante SNMP, que se trató antes. SNMP es una aplicación de TCP/IP y disponible para cualquier red que use TCP/IP como protocolo de red. Esto lo hace disponible para Windows 2000, Windows NT, Linux, OS/2, etcétera.

Comprenda que la notificación es posible usando SNMP. Variará según el sistema operativo. Dentro de Windows 2000, por ejemplo, los usuarios pueden establecer umbrales para enviar notificación cuando existan las condiciones, como cuando la memoria disponible en una máquina cae por debajo de un nivel especificado.

Page 358: Documento de Apoyo No. 4 Cisco It Essentials II

358

Resumen

Este capítulo trató la administración avanzada de un Sistema Operativo de Red (NOS). Algunos de los conceptos importantes a retener de este capítulo incluyen los siguientes:

· Existen cuatro tipos de backups. Ellos son completo, parcial, incremental y diferencial. Automatizar el proceso de backup no sólo incrementa la consistencia del mismo, sino que también otorga a los administradores de sistemas más tiempo para tratar otros problemas acuciantes de la red.

· El mapeo de unidades crea una ruta o mapa a través de la red a la unidad o carpeta compartida. Es una herramienta útil que permite a un administrador compartir recursos que están almacenados en un servidor. Los recursos que están en el otra computadora de un usuario final pueden mapearse también. Asignar un permiso permite al administrador del sistema controlar los grupos y usuarios que pueden acceder a la unidad o carpeta.

· El administrador del sistema administra los recursos de la unidad de disco rígido usando administración de disco. Los mensajes de alerta automatizados notifican al administrador de sistemas cuando el espacio disponible en disco cae por debajo de un nivel predeterminado. Otras herramientas que están disponibles son las cuotas. Una cuota actúa como techo de almacenamiento para limitar la cantidad de datos que cada usuario puede almacenar en la red.

· La mayoría de los sistemas operativos proporcionan un medio de escribir automáticamente en un archivo de registro del sistema. Este archivo detalla fallos de dispositivos, intentos fallidos de comunicación, y otras condiciones de error. La información es un útil punto de inicio para resolver problemas. Por ejemplo, Windows NT y Windows 2000 proporcionan el Visor de Eventos, que muestra una lista de eventos del sistema.

· La primera regla para resolver problemas es verificar la conectividad física. Una vez verificada, hay un conjunto de pasos para cada caso de resolución de problemas para asegurar que todo esté cubierto. Éstos incluirían identificación del problema, recreación del problema, aislamiento, inicio de una respuesta, e implementación del plan de corrección, prueba de a respuesta, documentación de los resultados, y provisión de feedback al usuario final.

12. Instalación y mantenimiento del hardware en Linux Descripción general

La mayor parte de las distribuciones Linux actuales han evolucionado para ser capaces de auto-detectar y configurarse a sí mismas para usar el software durante o después de la instalación. No obstante, habrá situaciones cuando el proceso de auto-detección no ocurrirá. A veces es necesario configurar manualmente el nuevo hardware o valerse sin la configuración automática. Este capítulo trata cómo configurar manualmente nuevo hardware con el diverso hardware que se usa en un sistema Linux. Este capítulo también trata instalaciones especiales y trucos que será preciso realizar al instalar Linux en una laptop o dispositivo móvil.

12.1 Términos, Conceptos y Componentes de Hardware

12.1.1 Descripción general de los componentes de hardware

A lo largo de este curso, se ha aprendido a instalar, mantener y solucionar problemas de hardware en un entorno Windows. También hemos descubierto que los entornos Linux/Unix son diferentes del entorno Windows. Por lo tanto, en este capítulo, aprenderemos cómo identificar, instalar, mantener y solucionar problemas apropiadamente en hardware en lo que atañe específicamente a un sistema Linux, ya que los sistemas Windows y Linux pueden ser muy diferentes.

Uno de los primeros elementos que necesitan tenerse en cuenta al reunir hardware para instalar en un sistema Linux es la compatibilidad. Linux ha hecho progresos en proporcionar soporte a una

Page 359: Documento de Apoyo No. 4 Cisco It Essentials II

359

gran cantidad de hardware. No obstante, Linux no es compatible con tantas piezas de hardware como lo es un sistema Windows. Esto es especialmente cierto en el caso de las placas de video, placas de red, adaptadores host SCSI, y placas de sonido. Estos componentes tienen diversos problemas de compatibilidad con los sistemas Linux. Investigar un poco en la obtención del hardware correcto que funcionará en un sistema Linux puede ahorrar mucho tiempo y problemas en el futuro.

Hasta ahora la mayor parte de este curso se ha concentrado principalmente en la administración del software Linux. No obstante, el software es sólo un aspecto de los deberes de los cuales es responsable un administrador de sistemas. La administración del hardware Linux es tan importante como el conocimiento de cómo administrar el sistema operativo Linux. Al menos la mitad del tiempo de un administrador de sistemas se emplea administrando hardware. Por lo tanto, lo mejor es primeramente proporcionar un informe detallado de los diversos componentes de hardware que el administrador usará o encontrará en un sistema Linux en lo que se relacionan a sistemas Linux específicamente.

La primera pieza de hardware que necesita mencionarse es el motherboard, que se muestra en la Figura . El motherboard es el componente al cual otros componentes se conectan. Incluso los dispositivos externos, que se conectan a través de los puertos USB, serial o paralelos, se conectan al motherboard. Otras piezas de hardware pueden reemplazarse sin hacer que el sistema se cuelgue si fallan. No obstante, si el motherboard falla, el sistema no operará.

El motherboard también determina qué tipo de CPU y RAM deben instalar los usuarios en sus sistemas. Esto es particularmente importante si un usuario está seleccionando un motherboard a instalar en un sistema Linux. Como se mencionó en capítulos anteriores, una distribución determinada puede usar sólo determinado procesador. Esto convierte a la elección del motherboard correcto para un sistema Linux un paso muy importante. La CPU es lo que se conoce como el cerebro de un sistema informático porque lleva a cabo todo el "pensamiento" o cálculos. Es importante elegir una CPU compatible con el sistema Linux. La memoria es otro componente de hardware crucial en cualquier computadora. El término memoria se refiere usualmente a la RAM. Al instalar RAM, lo cual se muestra en la Figura , los usuarios no tienen realmente que preocuparse por la compatibilidad con Linux. El usuario puede instalar cualquier RAM de cualquier fabricante en un sistema Linux. Los únicos problemas de compatibilidad con la RAM son que el usuario debe instalar el tipo correcto de RAM para el motherboard que selecciona. Por ejemplo, si el usuario selecciona un motherboard que sólo soporta RAM dinámica síncrona (SDRAM), el usuario debe adquirir e instalar SDRAM. De igual forma, si el motherboard sólo soporta Rambu DRAM (RDRAM) o DDR-RAM, entonces el usuario debe instalar ese tipo de RAM.

Page 360: Documento de Apoyo No. 4 Cisco It Essentials II

360

Una vez seleccionado el motherboard, CPU y paquete de memoria para el sistema Linux, hay que pensar en qué otro hardware es necesario agregar al sistema. El tipo de hardware necesario depende mucho del uso del sistema Linux o de si el sistema está pensado para ser un servidor. Si el sistema sólo se utilizará para procesamiento de texto básico, e-mail y acceso a Internet, entonces el hardware necesario es una unidad de disco rígido de poca capacidad, que se muestra en la Figura , una unidad de CD-ROM, que se muestra en la Figura , y una placa de video de bajo costo, que se muestra en la Figura . El usuario podría necesitar hardware más costoso si el usuario necesita un sistema para editar video, CAD, otro software de dibujo arquitectónico, o si el usuario necesita un sistema para hacer muchos cálculos matemáticos. Estos sistemas necesitarán características tales como:

· Procesadores más rápidos · Más RAM · Placas de video más caras · Unidades de disco rígido más rápidas y de mayor capacidad · Mejores monitores · Unidades de CD-RW y DVD-RW · Parlantes

Page 361: Documento de Apoyo No. 4 Cisco It Essentials II

361

Si el sistema es un servidor, entonces monitores, parlantes o placas de video de alta potencia no serán necesarios. No obstante, puede ser necesario instalar procesadores, RAM, unidades de disco rígido, o controladores RAID de alta potencia en servidores.

La principal consideración en el caso de los sistemas Linux es la compatibilidad y el soporte de controladores. Esto es de mayor importancia al instalar placas de video y placa de sonido por razones que ya se han tratado en capítulos anteriores. También es importante recordar que si un administrador está instalando unidades de disco rígido SCSI u otros dispositivos SCSI, será necesario que instale drivers para los controladores SCSI. 12.1 Términos, Conceptos y Componentes de Hardware

12.1.2 Unidad Central de Procesamiento (CPU)

Los tipos de CPUs que son compatibles con las diferentes distribuciones importantes de Linux se trataron en los capítulos anteriores. Esta sección trata las especificaciones acerca de estos procesadores y cómo se relacionan en general a los sistemas Linux. Los procesadores principales en los cuales se instalará un sistema Linux son Intel, AMD serie K6, Athlon y Duron.

Originalmente, Linux fue desarrollado para Intel 80x86. Este sistema también se denominaba procesador x86. Linux fue desarrollado en el sistema 386 y aún puede ejecutárselo en ese sistema hoy. Los usos para tal sistema se mencionaron en capítulos anteriores. Linux también es compatible con la subsecuente familia de procesadores Intel, como el 486 y toda la clase de procesadores Pentium.

Otros chips x86 compatibles de otros fabricantes como los procesadores Athlon, Duron y AMD K6 también son compatibles con Linux. La Figura muestra un ejemplo de un procesador. Otros fabricantes también producen procesadores compatibles con x86. No obstante, estos procesadores se quedan atrás substancialmente en velocidad y rendimiento. No se tratarán en este curso. En capítulos anteriores se aprendió que otras distribuciones podían ejecutarse en otros tipos de procesadores también. Es en general más eficaz en materia de costos usar los procesadores x86 y Linux parece correr mejor en los procesadores x86. Se recomienda usar procesadores x86 en los sistemas Linux cada vez que sea posible.

Page 362: Documento de Apoyo No. 4 Cisco It Essentials II

362

El desempeño de la CPU se mide en velocidad de reloj. Esta velocidad se calcula por la cantidad de pulsos que la CPU produce en una cantidad de tiempo específica. Estas velocidades de pulsaciones se miden en megahertz (MHz) o gigahertz (GHz, 1 GHz equivale a 1000 MHz). Así, diferentes procesadores pulsan a diferentes velocidades. Por ejemplo, un procesador Pentium 4 de 2,4 GHz es más rápido que un procesador Pentium III de 1,3 GHz. Las primeras CPUs se medían en megahertz porque era impensable que algo por encima del nivel de los 1000 MHz o 1 GHz fuera posible. Esta medición es útil al determinar el rendimiento de un procesador sobre otro. También es importante notar que al comparar dos procesadores de diferentes fabricantes (incluso aunque publiciten la misma velocidad de reloj), eso no significa que sean equivalentes. Por ejemplo, un procesador Pentium de 1,5 GHz podría ser más rápido que un procesador AMD de 1,5 GHz. Si se comparan dos procesadores de diferentes fabricantes busque el valor MIPS (Millones de Instrucciones Por Segundo) o alguna prueba que sea relevante al tipo de trabajo a llevar a cabo con el procesador. El valor MIPS será una mejor representación para comparar dos procesadores de diferentes fabricantes de igual velocidad reloj.

12.1 Términos, Conceptos y Componentes de Hardware

12.1.3 Hardware de video

Seleccionar y configurar hardware de video, Figura , para un sistema Linux es una tarea más complicada. Los sistemas Linux que sólo han de ser usados como servidores no necesariamente tienen que relacionarse con qué placa de video está instalada. Puede instalarse una placa de video de bajo costo y baja potencia que el kernel Linux ya soporte. El tipo de placa de video es una preocupación cuando está instalado el componente X server. El X server proporciona la GUI. No obstante, esta tarea no es tan simple al diseñar un sistema para usuarios. Qué tareas hará este usuario con el sistema dependerá de qué placa de video se seleccione. Esto hace de elegir una placa de video que sea compatible con Linux un proceso difícil. También hace difícil a la documentación acerca de la instalación de Linux.

Los controladores que un sistema Linux usa para operar la placa de video en la GUI no están ubicados en el kernel. Éstos son parte del X server. Surgirán problemas de compatibilidad al encontrar una combinación de placa de video y X server. Por esta razón es inteligente investigar las placas de video que son compatibles con el X server que se está usando. Comience determinando

Page 363: Documento de Apoyo No. 4 Cisco It Essentials II

363

si se está usando el X server por defecto y de fuente abierta, XFree86, o si se está usando uno de los X servers comerciales que se mencionaron en capítulos anteriores. No planee usar una de las nuevas placas de video del mercado a menos que use uno de los X servers comerciales. Esto reducirá levemente el campo de la selección. En general, los controladores se hacen disponibles para el soporte de un X server comercial antes que XFree86 lance controladores compatibles. Dependiendo de las necesidades del usuario, un X server comercial puede ser una mejor opción si se necesita una placa de video en particular.

Otra importante característica de la placa de video que ayudará a determinar qué clase de placa de video instalar es cuánta RAM tiene la placa de video. Las placas de video fabricadas hoy tienen sustanciales cantidades de RAM instaladas en ellas. Esto tiene como propósito sacar la carga de la RAM del sistema. Las GUIs de los sistemas operativos y los juegos han avanzado tanto que requieren una cantidad decente de RAM sólo para manejar la carga de trabajo. Sin tener RAM instalada en la placa de video en sí, la RAM del sistema se consumiría, y no quedaría memoria para las aplicaciones y procesos. Esto haría que el sistema corriera a velocidades extremadamente lentas, haciéndose inútil, o que directamente se colgara.

12.1 Términos, Conceptos y Componentes de Hardware

12.1.4 Hardware y componentes misceláneos

La mayor parte del hardware instalado en un sistema Linux funcionará porque es conocido en general como hardware independiente del sistema operativo. Esto también es cierto al instalar el sistema operativo Linux en un sistema existente donde ya se ha instalado el hardware. Hardware independiente del sistema operativo simplemente significa que independientemente de qué sistema operativo se use habrá poca o ninguna configuración, y muy pocos o ningún problema de compatibilidad.

Un ejemplo de hardware independiente del sistema operativo es el gabinete de la computadora. Al seleccionar esta pieza de hardware preste mucha atención a su compatibilidad con el otro hardware que ha de instalarse en el sistema. Por ejemplo, primero asegúrese de que el motherboard entre en el gabinete de modo tal que los slots y puertos de la parte trasera del motherboard se alineen con los slots de la parte trasera del gabinete. Además, asegúrese de que haya los suficientes huecos para las unidades de CD, DVD, CD-R, DVD-R, unidades de disco rígido removibles, o ventiladores que necesiten instalarse. Asegúrese de que el gabinete vaya a proporcionar el espacio suficiente para el tipo de disposición de unidad de disco rígido que se vaya a instalar. La mayoría de los gabinetes proporcionarán el espacio suficiente para al menos dos unidades de disco rígido. Si hay más de dos unidades de disco rígido, o si se está construyendo un servidor que pueda tener varios discos rígidos, obtenga un gabinete de computadora que tenga el espacio necesario.

Otros ejemplos de hardware independiente del sistema operativo son los mouse, teclados, monitores, disqueteras y unidades de cinta. Estas piezas de hardware funcionan independientemente del sistema operativo instalado. No deberían requerir ninguna configuración ni representar ningún problema serio de compatibilidad. Cierto hardware requerirá una configuración especial si se instala en un sistema Linux. Los siguientes dispositivos pueden requerir controladores o configuraciones especiales antes de operar apropiadamente con Linux:

Dispositivos USB En un sistema Linux, instale un controlador por cada dispositivo USB instalado. Algunos de los últimos kernels Linux proporcionan soporte para algunos dispositivos USB. No obstante, el soporte no es universal. Esto significa que a menudo se necesitan otros controladores. Para averiguar qué dispositivos USB se soportan visite http://www.linux-usb.org. La Figura muestra un ejemplo de una unidad de CD-ROM USB.

Page 364: Documento de Apoyo No. 4 Cisco It Essentials II

364

Placas de sonido Secciones anteriores ya han enunciado que Linux tiene problemas de compatibilidad con placas de sonido. Hay varias placas de sonido que soporta el kernel, no obstante placas de sonido no soportadas pueden usarse si se obtienen los controladores correctos, se los instala y configura apropiadamente. La Figura muestra un ejemplo de una placa de sonido típica.

Placas de Captura de Video Las placas de captura de video son un área relativamente nueva que se está haciendo cada vez más popular. Esto incluye el video digital y las cámaras fijas así como placas internas que aceptan señales de entrada de televisión. El soporte de Linux para estos dispositivos es irregular como mucho. No obstante, actualmente se está trabajando para investigar placas de de captura de video y proporcionar más soporte para este tipo de hardware. En el proyecto Video4Linux están actualmente trabajando para desarrollar herramientas y soporte para estos dispositivos. Para enterarse de más, visite su sitio web en http://www.exploits.org/v4l. Siempre verifique para asegurarse de que el hardware es soportado antes de adquirir e instalar equipamiento costoso.

Módems Internos Tal como se mencionó anteriormente, Linux tiene problemas también con algunos módems internos. Esto se debe a que los módems internos de hoy son módems de software que dejan que la CPU haga algo del trabajo del módem. Estos tipos de módems requieren controladores que pueden no ser soportados en Linux. Lo mejor es usar un módem más antiguo o verificar para ver si el fabricante tiene controladores para sistemas Linux. La Figura muestra un ejemplo de un módem.

Page 365: Documento de Apoyo No. 4 Cisco It Essentials II

365

El foco principal al instalar hardware en un sistema Linux es la compatibilidad. Saber qué hardware es completamente soportado por Linux y de qué hardware Linux no tiene los últimos controladores para soportarlo ahorrará tiempo y frustración. Sea cuidadoso respecto a agregar hardware a un sistema Linux sin verificar primero la compatibilidad. Encontrar hardware para el cual los fabricantes hayan escrito los controladores Linux puede ser difícil. Por lo tanto, es una buena idea estar seguro de que los controladores correctos pueden localizarse para el dispositivo de hardware antes de adquirir o instalar cualquier hardware en un sistema Linux. 12.1 Términos, Conceptos y Componentes de Hardware

12.1.5 Dispositivos de monitoreo de hardware

La mayor parte de los dispositivos de hardware que se usan para el monitoreo y administración de la red son meramente computadoras dedicadas que ejecutan software de análisis de protocolo o administración de red propietario. A menudo se trata de computadoras portátiles. Algunos dispositivos que pueden resultar útiles para detectar y solucionar problemas en la red incluyen a los siguientes:

Generador/localizador de tonos (zorro y sabueso) La porción "zorro" puede conectarse a un extremo del cable, y se genera un tono. Un localizador, o "sabueso", al otro extremo recibe el tono. Esto muestra que el cable correcto se ha identificado. La Figura muestra un ejemplo de zorro y sabueso.

Cable cruzado El cable cruzado es un cable de Par Trenzado Sin Blindaje (UTP) Ethernet en el cual dos de los pares de alambres están cruzados. Normalmente en UTP, el pin 1 se conecta con el pin 1 del otro extremo, el pin 2 se conecta con el pin 2, etcétera. En el caso del cable cruzado, los pines 1 y 2 se conectan con los pines 3 y 6 del otro extremo, y los pines 3 y 6 se conectan a los pines 1 y 2. El cable cruzado se usa para conectar dos computadoras sin pasar por un hub. También se usa para conectar dos hubs cuando no hay un puerto enlace arriba. La Figura muestra el esquema de colores para un extremo de un cable cruzado.

Page 366: Documento de Apoyo No. 4 Cisco It Essentials II

366

Reflectómetro de dominio de tiempo (TDR) Con un TDR, un pulso similar al de un sonar se envía a través del cable. El pulso se mide para localizar cortos o roturas en el cable. La Figura proporciona ejemplos de TDRs típicos.

Loopback de hardware Este dispositivo se conecta al puerto serial para enviar datos, que luego se "reflejan" para ser recibidos por la misma computadora. Esto hace posible una posible una prueba del puerto serial sin un módem u otro dispositivo conectado a la computadora.

Medidor de volts-ohms digital El medidor de volts-ohms, o voltímetro, se usa para medir impulsos electrónicos a través del cable y para determinar si hay cortos o roturas en el cable. La Figura muestra un ejemplo de un medidor de volts-ohms digital.

Page 367: Documento de Apoyo No. 4 Cisco It Essentials II

367

Probador de cables Un probador de cables se usa para detectar roturas y cortos. Un probador de cables avanzado puede mostrar información adicional acerca de la condición y propiedades del cable. La Figura muestra un ejemplo de un probador de cables.

Osciloscopio Un osciloscopio se usa en calibración electrónica. También se lo usa para medir el voltaje digital que pasa a través de un cable. La salida va a un pequeño monitor en forma de onda. Esto puede mostrar la atenuación ocasionada por cortos o alambres crimpeados en el cable. La Figura muestra un ejemplo de un osciloscopio.

Medidor de LAN Un medidor de LAN puede verificar broadcasts, colisiones, niveles de uso, y errores en LANs Ethernet y Token Ring. Puede medir el throughput a través de las WANs. Un medidor de LAN también puede identificar dispositivos conectados a la red. La Figura muestra un ejemplo de un medidor de LAN.

Page 368: Documento de Apoyo No. 4 Cisco It Essentials II

368

12.2 Instalación, Configuración y Mantenimiento del Hardware

12.2.1 Localización de controladores de hardware para Linux

Las secciones anteriores trataron determinadas piezas de hardware usadas en sistemas informáticos, instalación, y configuración de algún hardware en los sistemas Linux, como impresoras. Se reconoció que instalar y configurar hardware en Linux no es tan fácil y sin complicaciones como lo es en un sistema Windows. Un ejemplo de un capítulo anterior es que las impresoras operan externamente y los controladores están ubicados en Ghostscript.

Instalar y configurar hardware en un sistema Windows no siempre es la cosa más fácil de hacer. Ocasionalmente pueden surgir problemas de compatibilidad, pero en su mayor parte el soporte siempre estará disponible. Puesto que los sistemas operativos Windows son comercialmente populares, los fabricantes de hardware necesitan asegurarse de que sus productos tengan controladores que soporten a la familia de sistemas operativos Windows. Junto con este amplio rango de soporte de hardware para los sistemas Windows, instrucciones detalladas de instalación también se proporcionan con el hardware. Las instrucciones vienen con el dispositivo o pueden estar localizadas en el sitio web del fabricante. Este soporte y compatibilidad de amplio rango de hardware no es tan prevaleciente, y en algunos casos es inexistente para los sistemas Linux. La mayoría de los usuarios deben hallar su propio camino para instalar y configurar hardware en los sistemas Linux. Algunos fabricantes de hardware ni siquiera tienen controladores disponibles para Linux. Incluso cuando hay controladores disponibles, en ocasiones éstos no vienen con el producto. Los controladores necesitan localizarse con proveedores de terceros, o hallarse en algún otro lado. La documentación acerca de la instalación o configuración en los sistemas Linux también es mucho más difícil de encontrar. Existen varias fuentes posibles de controladores de hardware para un sistema Linux. En un sistema Linux, el kernel servirá como interfaz entre el sistema operativo, que es el software, y el hardware. La mayoría de los controladores Linux están ubicados inicialmente en el kernel Linux, o son agregados a él de alguna forma. Algunos controladores de hardware como impresoras, escáners y placas de video no se localizan en el kernel. Estos dispositivos residen externamente en software fuera del kernel. Un ejemplo de controladores de hardware son los controladores de impresora en un sistema Linux. Están ubicados en el software de cola de impresión Ghostscript. Ubicaciones posibles de controladores Linux se enumeran a continuación.

Nuevos Controladores en el Kernel Nuevos controladores se hacen disponibles para el hardware que se descarga de los sitios web de los fabricantes. A veces estas actualizaciones se hacen disponibles a través de una nueva versión del kernel.

Kernel Linux Como se mencionó previamente, muchos controladores Linux se localizan en el árbol del kernel principal. El kernel deberá ser el primer lugar para buscar controladores. La mayoría de las distribuciones no compilarán estos controladores directamente en el kernel por lo que a veces es necesario recompilar o actualizar el kernel para obtener acceso a los controladores.

Page 369: Documento de Apoyo No. 4 Cisco It Essentials II

369

Fabricantes de Hardware/Dispositivos Tal como se mencionó anteriormente, puede ser difícil encontrar controladores para Linux porque algunos fabricantes no hacen controladores soportados por los sistemas operativos Linux. No obstante, más fabricantes están comenzando a hacer controladores para sistemas Linux.

Dispositivos USB Los kernels que vienen con las últimas distribuciones de Linux proporcionan un maravilloso soporte para controladores USB. Estas distribuciones soportan una amplia variedad de dispositivos USB incluyendo teclados, mouse, módems externos, impresoras, unidades zip, e impresoras. Recuerde que algunos dispositivos USB como escáners e impresoras requieren paquetes secundarios. Los paquetes secundarios incluyen controladores para cosas como Ghostscript. Para más información acerca de dispositivos compatibles con USB con Linux diríjase a http://www.linux-usb.org.

Ghostscript Como se mencionó anteriormente en este capítulo, los controladores de impresoras están ubicados en el software de impresión Ghostscript.

Módems de Software Existen dos tipos de módems, externos e internos. Los módems externos son compatibles con el controlador de puerto serial estándar de Linux. Los módems internos o módems de software tienen un soporte limitado a los controladores en sistemas Linux. Una buena referencia al instalar cualquier módem de software en un sistema Linux es http://www.linmodems.org. Este sitio contiene más información acerca de controladores para módems de software para Linux.

Controladores para Placa de Sonido El kernel Linux que viene con la mayoría de las distribuciones de Linux soporta diversas placas de sonido. No obstante, aún hay placas de sonido que no son soportadas, lo cual hace al soporte de sonido de Linux algo muy débil. Hay dos proyectos actualmente en desarrollo para mejorar el soporte de placa de sonido para los sistemas Linux. Primero, la Arquitectura de Sonido Linux Avanzada (ALSA), http://www.alsa-project.org, es una iniciativa de fuente abierta. El segundo, Sistema de Sonido Abierto (OSS), http://www.4front-tech.com, es una iniciativa de liderazgo comercial para desarrollar un mejor soporte para placas de sonido para sistemas Linux.

Escáners Los controladores para escáners no están ubicados dentro del kernel Linux. También hay iniciativas de proyectos de fuente abierta y comerciales para soporte de controladores de escáners para Linux. El proyecto Acceso a Escáner Ahora Fácil (SANE), http://www.sane-project.org/, es la iniciativa de fuente abierta. El OCR shop, http://www.vividata.com/index.html, es la iniciativa de liderazgo comercial. OCR funciona independientemente de SANE.

X servers Hay más de un X server de donde elegir para instalar en un sistema Linux. El soporte para controladores de placa de video para estos X servers puede encontrarse en sus sitios web correspondientes. XFree86, que es el X server por defecto para Linux, tiene controladores en su sitio http://www.xfree86.org. A veces la placa de video instalada no funcionará con los controladores para XFree86. Recuerde usar otros X servers comerciales que soportarán la placa de video que se use. Ejemplos de éstos son Accelerated X, http://www.xig.com, y ATI, http://www.ati.com/support/faq/linux.html.

Hay otros controladores que pueden requerir controladores especiales, como software, para permitir al usuario usar el dispositivo. Estos otros controladores se mencionan a causa de su creciente popularidad hoy. Ejemplos de hardware son unidades CD-R, CD-RW, DVD-R, o DVD-RW. Las unidades CD-R y CD-RW requieren otro software como X-CD Roast, http://www.xcdroast.org , para quemar CDs. Este software deberá venir con los discos de instalación. http://gphoto.sourceforge.net/, es software para cámaras digitales. Estos paquetes de software contienen controladores de bajo nivel, como controladores SCSI o USB. Los controladores de bajo nivel permiten al dispositivo interactuar con el kernel Linux. No obstante, es el software que

Page 370: Documento de Apoyo No. 4 Cisco It Essentials II

370

permite al usuario usar el dispositivo y esencialmente le permite funcionar.

12.2 Instalación, Configuración y Mantenimiento del Hardware

12.2.2 Configuración del hardware en un sistema Linux

Configurar hardware en un sistema Linux puede ser complejo, por lo que requiere atención especial. Cierto hardware puede resultar fácil de instalar en un sistema Linux porque no requiere el atravesar varios pasos. Los pasos para configurar hardware en Linux se tratarán en esta sección. Un administrador Linux experto podrá instalar cualquier hardware en un sistema Linux. Si esta configuración es un proceso fácil o complejo depende de diversos factores, como el tipo y modelo de hardware que se está usando.

Reemplazo de Hardware Gran parte de la configuración del hardware que necesita hacerse se hace cuando se instala un nuevo dispositivo. Los nuevos dispositivos pueden instalarse para agregar un usuario o reemplazar dispositivos existentes. En cualquier caso hay algunos pasos específicos y precauciones que necesitan seguirse al configurar hardware en un sistema Linux. Diferentes procedimientos se requieren dependiendo del tipo de hardware a instalar. Ejemplos son dispositivos externos, dispositivos internos o placas de expansión internas.

Los dispositivos externos están actualmente disponibles para muchos dispositivos. Algunos de los dispositivos externos son unidades de disco rígido, unidades de CD, CD-R, DVD-R, cámaras digitales, escáners, e impresoras. Ésta no es una lista conclusiva. Los dispositivos externos se conectan al sistema mediante puertos USB, puertos SCSI, puertos serial o puertos paralelos. Los conectores en estos dispositivos son muy específicos. Sólo pueden conectarse en sus puertos correspondientes. Por ejemplo, un dispositivo USB externo sólo encajará en un puerto USB. Esto hace muy difícil no conectar el dispositivo al sistema correctamente. Los dispositivos externos también tendrán una segunda conexión que se conectará a una salida de pared para obtener alimentación. Todos estos dispositivos, a excepción de los dispositivos USB, deberán conectarse al sistema cuando éste esté apagado.

Los dispositivos internos también se conectan al sistema por medio de dos cables. Estos dispositivos se conectan en general al motherboard o a la placa de expansión. Un cable se usa para datos y el otro se usa para alimentación. El cable de alimentación es fácil de instalar. Se enchufa a una de las salidas de alimentación y hay sólo una manera de conectar el cable. El cable de datos puede ser confuso en cuanto a en qué parte del motherboard se enchufa. Consulte la documentación del dispositivo para obtener la ubicación correcta del cable de datos. Los dispositivos internos en ocasiones se colocan en el sistema mediante tornillos. A veces la instalación requiere quitar otros dispositivos para instalar el nuevo dispositivo. Documente cómo se configuró o instaló el sistema antes de quitar cualquier dispositivo. Esto hará mucho más fácil reensamblar el sistema.

Las placas de expansión internas son bastante fáciles de instalar en el motherboard del sistema. Simplemente se deslizan en su slot correspondiente del motherboard como se ve en la Figura . Placas de sonido, placas de video, módems de software, tarjetas SCSI, y controladores RAID son todos ejemplos de placas de expansión internas. Nuevamente, sólo un determinado tipo de placa puede insertarse en cada slot haciendo casi imposible no instalar el dispositivo correctamente. Por ejemplo, una placa ISA sólo encajará en un slot ISA del motherboard. Siempre apague el sistema antes de instalar cualquier placa de expansión interna.

Page 371: Documento de Apoyo No. 4 Cisco It Essentials II

371

Adjudicación de Recursos Hay algo importante a saber acerca de la instalación de hardware en cualquier sistema, incluyendo Linux. Hay una cantidad limitada de recursos que se adjudican a los dispositivos que se instalan en un sistema. Estos recursos incluyen:

· La solicitud de interrupción (IRQ), que señala a la CPU cuando ocurre un evento de hardware

· El canal de Dirección de Memoria Directa (DMA), que es lo que permite la transferencia de datos

· El puerto de Entrada/Salida (I/O) que también es un medio de transferencia de datos

Cada dispositivo requiere al menos una asignación de IRQ, DMA, y puerto de I/O. Si hay demasiados dispositivos instalados, pueden tener lugar conflictos de adjudicación de recursos. Algunos dispositivos pueden compartir estos recursos. No obstante, si se configuran los dispositivos para compartir recursos, asegúrese de que sean dispositivos que necesiten adjudicar los recursos al mismo tiempo.

Para ver las adjudicaciones de recursos en un sistema Linux, vea los archivos /proc/interrupt, /proc/dma, /proc/ioports. Usando el comando cat, vea qué dispositivos están adjudicados. La Figura

muestra las asignaciones de rango de I/O. Como se aprecia en el ejemplo de la Figura , cada número de IRQ a la izquierda corresponde a un dispositivo a la derecha. Si usa una interfaz GUI como KDE por ejemplo, vea las adjudicaciones de recursos usando la herramienta Centro de Control de la GUI. La Figura muestra la herramienta Centro de Control de la GUI. Referirse a las asignaciones en la Figura antes de instalar nuevo hardware es importante. Referirse a los archivos puede ayudar a determinar qué recursos están disponibles todavía, si los hay. Esto no funcionará al instalar un dispositivo SCSI o USB. Los dispositivos que usan estos puertos no usan puertos típicos IRQ, DMA, o I/O. Estos tipos de dispositivos usan puertos que ya están instalados, por lo cual la adjudicación de recursos no es una preocupación. Esto hace de los dispositivos SCSI o USB buenas alternativas para sistemas que tienen mucho hardware. Hace de agregar nuevo hardware un proceso mucho más simple.

Page 372: Documento de Apoyo No. 4 Cisco It Essentials II

372

Configuraciones de Jumpers Otro aspecto de la configuración de hardware es configurar los jumpers apropiados para un dispositivo, como lo muestra la Figura . El jumper es un pequeño puente de metal hecho de pines hembra, cubiertos de plástico. Quitando o instalando el jumper en los pines macho del dispositivo, los parámetros operativos de un dispositivo pueden cambiarse. Por ejemplo, cambiar de lugar los jumpers puede usarse para habilitar o inhabilitar funciones, como configurar una unidad master o esclava. Hoy no debería tener que configurar ningún jumper para las placas de expansión porque la mayoría de las placas de expansión de hoy usan tecnología plug-and-play en lugar de configuraciones de jumpers. Los jumpers se usan principalmente para ajustar configuraciones en hardware como CD-ROMs, disqueteras y unidades de disco rígido. Los jumpers también se usan para ajustar configuraciones en los motherboards, como velocidad de la CPU. También pueden usarse a veces para controlar cosas como asignación de IRQ o DMA.

Configuraciones Plug and Play Desde mediados a fines de los '90 la mayoría de los dispositivos de hardware han sido configurados mediante tecnología plug-and-play (PnP) en lugar de usar jumpers. El propósito del dispositivo Plug-and-Play es ser capaz de conectar el dispositivo, y tener toda la configuración hecha automáticamente por el sistema operativo. Como sucede con la mayoría de las configuraciones de Linux, hay unos pocos pasos extra que podrían ser necesarios.

Las dos formas en las cuales PnP es manejado en sistemas Linux es el programa isapnp y mediante una opción de configuración ISA en el kernel Linux. El programa isapnp se usa para leer opciones de configuración PnP de un archivo para configurar opciones para dispositivos PnP cuando éstos son instalados. La mayoría de las distribuciones están configuradas para iniciar automáticamente este programa cuando se inicia el sistema. Debería detectarse y configurarse automáticamente usando la tecnología PnP. Otra forma en que PnP es manejado por Linux es mediante una opción de configuración ISA en el kernel Linux. El kernel Linux 2.4.X incluye soporte a PnP ISA que no requiere el programa isapnp. Ésta es la opción más probable con la versión de Linux que se está usando en este curso. Las distribuciones Linux que usan esta versión del kernel Linux auto-detectan dispositivos PnP ISA. Son configurados por el kernel. Es importante recordar que no hay soporte PnP para dispositivos de hardware PCI porque el kernel Linux o el BIOS configuran estos dispositivos automáticamente.

Page 373: Documento de Apoyo No. 4 Cisco It Essentials II

373

Carga de Controladores y Opciones de Configuración El paso final de la configuración de hardware en un sistema Linux es poder cargar los controladores apropiados y configurar las opciones correctas en relación al controlador. Éste puede ser el paso más crítico de la configuración de hardware en un sistema Linux porque sin el controlador correcto cargado el hardware no funcionará. En algunos casos tener cargado el controlador incorrecto hará que el sistema deje de funcionar del todo.

Hay dos formas en que un controlador puede cargarse en un sistema Linux. El controlador puede incluirse en el kernel Linux o los controladores pueden cargarse desde módulos. Otros controladores como los de Ghostscript o SANE que no están asociados con el kernel pueden tener los controladores cargados dentro de la aplicación. Deben cargarse separadamente. Este proceso es muy generalizado con los controladores Ghostscript que no están ubicados dentro del kernel y deben cargarse desde la aplicación Ghostscript. Los controladores SANE se cargan en general desde módulos. El segundo método es el más simple de las dos formas en que puede cargarse un controlador. Si el controlador está ubicado dentro del kernel Linux, entonces debería cargarse automáticamente cuando el hardware que usa el controlador específico es instalado. El kernel Linux tiene muchos controladores que se incluyen con él. Es posible agregar controladores al kernel. Hacerlo, no obstante, requiere recompilar el kernel. No se recomienda que usuarios inexpertos intenten recompilar el kernel, especialmente en un sistema de producción. Recompilar el kernel Linux se trató en capítulos anteriores. La siguiente sección tratará la carga de Módulos del Kernel Linux.

Habrá algunos casos en los cuales los controladores cargados necesitarán la configuración de algunas opciones extra. La mayoría no necesitará configrurar ninguna opción pero podría necesitar definir configuraciones de hardware específicas para el controlador. En algunos casos el controlador puede necesitar que se le indique que dos piezas idénticas de hardware, como placas de red, han sido instaladas. Las dos formas en las cuales las opciones pueden configurarse para los controladores son mediante las opciones del kernel y las opciones del módulo. Para configurar las opciones de los controladores mediante el kernel, reconfigure archivos de configuración específicos que pasen estas opciones directamente al kernel. Por ejemplo, para especificar una asignación de IRQ e I/O diferente para una placa de red que no sea la del controlador por defecto, edite el archivo de configuración /etc/lilo.conf, Figura , que pasa estas opciones al kernel. Para cambiar la IRQ a 10 y el puerto de I/O a 6200 que la placa Ethernet usa agregue la línea, append="ether=10,0x6200,eth0" a /etc/lilo.conf. Si el controlador se carga mediante un módulo, entonces introduzca las opciones de controladores en el archivo /etc/modules.conf. Este método se trata en la siguiente sección.

Page 374: Documento de Apoyo No. 4 Cisco It Essentials II

374

12.2 Instalación, Configuración y Mantenimiento del Hardware

12.2.3 Módulos del Kernel Linux

Se mencionó en la sección anterior que hay dos formas en las cuales los controladores se cargan en un sistema Linux. Están incluidos en el kernel o se cargan de aplicaciones o módulos. Cuando los controladores están incluidos en el kernel, se instalan y están disponibles para el sistema cuando se instala el sistema operativo. Los módulos del kernel son muy similares a los archivos controladores que se cargan en otros sistemas operativos, como Windows.

El primer paso para comprender cómo cargar y descargar módulos del kernel es saber qué son los archivos de configuración de un módulo del kernel y dónde están ubicados. Hay dos archivos en un sistema Linux que manejan la configuración de módulos. El primer archivo, /etc/modules.conf, contiene información acerca de módulos que se usan para tareas específicas, así como información acerca de cómo el kernel carga y descarga módulos. El segundo archivo, /lib/modules/x.x.x/modules.dep, contiene información acerca de las dependencias de los módulos que se basan en otros módulos en /etc/modules.conf. Las x.x.x en el archivo de arriba es la versión del kernel que se está usando.

Carga y Descarga de Módulos del Kernel Las últimas distribuciones de Linux incluyen soporte para cargador del módulo del kernel. Una de las últimas distribuciones de Linux es la versión de Red Hat Linux que se usa en este curso. Soporte para cargador del módulo del kernel significa que el kernel tiene la capacidad de cargar y descargar controladores a medida que los necesita. Cuando se usa un dispositivo, como un dispositivo USB, el kernel cargará automáticamente el módulo apropiado y luego el kernel lo descargará cuando el dispositivo ya no esté en uso. Este sistema funciona bien para dispositivos que tienen controladores o módulos cargados en el kernel o en /etc/modules.conf. La Figura muestra un ejemplo de controladores cargados en el archivo modules.conf. Cuando se instala un dispositivo o éste necesita ser usado y el kernel no puede cargar o descargar automáticamente módulos para él, será necesario usar otros programas para cargar y descargar el controlador o módulo apropiado. Estos programas pueden incluirse en scripts de inicio para que se carguen cuando arranca el sistema. También pueden ejecutarse desde la línea de comandos cuando el dispositivo es necesario. Se recomienda el uso del método del script de inicio para evitar que los usuarios tengan que cargar y descargar controladores.

El Programa insmod El programa insmod, Figura , se usa para insertar un único módulo en el kernel. La sintaxis para este comando incluye agregar el nombre del módulo que se está cargando junto con cualquiera de las opciones enumeradas en la Figura .

Page 375: Documento de Apoyo No. 4 Cisco It Essentials II

375

Por ejemplo, el siguiente comando cargará el módulo parport. Este módulo se usa para proporcionar funciones centrales para compartir un puerto paralelo con varios dispositivos.

#insmod -k parport

Los nombres de módulos del disco rígido se caracterizan por una .o final. Por ejemplo, el nombre de archivo para el módulo anterior es parport, pero el nombre real del módulo sería partport.o. Estos módulos se almacenan en subdirectorios de /lib/modules/x.x.x, donde x.x.x es la versión del kernel.

El programa insmod es una herramienta muy útil, no obstante, tiene algunas limitaciones. Primero, sólo puede usarse para cargar un controlador o módulo a la vez. Además, como se aprendió anteriormente, hay muchos controladores y módulos que tienen dependencias en otros controladores o módulos que se cargan para que los controladores y módulos funcionen. Usando el programa insmod, cargue cada uno de ellos manualmente. Si se usa un script de inicio para cargar los controladores y módulos, coloque una entrada en el script para cada módulo que sea una dependencia del controlador o módulo que necesita cargarse.

El Programa modprobe El programa modprobe, Figura , reduce esta sobrecarga administrativa cargando automáticamente cualquier dependencia que tenga un módulo. Todo lo que hay que hacer es cargar el módulo necesario. El programa modprobe usa el contenido de modules.dep para determinar qué módulos deben cargarse para usar los módulos que se pretende. Hay varias opciones que pueden usarse con el programa modprobe. Por ejemplo, la opción -k usada con insmod también se usa con modprobe y lleva a cabo la misma función. Unas pocas opciones adicionales se enumeran en la Figura .

Page 376: Documento de Apoyo No. 4 Cisco It Essentials II

376

Por ejemplo, el siguiente comando cargará el módulo parport y todos los módulos de los cuales este módulo tiene dependencias. Este módulo se usa para proporcionar funciones centrales para compartir un puerto paralelo entre varios dispositivos.

# modprobe -k parport

El Programa rmmod El programa rmmod, Figura , puede usarse para quitar controladores o módulos. El programa modprobe con la opción -r o -remove también eliminará módulos. No obstante, al usar este programa en lugar de la opción con modprobe permite introducir algunas otras opciones. El programa rmmod proporciona más flexibilidad al eliminar módulos que si se usa la opción -r o -remove con el comando modprobe. Ejemplos de las opciones que pueden usarse con este comando se muestran en la Figura .

Este comando, como el anterior, no debería necesitarse para un uso regular. Cualquier comando para cargar módulos necesarios deberán colocarse en un script de inicio que los cargará cuando arranca el sistema. Después de eso, no debería haber razones para usar ninguno de estos comandos excepto con propósitos de resolución de problemas. Éste es el caso especialmente del programa rmmod más que de los otros. Usar este comando es una buena herramienta de resolución de problemas que puede usarse para eliminar módulos si se sospecha que hay un problema.

Page 377: Documento de Apoyo No. 4 Cisco It Essentials II

377

El Programa lsmod El programa lsmod, Figura , se usa con propósitos diferentes que los otros comandos que se acaban de mencionar. Los otros comandos se usan para cargar y descargar módulos. lsmod es un comando útil porque revela qué módulos se están usando actualmente y qué dispositivo los usa, así como otra información. lsmod también enumera los tamaños de los módulos y de los módulos de dependencia. Refiérase a la Figura ; note que hay otra información importante que se revela con este comando. Note qué módulos están actualmente cargados pero no se los usa. Esto significa que han sido cargados sin la opción -k para que los módulos sigan cargados incluso si no están en uso.

12.3 Verificación y Confirmación de la Configuración del Hardware

12.3.1 Cables de alimentación

Una de las primeras cosas que necesitarán verificarse es el cableado. Hay varios dispositivos que usan diversos cables. Los cables se usan para vincular el dispositivo al motherboard o a una placa controladora en el motherboard. Dependiendo de qué dispositivo se está instalando, estos cables pueden ser enteramente internos o externos. Como trataremos en esta sección, una instalación de cableado apropiada puede ser la diferencia entre un dispositivo que funcione o que no funcione. Algunos tipos de cables tienen algunos requisitos específicos.

Hay dos tipos de cables de alimentación. El primer cable de alimentación es el que conecta la salida de la pared, el protector contra picos, o fuente de alimentación ininterrumpida (UPS) a la parte posterior de la computadora. Este cable es externo y no necesariamente el cable de mayor interés al instalar un dispositivo de hardware.

El otro tipo de cable de alimentación es interno. Este cable conecta la fuente de alimentación interna a los dispositivos de hardware, Figura . Estos cables se conectan a y se usan para brindar alimentación al motherboard y a otros dispositivos de disco como discos rígidos, disqueteras, o CD-ROMs. Estos cables de alimentación tienen varios tipos de conectores, que se usan para conectar a diferentes dispositivos. La mayor parte de las fuentes de alimentación tendrán aproximadamente seis de estos cables de alimentación que se extienden desde la fuente de alimentación interna. Habrá un cable que tiene un conector que se enchufa al motherboard, uno que se enchufa a la CPU, y otros que se enchufarán a los diversos dispositivos de disco. Verifique y confirme que se haya hecho una conexión apropiada a cada dispositivo que requiere una conexión de uno de estos cables de alimentación, una vez que haya sido instalado. Una conexión suelta o inestable hará que un dispositivo no funcione.

Page 378: Documento de Apoyo No. 4 Cisco It Essentials II

378

Cables Internos Otros tipos de cables internos son los cables de datos. Estos cables permiten a los dispositivos enviar datos de un dispositivo a otro. Usualmente los cables se extenderán desde una placa controladora del motherboard a una unidad de disco o cinta, que almacena los datos. La forma más común de cable de datos que se usa es el cable ribbon. La Figura muestra un cable ribbon típico. Algunos de estos cables tienen características distintivas que los diferencian de otros cables ribbon. Algunos tienen diferentes anchos y longitudes. Otros tienen una torcedura en ellos, que se usa para identificar al cable de datos de la disquetera. Figura .

Al igual que con los cables de alimentación, verifique y asegúrese de que se ha hecho una conexión apropiada. Esto es probablemente más importante en cables de datos que en cables de alimentación. Es mucho más probable cometer un error conectando cables de datos que cables de alimentación porque los cables de alimentación pueden conectarse de una única manera. Los cables de datos parecen iguales desde todos lados haciendo más difícil comprender cómo deben conectarse. Algunos cables tienen trozos de plástico en el extremo llamados salvaguardias. Los salvaguardias evitan que los cables se instalen al revés. La única manera de asegurarse de que el cable de datos está instalado apropiadamente es primero localizar la franja roja en el cable de datos. Esto identifica al lado del pin #1 del cable. El pin #1 correspondiente en el slot del motherboard necesita alinearse con el pin #1 del cable de datos. Una vez que éstos se han localizado el cable puede insertarse. Asegúrese de que se haya hecho una conexión firme porque algunos de estos cables pueden ser ajustados y difíciles de conectar por completo. Sin una conexión apropiada el dispositivo no funcionará.

Al instalar dispositivos SCSI algunos de los cables de datos no se conectarán a un dispositivo en absoluto porque podría haber más cables que los dispositivos disponibles. Por ejemplo, si dos unidades SCSI se instalaron con un cable con cuatro conectores en él. Un extremo se conectaría a la placa controladora SCSI y los otros dos se conectarían a las unidades, dejando un cable extra. La Figura muestra ejemplos de cables SCSI comunes.

Page 379: Documento de Apoyo No. 4 Cisco It Essentials II

379

Hay otros tipos de cables que transportan datos además de los cables ribbon. Al instalar unidades de CD, CD-R o CD-RW conecte un cable de 3 alambres desde la salida de audio de la unidad a la placa de sonido. Este cable permitirá que se reproduzca el sonido de los CDs de la unidad. También hay cables que vinculan el motherboard a componentes del panel frontal del gabinete, como el botón de encendido, el botón de reseteado, y la actividad del disco rígido.

Cables Externos Los Cables Externos son los cables que conectan la computadora a los dispositivos externos como teclados, mouse, monitor, impresoras, escáners y conexiones de red. En el caso de cualquiera de estos dispositivos es importante instalar el cable correcto en el espacio correcto del gabinete de la computadora. Algunos de estos cables tienen mecanismos que se traban para asergurar una conexión ajustada y otros tienen tornillos que se atornillan al gabinete de la computadora. Algunos cables, como USB, Figura , o cables de teclado, no tienen nada para asegurar una conexión ajustada. Es importante asegurarse de que estos cables estén apropiadamente conectados.

Uno de los conceptos más importantes al conectar cables externos es asegurarse de que el cable está enchufado al puerto apropiado. Esto es particularmente cierto en el caso de los puertos serial porque la mayoría de los gabinetes de computadora tienen más de uno. Además, al enchufar los parlantes a los puertos de la placa de sonido, asegúrese de usar los puertos apropiados. El puerto para los parlantes tiene el mismo aspecto que el puerto para el micrófono o para entradas de audio. La mayoría de los gabinetes de computadora tienen una codificación por colores en los puertos que indica cuál es el puerto del teclado y cuál el del mouse. Estos dos puertos tienen exactamente el mismo aspecto por lo tanto es importante enchufar el cable apropiado en el puerto apropiado. De otro modo el dispositivo no funcionará.

Page 380: Documento de Apoyo No. 4 Cisco It Essentials II

380

12.3 Verificación y Confirmación de la Configuración del Hardware

12.3.2 Configuraciones IRQ, DMA, e I/O

La mayor parte del hardware, específicamente las placas controladoras ISA y PCI, que se insertan en el motherboard usan recursos del hardware ubicado en el motherboard. Estos recursos se denominan Solicitud de Interrupción (IRQ), Canal de Acceso a la Memoria Directa (DMA), y el puerto de Entrada/Salida (I/O). Estos recursos son limitados, lo cual significa que sólo se dispone de cierta cantidad de ellos. Hay un total de quince (15) IRQs. Cada IRQ está reservada para un dispositivo específico. La Figura muestra todos los números de IRQ y los dispositivos correspondientes. También hay una cantidad limitada de canales DMA. Hay más puertos de I/O disponibles que canales DMA o IRQs, pero aún así pueden ocurrir conflictos con los puertos de I/O. El motherboard usa la IRQ para enviar una señal a la CPU de que un dispositivo está a punto de llevar a cabo una función y necesita la atención de la CPU. Las asignaciones de IRQ evitan que ocurran conflictos manteniendo separadas las solicitudes a la CPU. Los canales DMA y los puertos de I/O se usan para transferir datos desde el motherboard a la CPU o a la memoria. La Figura muestra ejemplos de puertos de I/O.

Page 381: Documento de Apoyo No. 4 Cisco It Essentials II

381

Al instalar cualquier dispositivo es importante verificar y confirmar que no haya conflictos de IRQ, DMA, o puertos de I/O. Dos placas ISA que usan la misma IRQ pueden resultar en que una placa no funcione o hacer que el sistema se cuelgue. Las placas PCI pueden a veces compartir el mismo número de IRQ, pero esto no se recomienda a menos que sea absolutamente necesario. Pueden ocurrir conflictos que pueden hacer que el sistema se cuelgue o hacer que el hardware no funcione apropiadamente.

La mayor parte de las placas de hoy tienen los números de IRQ, DMA, y puerto de I/O configurados automáticamente en el BIOS o configurados usando software. Las placas ISA antiguas pueden tener los jumpers configurados manualmente. La ventaja de configurar manualmente los jumpers es que ajustar el jumper podría resolver cualquier conflicto que pueda surgir. La nueva configuración de estas placas requieren que el sistema arranque primero. Esto hace imposible saber qué recurso de hardware usarán las placas hasta que el sistema no se inicie. Si un conflicto de recursos tiene lugar, podría impedir que el sistema arrancara. El Capítulo 13 trata los pasos a seguir cuando ocurre este problema.

12.3 Verificación y Confirmación de la Configuración del Hardware

12.3.3 Dispositivos EIDE

Los dispositivos EIDE son usualmente unidades de disco rígido, disqueteras, CD-ROMs, y otros tipos de unidades de disco y cinta. Hay varios tipos diferentes de dispositivos EIDE de los cuales elegir. Las diferencias se encuentran en las velocidades de transferencia de datos. Los dispositivos de baja potencia usualmente comienzan a partir de los 8 MB/s. Los dispositivos de alta potencia usualmente llegan a un tope de 100 MB/s. Algunas velocidades comunes para transferencia de datos son 33 MB/s, 66 MB/s, y 100 MB/s. Los dispositivos EIDE reciben varios nombres, que incluyen la velocidad en él. El UltraDMA33 y el ATA66 son nombres comunes de dispositivos disponibles en el mercado.

Una cosa a verificar y confirmar al instalar dispositivos EIDE es que estén configurados apropiadamente como Master o Esclavo. Es posible que dos dispositivos usen el mismo cable EIDE porque el cable proporciona tres conexiones. Una de ellas conecta al motherboard o controlador. Las otras dos conexiones se conectan a dispositivos EIDE. No es obligatorio usar ambas conexiones EIDE, pero están ahí si la necesidad surgiera. La cantidad de interfaces EIDE en el motherboard es limitada. Ésta es una buena forma de instalar dos dispositivos y usar sólo una interfaz en el motherboard. Si se han de usar dos dispositivos, configure un dispositivo como master y el otro dispositivo como esclavo. Para ello, configure manualmente los jumpers en el dispositivo en sí según convenga. Sin verificar y confirmar las configuraciones de jumper como master y esclavo, los dispositivos no funcionarán. En Linux, la unidad master toma la letra de dispositivo más baja en su nombre de archivo /dev/hdx, donde x es la letra de dispositivo. Por ejemplo la unidad master sería /dev/hda y la unidad esclava sería /dev/hdb. La Figura muestra la adjudicación de dispositivos EIDE en una computadora que corre Linux.

Page 382: Documento de Apoyo No. 4 Cisco It Essentials II

382

La mayoría de los motherboards tendrán dos interfaces EIDE en ellas, lo cual permite un total de cuatro dispositivos EIDE en el sistema. Es posible instalar placas EIDE, que permitirá la instalación de más dispositivos EIDE. También es importante saber que si se usan ambas interfaces EIDE, una interfaz EIDE del motherboard será la interfaz EIDE principal y la otra será la interfaz EIDE secundaria. Se recomienda colocar la unidad que contiene el Registro de Arranque Maestro en la interfaz EIDE principal.

12.3 Verificación y Confirmación de la Configuración del Hardware

12.3.4 Dispositivos SCSI

Instalar dispositivos SCSI puede ser un tanto confuso, especialmente si hay muchos dispositivos conectados a la cadena SCSI. Hay varios factores que necesitan confirmarse al hacer una instalación de SCSI. El primer factor que necesita verificarse es la variante SCSI. Hay muchos tipos diferentes de interfaces SCSI que pueden usarse desde la más lenta, 5 MB/s, SCSI-1, a la mucho más rápida, 160 MB/s, Ultra3 Wide SCSI. Esta variación en tipos de SCSI puede ocasionar problemas en la configuración de SCSI. Es posible conectar dos dispositivos tipo SCSI diferentes, no obstante no se recomienda. Esto puede degradar el rendimiento y conducir a otros problemas haciendo que la configuración falle.

El segundo factor importante son las IDs SCSI. Cada dispositivo SCSI que se instala necesita que se le asigne un número, o ID SCSI, Figura , que la computadora usa para identificar el dispositivo. El número de ID que se permite tener a los dispositivos SCSI depende de qué estándar SCSI se esté usando. Por ejemplo, antiguos estándares SCSI que usan un bus de 8 bits de amplitud usan números de ID SCSI que van de 0 a 7. Los estándares SCSI más modernos usan buses de 16 bits, que pueden usar un número de ID SCSI que va de 0 a 15. El adaptador de host SCSI usa uno de estos números de ID para identificarse dejando el resto de los números de ID para los dispositivos. En general, configurar los pines de los jumpers configura los números de ID de los dispositivos SCSI internos. Los dispositivos externos tienen un interruptor o dial en el dispositivo que se configura. Es importante verificar y confirmar que dos dispositivos no compartan la misma configuración de jumper. Esto puede ocasionar que un dispositivo "enmascare" al otro dispositivo, o hacer que ninguno funcione. Algunos dispositivos nuevos pueden tener configuradas sus IDs usando el protocolo SCSI Configurado Automáticamente (SCAM). Esto permite que los dispositivos SCSI adquieran sus IDs SCSI automáticamente.

Page 383: Documento de Apoyo No. 4 Cisco It Essentials II

383

El tercer factor que debe verificarse y confirmarse al instalar dispositivos SCSI es la terminación. Al final de cada cadena SCSI, es necesario que exista un dispositivo de terminación para que las señales no reboten continuamente. Hay diferentes tipos de terminación que se usan dependiendo de qué tipo de variación SCSI se está usando. Algunos ejemplos de tipos de terminación son pasiva, activa y diferencial de bajo voltaje (LVD). Algunos dispositivos SCSI pueden terminarse usando una configuración de jumper. Verifique la documentación del fabricante para determinar qué tipo de terminación se usa.

El cuarto factor que debe verificarse y confirmarse en una configuración SCSI es la calidad del cable. Los dispositivos e instalaciones SCSI son más caros que otras opciones. La razón para ello es que los dispositivos SCSI ofrecen más velocidad y calidad. Hay algunos dispositivos que actualmente están siendo probados pero que aún tienen que tener gran impacto en el mercado. Estos nuevos dispositivos desafiarán la superioridad de los dispositivos SCSI. No obstante, puesto que aún no han llegado al mercado, los dispositivos SCSI aún se conocen como los más rápidos y de más alta calidad disponibles. Por esta razón es imperativo que sólo se usen cables de calidad SCSI al instalar dispositivos SCSI. Esto es particularmente cierto al encadenar varios dispositivos SCSI. Un cable de calidad SCSI puede costar aproximadamente cincuenta dólares ($50) la pieza. Esto puede ser caro, no obstante, no es inteligente gastar mucho dinero en una pieza de hardware SCSI y descubrir que no funciona a causa de un cable de bajo precio. El último factor a verificar y confirmar al hacer una instalación de un dispositivo SCSI es la longitud del cable. Nuevamente, dependiendo de la variante SCSI que se esté usando, la longitud de cable máxima para la cadena SCSI entera va desde 1,2 metros a 12 metros. Esta distancia incluye la longitud de cable entera, incluyendo tanto cables internos como externos.

Terminación En cualquier cadena SCSI es necesario que haya un terminador en cada extremo para evitar que la señal rebote continuamente, lo cual se muestra en la Figura . Algunos dispositivos SCSI son capaces de auto-terminación configurando el jumper o switch apropiado. Existen varios tipos de terminación de los cuales debe enterarse un administrador de sistemas. Diferentes tipos de dispositivos y estándares SCSI requieren diferentes tipos de terminación. Una terminación y selección de tipo de terminación inapropiadas puede conducir a diversos errores en la transferencia de datos. Colocar un adaptador de terminación en un dispositivo que no se encuentra al final de la cadena SCSI también puede ocasionar problemas. Recuerde que el adaptador SCSI se considera también un dispositivo SCSI, y por lo tanto debe terminarse cuando es el dispositivo extremo de la cadena. La mayoría de los adaptadores SCSI tienen BIOS. El BIOS permite al administrador del sistema terminar de ser necesario.

Cadenas Bifurcadas Los adaptadores SCSI tienen en general 3 conectores. Hay dos conectores internos y un conector externo. Las dos conexiones internas, Figura , son para conexiones SCSI internas amplias o estrechas. Una cadena SCSI deberá ser unidimensional. Esto significa que la cadena SCSI deberá correr en una línea continua con un dispositivo conectado junto al siguiente. El adaptador SCSI es

Page 384: Documento de Apoyo No. 4 Cisco It Essentials II

384

uno de estos dispositivos en el medio o al final de la cadena. Una cadena bifurcada es una cadena SCSI que se desvía de esta regla iniciando otra cadena fuera del adaptador. Iniciar otra cadena no debería hacerse y puede ocasionar un fallo en la configuración.

Otros Temas SCSI Otros temas SCSI incluyen una apropiada selección de ID SCSI, una longitud de cable apropiada, y calidad del cable. Éstos se trataron en la sección anterior. Diagnosticar y resolver problemas de un dispositivo SCSI casi siempre puede llevar a problemas relacionados con la terminación y el cable. Algunas buenas técnicas de detección y resolución de problemas para dispositivos SCSI incluyen formas de simplificar la cadena SCSI. Por ejemplo, cuando una configuración SCSI incluye dos unidades de disco rígido, una unidad de CD-ROM, y una unidad de cinta. Sólo una de las unidades de disco rígido necesita conectarse para que el sistema arranque. Primero intente sacar todos los dispositivos excepto el disco que arrancará el sistema operativo. Vea si el sistema arranca. Si lo hace, entonces lo más probable es que el problema tenga que ver con la longitud del cable o con uno de los dispositivos.

También es importante saber que Linux no tiene soporte para adaptadores SCSI como sí lo tiene para dispositivos y controladores EIDE. Por lo tanto, los controladores apropiados necesitan instalarse para el adaptador SCSI que se está usando. Algunas distribuciones se envían con controladores para adaptadores SCSI, no obstante es mejor confirmar que pueda hallarse soporte para el adaptador antes de la instalación.

A diferencia de las unidades EIDE/ATA, los adaptadores SCSI se ejecutarán con un desempeño óptimo constantemente, por lo que no es necesario usar una utilidad como hdparm para ajustar el desempeño de la unidad SCSI. La utilidad hdparm puede usarse para verificar la presencia y el desempeño de una unidad de disco rígido SCSI.

RAID (Redundant Array of Inexpensive Disks) Al tratar los dispositivos SCSI es importante tratar cómo instalar y configurar RAID en un sistema Linux. Es muy común que los servidores usen SCSI a causa de su velocidad y confiabilidad en conjunción con una configuración de RAID para proporcionar tolerancia a fallos. Tolerancia a Fallos es la capacidad de un servidor para recuperarse de un fallo inesperado de hardware o software. Hay muchos niveles de tolerancia a fallos, siendo el más bajo la capacidad para continuar la operación en caso de una falla en la alimentación. Muchos sistemas de computadora tolerantes a fallos usan RAID como medio de configurar la tolerancia a fallos en sus servidores.

Durante la instalación de Linux sólo puede configurarse RAID niveles 0, 1 y 5, mientras que después de la instalación se pueden configurar otros niveles RAID también. RAID niveles 0, 1 y 5 son los más ampliamente utilizados. Para RAID 0 y 1, se necesitan al menos dos unidades de disco, mientras que para RAID 5 se necesitan al menos tres unidades de disco. La Figura proporciona una lista de los diversos tipos de configuraciones de RAID que pueden hacerse.

Page 385: Documento de Apoyo No. 4 Cisco It Essentials II

385

Hay dos tipos de RAID que pueden configurarse en un sistema Linux: RAID de hardware y RAID de software. La configuración RAID de Hardware administra el subsistema RAID independientemente del host y presenta al host sólo un único disco por conjunto RAID. Un ejemplo de dispositivo de RAID de Hardware sería uno que se conecte a un controlador SCSI y presente el conjunto RAID como unidad SCSI única. Todo el subsistema se conecta al host mediante un controlador SCSI normal y aparece ante el host como un único disco.

El RAID de Software implementa los diversos niveles de RAID en el kernel usando el código del OS. Ofrece una alternativa más barata, ya que placa controladoras de discos de alto costo o bahías de intercambio en caliente no se requieren. El RAID de Software también funciona con los discos IDE más baratos así como con discos SCSI. Con las CPUs rápidas de hoy, el desempeño de un RAID de Software puede competir con el RAID de Hardware. El controlador MD (multi-disco) del kernel Linux es un ejemplo de una solución RAID completamente independiente del hardware. El desempeño de un conjunto basado en software depende del desempeño y la carga de la CPU del servidor.

12.3 Verificación y Confirmación de la Configuración del Hardware

12.3.5 Configuraciones del BIOS

El Sistema de Entrada/Salida Básico (BIOS) de una computadora es un componente muy importante. El BIOS juega un gran papel en la configuración e instalación de hardware. El BIOS es software que se ejecuta al nivel más bajo de la computadora. Cuando el sistema está arrancando la CPU ejecuta el código del BIOS, que permite al BIOS configurar los aspectos básicos del sistema antes de que se cargue el sistema operativo. El BIOS también proporciona herramientas, que ayudan a cargar el kernel de Linux en la memoria. El BIOS puede ser diferente en sistemas diferentes. En general se basa en el motherboard en el que está instalado. Dos sistemas que tengan el mismo motherboard pueden correr el mismo software BIOS.

Page 386: Documento de Apoyo No. 4 Cisco It Essentials II

386

Otro aspecto del BIOS que diferirá de un sistema a otro es la utilidad de configuración del Semiconductor de Óxido Metálico Complementario (CMOS), Figura . El CMOS es el componente de memoria del BIOS donde configuraciones y opciones de bajo nivel para cierto hardware se almacenan así pueden recuperarse cada vez que arranca el sistema. Por ejemplo, hay opciones en el CMOS para controlar de qué dispositivo arranca el sistema. También hay opciones para cambiar opciones para la CPU, unidades de disco rígido y otros medios de almacenamiento, y placas de video.

Es importante verificar y confirmar que las configuraciones del BIOS estén configuradas correctamente usando la utilidad de configuración CMOS. Si las configuraciones de hardware del BIOS no están ajustadas apropiadamente, no funcionará. En algunos casos una configuración equivocada del BIOS puede hacer que el sistema ni siquiera arranque. La mayoría de los sistemas informáticos mostrarán un prompt cuando el sistema está iniciando que les indica qué tecla presionar para entrar a la utilidad de configuración CMOS. También es importante verificar la configuración del BIOS de otro hardware que puede tener sus propias configuraciones separadas en el BIOS. Por ejemplo, la mayoría de los adaptadores SCSI tienen sus propias configuraciones de BIOS que pueden usarse para configurar ajustes específicamente relacionados con el adaptador y los dispositivos SCSI.

Hay muchas configuraciones en el BIOS que se usan muy a menudo y son particularmente importantes. La primera de ellas es la configuración de disco. Cada vez que un nuevo disco rígido se instala, elimina o reformatea, ajuste las configuraciones de disco en el BIOS para recordar al sistema unas pocas cosas importantes acerca de la unidad. El sistema necesitará conocer la capacidad del disco. Esto puede ajustarse manualmente o usando una función de auto-detección que tienen la mayoría de los discos. La otra configuración común que necesita hacerse es cómo el BIOS interpreta las direcciones de cilindro/cabezal/sector del disco. Recuerde al usar discos SCSI que estas configuraciones de disco tendrán que ajustarse mediante el BIOS de la placa adaptadora SCSI.

Otra configuración importante del BIOS es la de los puertos on-board. Hay diversos puertos en un motherboard. Muchos de ellos ya han sido tratados. Algunos ejemplos son serial, paralelo, USB y EIDE. Estos puertos pueden configurarse en el BIOS cambiando la IRQ que usan e incluso habilitándolos o inhabilitándolos. Inhabilitar un puerto en las configuraciones del BIOS puede liberar IRQs cuando se experimentan conflictos de recursos. Las configuraciones PCI también pueden ajustarse en el BIOS. Estas configuraciones son útiles de ajustar si hay cualquier conflicto de IRQ a causa de cómo el sistema asigna IRQs a placas PCI.

Las configuraciones del BIOS permiten establecer diferentes contraseñas. Esto evita que el sistema arranque sin introducir la contraseña correcta. Esto es útil en un entorno en el cual la seguridad es un factor. También es posible establecer una contraseña que evite que alguien entre a la pantalla del CMOS y cambie cualquiera de las configuraciones del BIOS. Hay maneras de pasar por alto esta contraseña que evita que el sistema arranque. No obstante, la contraseña puede detener a la mayoría de los intrusos no deseados.

Page 387: Documento de Apoyo No. 4 Cisco It Essentials II

387

También pueden configurarse diversos ajustes de memoria. Por ejemplo, el BIOS puede configurarse de tal modo que partes de la información sobre el sistema o la información almacenada en otros dispositivos pueda copiarse a la RAM. Este proceso se denomina shadowing. Este proceso acelera el acceso del sistema a DOS porque puede accederse directamente desde la RAM. Esto es útil en sistemas DOS/Windows, que usan el BIOS para entrada/salida. No obstante, este proceso no tiene mucho propósito en un sistema Linux porque Linux no se basa muy a menudo en DOS. Por lo tanto, en un sistema Linux esta función puede desactivarse, lo cual deja más memoria para procesos del sistema. Hay diversas otras configuraciones de memoria en una computadora. Experimente con las otras configuraciones de memoria para encontrar la apropiada.

La última función importante que puede configurarse en el BIOS es la anteriormente mencionada, los dispositivos de arranque. El sistema puede arrancarse desde muchos dispositivos diferentes. Usando una configuración del BIOS, el sistema puede configurarse para que arranque desde la unidad de disco rígido, un diskette booteable, un CD-ROM booteable, o un disco zip booteable. Las configuraciones de los dispositivos de arranque pueden configurarse para arrancar desde un dispositivo específico o un conjunto de dispositivos en un orden especificado. Cuando el sistema arranca, verifica cada medio por turno. Si el dispositivo no está presente, o no es booteable, pasa a probar el siguiente. Experimente para determinar cuál es la mejor configuración para el BIOS. Esto variará dependiendo de qué hardware está instalado y qué opciones de CMOS tendrá el BIOS. Algunos BIOS tienen más configuraciones de CMOS que otros. No obstante, se recomienda que experimente con cambios en un sistema que no esté actualmente en uso para que estos cambios puedan probarse apropiadamente. 12.3 Verificación y Confirmación de la Configuración del Hardware

12.3.6 Diagnóstico y resolución de problemas de los dispositivos

La mayoría de los sistemas Linux usan unidades de disco duro EIDE y CD-ROMs que se conectan al puerto de Electrónica de Dispositivos Integrados Mejorada (EIDE). Adjunto de Tecnología Avanzada (ATA) e Interfaz de Paquetes ATA (ATAPI) son otros nombres con los cuales se conoce a los dispositivos EIDE. Es importante poder diagnosticar y resolver problemas apropiadamente en estos dispositivos. Los problemas que ocurren con estos dispositivos pueden evitar que Linux arranque e incluso destruir datos valiosos almacenados en las unidades de disco rígido EIDE/ATA.

Hay varios tipos comunes de problemas que pueden ocurrir con los dispositivos EIDE/ATA. Un problema ocurre cuando un sector se daña. Linux puede dejar de arrancar o hacer que se dañen datos. En tales casos, estos problemas pueden hacer que el cargador Linux (LILO) falle y no pueda arrancar Linux. Otro problema común relacionado al sistema Linux es cuando los controladores EIDE/ATA tienen bugs en ellos. Muchos de los kernels Linux, y el kernel más moderno en particular, se envían con arreglos para muchos de estos bugs comunes. Mientras el sistema contenga controladores comunes no deberían ocurrir problemas. Si se instala un nuevo controlador para el cual el kernel no tiene arreglos, pueden ocurrir problemas. Algunos de estos problemas incluyen la obtención de errores del sistema de archivos inusuales. Por ejemplo, archivos recientemente creados pueden corromperse y el sistema de archivos existente puede tener errores en él. En otros casos estos bugs pueden hacer que el sistema se caiga. Esto se da sólo en casos raros y extremos. Soluciones fáciles a estos problemas incluyen recompilar el kernel con el arreglo apropiado para el controlador que se está usando, o actualizar completamente el kernel. Otra sugerencia es usar un controlador diferente con un kernel que ya contenga los arreglos.

En algunos casos los dispositivos EIDE/ATA pueden producir velocidades de transferencia de datos muy lentas en sistemas Linux. Una razón posible para el lento desempeño es el uso de los controladores equivocados. El kernel Linux contiene controladores que soportan prácticamente todos los controladores EIDE/ATA del mercado. No obstante, para obtener resultados óptimos, se necesitan controladores especializados para los dispositivos EIDE/ATA o el controlador que se está usando. En un sistema Linux, la utilidad hdparm puede usarse para probar las velocidades del disco así como un conjunto de varias opciones. Esto puede mejorar el rendimiento. Lea la página man de hdparm para encontrar más información acerca del conjunto completo de opciones que pueden usarse con esta utilidad. Algunas de las opciones más comunes que se usan con esta utilidad se describen a continuación. La Figura muestra todas las opciones disponibles para la utilidad hdparm y la Figura muestra la descripción de esas opciones.

Page 388: Documento de Apoyo No. 4 Cisco It Essentials II

388

Deberá tenerse extremo cuidado al usar estas opciones de la utilidad hdparm. Si se usan incorrectamente podría dañarse seriamente el sistema de archivos del sistema. Además, algunas de estas opciones pueden usarse en sistemas sin problemas, y cuando se usa la misma opción en otro sistema ocurren serios problemas. En la mayoría de los casos no habrá necesidad de usar la utilidad hdparm porque la mayoría de los sistemas son capaces de configurarse automáticamente para un desempeño óptimo.

12.3 Verificación y Confirmación de la Configuración del Hardware

12.3.7 Dispositivos periféricos

Los Dispositivos Periféricos son dispositivos que se conectan a la computadora mediante un puerto externo o interno y son controlados por la computadora. Ejemplos de dispositivos periféricos externos son mouse, teclados, monitores, impresoras y escáners. Los dispositivos periféricos se consideran en general sólo como dispositivos externos. No obstante, algunos dispositivos internos pueden clasificarse como dispositivos periféricos. Ejemplos de dispositivos periféricos internos son unidades de disco rígido, CD-ROMs, y dispositivos de backup de cinta. Estos dispositivos internos se consideran dispositivos periféricos porque también podrían conectarse externamente. Hay un amplio rango de dispositivos periféricos y por lo tanto un amplio rango de problemas que pueden existir en ellos. La mayoría de los problemas de los periféricos pueden dividirse en tres categorías, problemas con el dispositivo, problemas con los cables que conectan el dispositivo a la computadora, o problemas con el puerto o la interfaz en la computadora.

Problemas de los Dispositivos Periféricos Al experimentar problemas con el dispositivo periférico en un sistema Linux, lo primero que deberá verificarse es el dispositivo. Cuando un dispositivo no está funcionando en un sistema Linux el problema será más a menudo un problema de controlador. Los problemas con el controlador son un problema a causa de la falta de soporte a controladores disponible para sistemas Linux. Asegúrese de que el dispositivo periférico que se está instalando tenga controladores que funcionen en Linux. No todos los dispositivos tendrán soporte de controladores disponible para Linux. Éste es un hecho desafortunado al usar Linux. Las razones para la falta de soporte de controladores se han tratado en secciones anteriores. Un enfoque a seguir al diagnosticar y resolver problemas de dispositivos periféricos en sistemas Linux es verificar los dispositivos que en general tienen la mayoría de los problemas. La mayor parte de los dispositivos comunes, como monitores, teclados, mouse, módems externos, dispositivos EIDE y SCSI usualmente funcionan sin problemas. Las impresoras, escáners y cámaras digitales son algunos de los dispositivos que en general presentan la mayor parte de los problemas.

Hay otro enfoque útil a tomar al diagnosticar y resolver problemas de dispositivos periféricos. Lleve el dispositivo a un sistema que esté ejecutando el sistema operativo Windows y vea si el dispositivo se instala apropiadamente. Casi todos los dispositivos periféricos disponibles en el mercado son compatibles y soportados por Windows. Por lo tanto, si el dispositivo funciona en el sistema

Page 389: Documento de Apoyo No. 4 Cisco It Essentials II

389

Windows y no en el sistema Linux lo más probable es que el problema tenga que ver con un controlador, no con el dispositivo en sí. Este enfoque también ayuda a diagnosticar otros problemas. Si el dispositivo no funciona en el sistema Windows entonces el problema podría ser un cable defectuoso o una interfaz defectuosa en el dispositivo.

Problemas de los Cables Periféricos Los problemas asociados con los cables son usualmente los más fáciles de probar. Simplemente reemplace el cable por uno nuevo. El proceso puede ser un poco más difícil con cables SCSI porque son mucho más caros. No siempre es posible comprar un nuevo cable SCSI sólo con propósitos de prueba. Algunos dispositivos tienen cables incorporados, como los teclados y mouse. No obstante, estos dispositivos son de bajo costo así que es fácil reemplazar el dispositivo entero. A veces los problemas de los cables no son el resultado de cables defectuosos sino de una instalación inapropiada. La mayor parte de los cables sólo pueden instalarse en una única dirección. No obstante, como se trató en la sección anterior, algunos cables pueden insertarse hacia atrás. Los cables de las disqueteras son inusuales porque tienen una torcedura. La torcedura juega un rol importante en cómo se instala la disquetera. Es importante que la primera disquetera o la única, dependiendo del sistema, se instale después de la torcedura del cable. Si se instala antes de la torcedura, los identificadores de unidad se confundirán y causarán problemas.

Problemas de la Interfaz del Periférico Los puertos o interfaces que los dispositivos periféricos, Figura , usan para conectarse a la computadora se han tratado previamente. Diagnosticar y resolver problemas de dispositivos EIDE y SCSI se trató en gran detalle. No obstante, hay otras varias interfaces periféricas que necesitan tratarse para poder diagnosticar y detectar problemas de los dispositivos periféricos en forma completa. Otras interfaces de dispositivos periféricos se enumeran a continuación.

Disquetera La mayoría de las computadoras incluyen controladores para soportar hasta dos disqueteras. Raramente habrá cualquier problema de configuración o compatibilidad con disqueteras en un sistema Linux porque el kernel casi siempre tendrá controladores para soportar cualquier disquetera que se instale. Si la disquetera no está siendo detectada, verifique el BIOS. El puerto para la disquetera debe activarse en el BIOS para que el controlador de la disquetera funcione. Si el puerto está activado en el BIOS y aún así la disquetera no funciona, entonces el problema es más probablemente un controlador o disquetera defectuosos. Es fácil reemplazar una disquetera. No obstante, puede ser difícil reemplazar un controlador de disquetera en motherboards porque son algo permanente en la placa. Si el controlador [controller, no driver] se vuelve defectuoso, la única solución es reemplazar el motherboard, o buscar una placa de expansión que tenga un controlador de disquetera en ella. La Figura demuestra el método correcto para insertar un diskette en la disquetera.

Page 390: Documento de Apoyo No. 4 Cisco It Essentials II

390

Monitor La interfaz para el monitor reside en la placa de video del sistema. Como se trató previamente, cualquier problema de configuración con el monitor usualmente tiene que ver con el X server que se está usando. Los problemas de hardware son usualmente fáciles de detectar porque el monitor no se enciende o la imagen en la pantalla está distorsionada. Desafortunadamente, los monitores son piezas de hardware sensibles que pueden dañarse fácilmente si se dejan caer, o se encienden cerca de un imán o fuente luminosa. Las imágenes se pueden quemar en la pantalla si el monitor se deja sin un salvapantallas activado. Una forma fácil de probar un fallo en el monitor es reemplazarlo por uno que funcione para ver si el problema desaparece.

Teclado Los teclados son piezas de hardware bastante estandarizadas. Al igual que ocurre con las disqueteras, no debería haber problemas de configuración o compatibilidad con los teclados. Cualquier problema con la interfaz del teclado estará estrictamente relacionada con el hardware. La interfaz en sí podría estar dañada o el teclado podría ser defectuoso.

Mouse PS/2 Un mouse PS/2 es un mouse que se conecta a la computadora mediante la interfaz PS/2. La interfaz PS/2 usualmente está ubicada junto a la interfaz del teclado. Los mouse USB son los que en general se venden hoy. No obstante, hay muchos sistemas que aún usan mouse PS/2 y por lo tanto es importante que se traten. Los controladores de mouse PS/2 en Linux son prácticamente estándar. Los controladores para el mouse, no obstante, necesitan incluirse en el kernel o compilarse como módulos para funcionar. Si la interfaz PS/2 real se daña, la única opción es usar un mouse USB o serial.

Paralelos Los puertos paralelos se usan comúnmente para impresoras, pero también se usan para otros dispositivos como escáners, cámaras, y otras unidades de medios externos. Existen dos tipos de controladores que un sistema Linux requiere para habilitar un dispositivo de puerto paralelo. El primer controlador es para hardware de puerto paralelo de bajo nivel y el otro controlador es para hardware que está conectado a la interfaz paralela. Mientras los controladores estén de alguna manera incluidos en el kernel no debería haber problemas de configuración con la interfaz paralela. Si la interfaz en sí se volviera defectuosa, instale una placa de expansión ISA o PCI que tenga una interfaz paralela. Otra opción sería usar otro puerto. Algunas impresoras y escáners más modernos pueden conectarse mediante puertos USB así como puertos paralelos. Un elemento de configuración a verificar con interfaces paralelas es asegurar que el puerto esté encendido en el BIOS. Si el puerto no está activado en el BIOS, el dispositivo no funcionará.

Serial RS-232 Los dispositivos que usan puertos serial se están volviendo obsoletos porque son considerablemente más lentos que los puertos paralelos o USB. El soporte para controladores para puertos serial RS-232 es prácticamente estándar en sistemas Linux y por lo tanto no debería haber ningún problema de configuración con este tipo de interfaz en particular. Si la interfaz no funciona,

Page 391: Documento de Apoyo No. 4 Cisco It Essentials II

391

verifique las configuraciones del BIOS.

USB La interfaz Bus Serial Universal (USB) se está volviendo la opción popular para conectar dispositivos externos a una computadora. La interfaz USB es popular porque proporciona una velocidad mayor y más flexibilidad que los puertos serial RS-232 o paralelos. Muchos de los problemas que los sistemas Linux tienen con las interfaces USB dependen de qué kernel se está usando. Por ejemplo, los sistemas Linux que están usando el kernel 2.2.17 o anterior tendrán un soporte muy limitado para interfaces USB. Para tener el mejor soporte para USB para un sistema Linux actualice al kernel 2.2.18 ó 2.4.X o actualice a una distribución de Linux que incluya esta versión del kernel. Cualquier distribución de Linux que se vendió después del año 2001 incluirá soporte agregado para dispositivos USB, no obstante, aún habrá algunos dispositivos no soportados. Haga las investigaciones apropiadas antes de adquirir cualquier dispositivo USB. También es importante verificar la configuración del BIOS y asegurarse de que las interfaces USB estén habilitadas.

IEEE-1394 IEEE-1394 es el último estándar para interfaces externas de alta velocidad, conocido como "firewire", Figura . Esta interfaz es mucho más rápida que USB. En algunos casos firewire se considera sucesora de las interfaces SCSI. No obstante, por ser una tecnología tan nueva, muchos de estos dispositivos aún no se usan ampliamente. Los dispositivos firewire continuarán creciendo y pueden eventualmente convertirse en estándar. El soporte para el estándar IEEE-1394 aún es muy limitado en sistemas Linux, pero se está trabajando para expandir el soporte de Linux para esta tecnología en el futuro. Algunos de los últimos motherboards disponibles en el mercado tendrán una interfaz firewire incorporada, pero muchos sistemas no. Puede adquirirse e instalarse una placa de expansión con una interfaz firewire.

Red Los puertos de red pueden incluirse en placas de interfaz de red (NIC) o a veces el puerto de red se incorporará al motherboard. Linux proporciona un amplio rango de soporte para la mayoría de las placas de red, pero no para todas ellas. Si la placa de red es una placa nueva, Linux puede no tener los controladores para soportarla.

La mayor parte de estas interfaces enumeradas son estándar y no deberían presentar mayores problemas en los sistemas Linux. No obstante, las interfaces y dispositivos de red, USB y firewire que no son estándar en sistemas Linux podrían causar algunos problemas. 12.3 Verificación y Confirmación de la Configuración del Hardware

12.3.8 Hardware del sistema central

El hardware del sistema central se refiere a la RAM, la CPU y el motherboard, el hardware más crítico de un sistema. Si cualquiera de estos dispositivos no está funcionando apropiadamente o está dañado entonces el sistema entero puede no funcionar. Éste es casi siempre el caso de la CPU y la RAM. El motherboard puede tener secciones que fallan, lo que ocasionaría que sólo cierto dispositivo o interfaz no funcionara. Por ejemplo, si el puerto paralelo estuviera dañado entonces es

Page 392: Documento de Apoyo No. 4 Cisco It Essentials II

392

probable que el sistema funcionara excepto por la interfaz paralela en particular y el dispositivo conectado a la interfaz.

Si hay un problema con cualquier parte del hardware del sistema central, el sistema lo indicará al usuario cuando el sistema está iniciando. Cada vez que se inicie el sistema, éste practica una Auto-Prueba de Encendido (POST). Durante la POST el sistema mira para ver si dispositivos tales como la RAM, el teclado y la placa de video están presentes y funcionando apropiadamente. Cuando el sistema inicia, hace bip una o dos veces. Esto es lo que el sistema usa para mostrar si el sistema pasa la POST o si cualquiera de los dispositivos falla en la POST. Un "código de bips" diferente se escuchará para diferentes dispositivos que fallan. Estos "códigos de bips" no están estandarizados, por lo tanto verifique la documentación del motherboard de cada sistema. Si el sistema falla en la POST, primero, verifique para asegurarse que todo el hardware está apropiadamente instalado. El segundo paso sería reconectar todos los dispositivos o al menos los dispositivos que se sospecha que no están funcionando. En la mayoría de los sistemas la POST va acompañada por indicadores en pantalla, que pueden monitorearse, para ver si cualquiera de las partes del hardware del sistema central no está funcionando apropiadamente. Por ejemplo, el indicador de progreso de la memoria mostrará cuánta RAM está reconociendo el sistema. Si el indicador se detiene a mitad de camino, es muy probable que el sistema haya encontrado una RAM defectuosa.

En un sistema Linux, algunos problemas asociados a hardware del sistema central no se muestran hasta después del arranque del sistema. Un mensaje en la pantalla indicando el problema aparecerá cuando un sistema Linux detecta un problema en el hardware del sistema central. Estos se conocen como "oops" del kernel, que se mencionaron en capítulos anteriores. El resumen que se muestra incluirá la palabra "oops" que muestra el problema de hardware. El "oops" en general muestra problemas de hardware como una RAM defectuosa, una CPU sobrecalentada o una unidad de disco rígido defectuosa.

Otro útil indicador para diagnosticar y resolver problemas apropiadamente en el hardware del sistema central es identificar cuándo ocurre el error. ¿Ocurre el problema justo cuando el sistema inicia o aparece después de que el sistema ha estado funcionando durante un tiempo? Si el hardware está fallando después de que el sistema ha estado corriendo durante un tiempo puede ser sólo que el sistema o el hardware se está calentando demasiado. Es importante verificar los reductores de calor del hardware y asegurarse de que el sistema tenga una ventilación apropiada para que no se sobrecaliente. Éste es un problema que la mayoría de la gente pasa por alto o piensan que no es de mayores consecuencias. No obstante, más hardware falla como resultado de un sobrecalentamiento que por otras causas.

12.4 Laptop y Dispositivos Móviles

12.4.1 Administración de la alimentación

Instalar Linux en laptops es otra área que requiere especial atención. Linux no fue inicialmente diseñado para correrse en un sistema en el cual cosas tales como administración de la energía o placas de PC intercambiables fueran necesarias. La parte más frustrante de usar Linux en una laptop es la instalación. Puede ser difícil hacer que la configuración XFree86 funcione apropiadamente con las pantallas de cristal líquido (LCDs) que usan las laptops.

Las laptops funcionan esencialmente de la misma manera que las computadoras de escritorio regulares e incluyen todo el mismo hardware que las computadoras de escritorio. El software también funciona de manera muy parecida. Existen algunas limitaciones que se presentan al instalar Linux en una computadora laptop. Estas limitaciones son las siguientes.

Page 393: Documento de Apoyo No. 4 Cisco It Essentials II

393

Módem La mayoría de las laptops que están disponibles hoy tienen módems incorporados. Aunque tener un módem incorporado es conveniente, esto representa problemas porque muy a menudo estos módems incorporados son usualmente módems de software para los cuales los controladores son raros en sistemas Linux. Para sortear este problema instale los controladores apropiados después de que Linux haya sido instalado, si hay controladores disponibles. Otra opción es adquirir un módem externo USB o serial. No obstante, asegúrese de que el módem adquirido sea soportado en Linux.

Networking Como en el caso de los módems, los dispositivos de red y Ethernet son ahora dispositivos integrados en las laptops. Averigüe qué chipset usa el dispositivo Ethernet incorporado y asegúrese de que sea soportado por Linux. Si no es soportado por Linux es posible adquirir un adaptador Ethernet externo.

Pantalla El problema más grande al instalar Linux en una laptop es hacer que la GUI se muestre apropiadamente. Las pantallas de LCD que se usan en las laptops aceptan sólo un estrecho rango de tasas de refresco horizontal y vertical. Esto hace difícil o incluso imposible que el instalador GUI se ejecute. Cuando sea el momento de configurar el X server, puede ser difícil encontrar una configuración que funcione en la laptop. Incluso si la GUI funciona, puede no funcionar a la resolución óptima del sistema. Es importante saber qué chipset de gráficos de las laptops no puede quitarse o reemplazarse, por lo cual es vitalmente importante que el chipset de las laptops deba tener soporte para que la GUI corra en él. Si es necesario instalar Linux en una laptop, visite la página web Linux en Laptops usando el vínculo enumerado más abajo. El sitio contiene información útil acerca de procedimientos de configuración así como otra información útil que puede ayudar al instalar Linux en una laptop.

Administración de la Energía Las computadoras laptop se quedan sin energía en la batería cuando no están enchufadas. Comprender la administración de la energía de la laptop y cómo se relaciona cuando está instalado Linux es importante. Las laptops sólo pueden funcionar durante un periodo temporal hasta que la energía de la batería se agota. Por esta razón las laptops están equipadas con muchas herramientas de administración de energía extra. Las herramientas de administración de energía ayudan a reducir el uso de la batería y a extender la vida de la batería. Las dos herramientas principales de administración de la energía que se incluyen en el kernel Linux son Administración de Energía Avanzada (APM) e Interfaz de Energía y Configuración Avanzada (ACPI). Ambas herramienta requieren soporte del BIOS del sistema para que funcionen. Recuerde que aunque estas herramientas tienen las laptops en vista, también se usan en las computadoras de escritorio. Linux usa estas herramientas para quitar la alimentación de un sistema cuando se apaga.

El primer estándar real para la administración de energía fue APM. ACPI es un componente de administración de energía eventualmente elaborado para reemplazar a APM. Una gran diferencia es que ACPI requiere que cada dispositivo del sistema sea capaz de manejar cambios en el estado de la energía correctamente. Al inicio, el BIOS presenta la DSDT (Tabla de Descripción del Sistema Diferenciada) al sistema operativo. Esta tabla le permite saber al OS qué capacidades tiene cada dispositivo, y basándose en la información, es capaz de llevar a cabo las acciones requeridas antes de cambiar el estado del sistema. Dos usos comunes de ACPI en laptops es el estado de la batería y cuando se presiona el botón de encendido en una PC. Cuando se presiona el botón de encendido se envía una señal al motherboard en lugar de a la fuente de alimentación real, al usar ACPI. Mediante ACPI, un daemon acpid es alertado y puede llevar a cabo tareas personalizadas, usualmente apagar el sistema.

El principal propósito de estas herramientas de administración de energía es indicar al sistema cuándo entrar a estados de "conservación de la energía". Para que esto funcione, el paquete apmd necesita estar instalado y funcionando. Este paquete podría venir incluido en los discos de instalación de la distribución o podría instalarse automáticamente. El programa apmd se ejecuta

Page 394: Documento de Apoyo No. 4 Cisco It Essentials II

394

como daemon y deberá configurarse para iniciarse automáticamente cuando se inicia el sistema. Para iniciar un daemon automáticamente cuando el sistema inicia edite el archivo /etc/rc.d/rc.local e introduzca una línea de texto que haga referencia al programa en el directorio /etc/rc.d/init.d/. La Figura muestra el archivo de configuración /etc/rc.d/rc.local/. Por ejemplo, ubique la siguiente línea de texto en el archivo de configuración /etc/rc.d/rc.local/.

/etc/rc.d/init.d/apmd

Puede no ser necesario agregar esta línea de texto al archivo de configuración /etc/rc.d/rc.local/ porque puede ya estar ahí. En algunos casos es colocada ahí cuando se instala el sistema operativo, o cuando se instala el daemon. El programa apmd monitoreará el sistema para ver cuándo la energía de la batería está baja. Cuando sea necesario, los programas y funciones del sistema se apagarán y sólo se mantendrá la RAM del sistema. El programa apmd también suspende el disco rígido del sistema si no se usa durante un periodo especificado. El programa hdparm puede controlar la administración de energía de la unidad de disco rígido más directamente, como se aprendió en secciones anteriores.

También es posible controlar manualmente la herramienta APM tipeando el comando apm en el shell. Tipear este comando mostrará información básica sobre administración de la energía, como cuánta energía queda en la batería. El parámetro -s puede usarse con este comando que hará que el sistema pase a modo suspendido. El parámetro -S colocará el sistema en modo standby. Las diferencias entre estos dos modos son sutiles. El modo suspendido cerrará programas y apagará dispositivos excepto la CPU y la memoria, que sólo corren en niveles mínimos. El modo standby deja los dispositivos encendidos para que el sistema pueda recuperar la energía más rápidamente pero lleva más energía de la batería que el modo suspendido. Dependiendo de qué tipo de batería tenga la laptop, el sistema puede permanecer en modo suspendido por un día o más sin necesitar recarga, pero sólo puede permanecer en modo standby varias horas. Verifique el manual o documentación de la laptop para ver si tiene una secuencia de teclas que fuerce al sistema a entrar en modo suspendido o standby. Hacer que ACPI se ejecute en Linux a veces puede ser complicado. Esto se debe a que los fabricantes de laptops a menudo no siguen ningún tipo de estándar al codificar ciertos BIOS y componentes relacionados con ACPI. En lugar de desarrollar y seguir un estándar, se basan en controladores Windows propietarios para funcionalidad. Desafortunadamente, en muchos casos, esto significa que ACPI no siempre funciona para usuarios de Linux.

Cuando ACPI se configura y se ejecuta correctamente, hay muchas ventajas en su uso. Puede monitorear componentes relacionados con la alimentación, como el adaptador AC y la batería. Una de sus funciones avanzadas involucra las capacidades de re-clocking del procesador. Se puede configurar ACPI para que baje la frecuencia de su CPU cuando la laptop está inactiva. También puede controlar los ventiladores del sistema. Otra función más amplia es monitorear ciertos eventos que tienen lugar en su laptop. Cerrar la tapa o presionar el botón de energía pueden configurarse

Page 395: Documento de Apoyo No. 4 Cisco It Essentials II

395

para enviar a la laptop a un estado "dormido" o suspendido. El primer paso para configurar Linux con soporte ACPI es descargar e instalar un Kernel que ya tenga los módulos ACPI integrados. Se pueden buscar los últimos kernels Linux en el vínculo al sitio web de más abajo. 12.4 Laptop y Dispositivos Móviles

12.4.2 Dispositivos de placas PC

Las laptops no tienen la capacidad para agregar y quitar dispositivos como los sistemas de escritorio regular lo pueden hacer con placas ISA o PCI. Para sortear este problema, los fabricantes desarrollaron un estándar para placas de expansión que pueden ser fácilmente insertadas y quitadas de la laptop. Las placas se nombraron placas PCMCIA, Figura , por el grupo industrial que las desarrolló, Asociación Internacional de Placas de Memoria de Computadoras (PCMCIA). Desde entonces, el nombre a menudo se abrevia a placas PC, para ayudar a reducir el uso del acrónimo PCMCIA. Algunos sistemas Linux y otros fabricantes aún usan el acrónimo PCMCIA.

Hay varios tipos diferentes de placas PC que pueden usarse en las laptops. La diferencia entre Placas PC es su tamaño y uso. Los tres tipos de Placas PC son Tipo I, Tipo II y Tipo III. Las placas Tipo I son las más delgadas y las Tipo III son las más gruesas. Las placas Tipo I son las más usadas en aplicaciones tales como expansión de memoria. Las placas TIpo II son el tipo más común de placas PC y se usan con placas Ethernet o módems. Las placas Tipo III son el tipo más raro de placas PC y se usan con unidades de disco rígido u otros dispositivos que tienen componentes internos móviles. Para averiguar más acerca de estas placas visite el sitio web de las placas PC, en el vínculo más abajo. Como cualquier otro hardware que se instala en un sistema Linux, es necesario instalar los controladores apropiados para el hardware. Algunos kernels no vienen con el paquete de controladores de Placa PC instalados, así que primero consiga el paquete de controladores e instálelo. El paquete de controladores de placas PC puede descargarse en el vínculo web de más abajo. Afortunadamente, la mayoría de las distribuciones Linux vienen con estos paquetes incluidos por lo tanto no debería ser necesario descargarlos. Si se necesita soporte para un nuevo dispositivo, o si se toma la decisión de actualizar el kernel recompilándolo manualmente, entonces descargue este paquete e instálelo.

El principal problema de usar Placas PC en un sistema Linux es que estas placas PC están diseñadas para insertarse o quitarse a voluntad. Esto fuerza al controlador a ser montado y desmontado cada vez que la placa se inserta y se quita de la laptop. Los controladores y módulos Linux no funcionan así. No pueden montarse y desmontarse cada vez que se insertan o quitan placas PC de la laptop. No obstante, el paquete de controladores de la placa PC incluye una función llamada Servicios de Placa, que ayuda a montar y desmontar sin problemas controladores del kernel de manera tal que sea seguro para el sistema y evita que se caiga. Por ejemplo, los Servicios de Placa ayudarán a suavizar el proceso de iniciar y detener automáticamente los servicios de Red cada vez que la placa Ethernet se inserta o quita. El directorio /etc/pcmcia, contiene archivos de configuración que usa la función Servicios de Placa. Estos archivos de configuración permiten a una variedad de placas PCMCIA ser configuradas para la laptop. Estos archivos de configuración son realmente scripts que se ejecutan y le indican al sistema que cargue determinados controladores para diferentes tipos de servicios como red o ide, cuando la placa PC se inserta en la laptop. Estos scripts deberán funcionar sin problemas, y no debería haber

Page 396: Documento de Apoyo No. 4 Cisco It Essentials II

396

necesidad de editarlos para que funcionen.

Resumen

Configurar, instalar y mantener hardware en un sistema Linux requiere un amplio rango de habilidades y conocimiento. La mayor parte de estas configuraciones son manipuladas de manera diferente en Linux que en cualquier otro sistema operativo. Por lo tanto, un enfoque completamente diferente necesita tomarse con respecto a llevar a cabo estas tareas en Linux. Por ejemplo, la instalación, configuración y mantenimiento de controladores fueron temas importantes que funcionan de manera diferente que en otros sistemas operativos. Instalar físicamente el hardware se hace de manera muy similar a cualquier otro sistema operativo, no obstante, debe prestarse particular atención al localizar y asegurar que los controladores Linux estén disponibles para el dispositivo. Como sucede con la mayor parte de las instalaciones de hardware y software, los problemas son inevitables. Algunos de los problemas más comunes tienden a ser motherboards, CPUs y RAM sobrecalentados o defectuosos. Otros problemas comunes incluyen dispositivos EIDE y SCSI mal configurados o defectuosos. También está la instalación en laptop, administración de la energía, y problemas con dispositivos de placa de PC, que requieren atención especial. Ésta puede parecer una tarea difícil, pero es común cuando se instala y configura nuevo hardware con cualquier sistema operativo, incluyendo a Linux.

13. Detección de problemas del sistema operativo Descripción general

Detectar y resolver problemas en un sistema que ha manifestado algún nivel de fallo puede ser uno de los trabajos más estresantes en informática. Cuando la oficina IT central de una compañía grande llama por teléfono a un administrador de sistemas a las 3:00 de la mañana para quejarse por conectividad de networking perdida, nadie está contento. También es un problema cuando un vicepresidente corporativo no puede imprimir el informe en el que ha venido trabajando por semanas a tiempo para una reunión a las 7:00 de la mañana en un desayuno con el CEO. Todas las partes no desean más que resolver el problema eficaz y rápidamente. Los administradores de sistemas experimentados confían en una metodología probada y sistematizada para resolver problemas del sistema. Deben poder reconocer condiciones de error comunes y conocer sus causas usuales. Deben aprender a evaluar síntomas de manera tal que puedan aislar su probable origen. Luego es necesario aplicar su experiencia en conocer qué clase de pruebas ejecutar y qué avenidas explorar para verificar hipótesis relativas al problema, o reunir más datos. Necesitan saber qué hacer para arreglar el problema, o adónde dirigirse para obtener asistencia rápidamente, luego seguir adelante y hacerlo. Deberán documentar lo que aprenden por el camino para hacer más fácil atacar cualquier recurrencia del problema. Finalmente, necesitan educar a los usuarios de manera que se evite que el problema vuelva a ocurrir, o al menos permitirles proporcionar feedback significativo si lo hace.

13.1 Identificación y Localización de Síntomas y Problemas

13.1.1 Problemas de Hardware

Cuando un usuario afligido experimenta problemas de sistema, no es suficiente para él o ella lamentarse, "¡Esta computadora no funciona!" El problema puede ser real, y las emociones expresadas sobre él ser sinceras, pero no se ha proporcionado la suficiente información para permitir al técnico que la arregla saber por dónde empezar. Aunque unos pocos problemas se deben a una combinación de factores, la mayoría puede aislarse en uno de los siguientes orígenes:

· Hardware Un componente de hardware del sistema ha funcionado mal, o se lo espera pero no está presente.

· Kernel Un bug o falta de funcionalidad en el kernel del sistema a veces causa problemas de origen ambiguo.

· Software de aplicaciones El software de aplicaciones o utilidades de comandos a nivel del usuario pueden comportarse extrañamente, o simplemente colapsarse.

Page 397: Documento de Apoyo No. 4 Cisco It Essentials II

397

· Configuración Los servicios del sistema o el software de aplicaciones puede estar mal configurado.

· Error del usuario Una de las más frecuentes fuentes de condiciones de error es causada por usuarios de computadoras intentando hacer algo de la manera equivocada.

Cada tipo de condición de error puede categorizarse de una de dos maneras, consistente o inconsistente. Un problema consistente es uno que de forma demostrable y positivamente ocurre una y otra vez. Los problemas inconsistentes son aquéllos que ocurren sólo esporádicamente, o bajo condiciones indeterminadas.

El último tipo es mucho más difícil de atacar, porque factores desconocidos causan el problema. Antes de poder encontrar una solución, es necesario tener una clara definición de todas las condiciones que pueden estar relacionadas. Por ejemplo, si el usuario de una pieza de software de oficina selecciona una opción del menú y el programa se cae cada vez, dejando una extracción del núcleo, se trata de un problema reproducible. Por otro lado, si el usuario selecciona esa opción y a veces funciona, mientras que otras se cae, eso sugiere que algo desconocido podría estar involucrado acerca del camino que tomó el usuario para llegar a ese estado. Es necesaria más información para ver qué más podría haber hecho que puede haber causado el problema.

Algunos errores de hardware serán obvios. Si una unidad de disco comienza a sacudirse o deja de escucharse en absoluto, si se detecta humo, o las luces del equipo no se están encendiendo como lo hacen normalmente, es probable que haya un problema del dispositivo físico. Si un trabajo de impresión en una impresora que ha estado funcionando bien resulta desteñido, en blanco, o con colores extraños, la impresora podría necesitar un nuevo cartucho, no diferente software de controladores.

Otro hardware deja rastros que el kernel detecta y registra. Suponiendo que un error es tal que no hace caer el sistema, podría quedar evidencia en el archivo log /var/log/messages, con el mensaje prefijado por la palabra oops. Un ejemplo de este archivo log se muestra en la Figura . La presencia de tal mensaje no es necesariamente un error de hardware, aunque existe la posibilidad.

Es importante comprender lo que está localizado dentro del directorio /dev al tratar cómo detectar problemas de hardware en Linux. El directorio /dev contiene archivos especiales conocidos como archivos de dispositivos, que se usan para acceder a todos los tipos diferentes de hardware de un sistema Linux. Por ejemplo, el archivo /dev/mouse es para leer entradas del mouse. Organizando el acceso a los dispositivos de hardware de esta manera, Linux eficazmente hace parecer la interfaz de un dispositivo de hardware como cualquier otra pieza de software. El directorio /dev es un buen lugar para empezar a mirar al detectar problemas de hardware.

Page 398: Documento de Apoyo No. 4 Cisco It Essentials II

398

13.1 Identificación y Localización de Síntomas y Problemas

13.1.2 Problemas del Kernel

Los kernels Linux lanzados son considerablemente estables, a menos que se usen versiones experimentales o se hagan modificaciones individuales. Los módulos de kernel descargables se consideran parte del kernel también, al menos durante el periodo durante el que se los descarga. A veces éstos también pueden ocasionar dificultades. La buena noticia con respecto a los módulos es que pueden desinstalarse y reemplazarse por versiones fijas mientras el sistema aún está funcionando.

Los problemas con los módulos a menudo se identifican en el transcurso del uso de una aplicación que los llama. Por ejemplo, si un usuario intenta reproducir un archivo de sonido que requiere un módulo que no ha sido cargado, el kernel informará que el controlador o una función a la que llama no está presente en la memoria y necesita cargarse.

13.1 Identificación y Localización de Síntomas y Problemas

13.1.3 Software de aplicaciones

Los errores en paquetes de aplicaciones son más identificables por el hecho de que ocurren solamente cuando se ejecuta la aplicación. Esto, en contraste a las condiciones de hardware o kernel que afectan a todo el sistema. Algunas señales comunes de bugs en aplicaciones son el fallo al ejecutar y la caída del programa.

Fallo al ejecutar El programa no iniciará en absoluto, sugiriendo que su archivo principal podría no tener permiso para su ejecución. O puede parecer iniciar, pero no inicializa enteramente, y se cierra o se queda a mitad de camino, a veces con un mensaje de error mostrado en una ventana, en la línea de comandos, o en un archivo log.

Caída del programa Cuando un programa en ejecución se cae, usualmente lo hace sin guardar los datos o archivos en los que está trabajando un usuario. A veces se registran mensajes de error en uno de los lugares de costumbre. En otros momento queda un archivo del núcleo, lo cual es una señal definida de que la aplicación en sí sufrió un fallo catastrófico. Un archivo del núcleo puede examinarlo con un debugger alguien que conozca la aplicación y que tenga código fuente disponible. En situaciones de emergencia, no obstante, los archivos del núcleo son generalmente de poco uso.

Una variante de este caso es un programa bloqueado. La aplicación sigue ejecutándose, pero no procede hacia ningún sitio. Esto requiere que el proceso se elimine con kill desde una línea de comandos. A veces eliminarlo con señal 3 (SIGQUIT) hará que termine y deje una imagen de su memoria en un archivo del núcleo. Este archivo puede enviarse al fabricante del software con una

Page 399: Documento de Apoyo No. 4 Cisco It Essentials II

399

descripción del problema en espera de obtener una respuesta y solución a largo plazo. La realidad es, no obstante, que la mayoría de los fabricantes de software no responden a las necesidades de usuarios desafortunados que han sido víctimas de su software fallido. Algunas aplicaciones están diseñadas para mostrar una memoria al recibir ciertas señales, que pueden ser informativas, a veces incluso sin la disponibilidad del código fuente. Desafortunadamente, éste tiene que conocerse antes de que el problema surja.

Agotamiento de recursos Los recursos del sistema se refieren principalmente al tiempo de la CPU, memoria, y espacio en disco. Una aplicación puede consumir demasiada memoria del sistema y en última instancia comenzar a intercambiar tanto que todo el sistema se ve afectado. Puede entrar en un bucle que consume mucho espacio en el tiempo de la CPU. Puede comenzar a escribir archivos que se hacen muy grandes y hacer que el sistema de archivos se quede sin espacio. Tal mal comportamiento es generalmente un fallo de la aplicación, no del sistema.

Mal comportamiento específico de un programa Algunos errores son causados por cosas que tienen que ver con la ejecución del programa en sí. Por ejemplo, si un procesador de texto tiene una función que permite al usuario saltar hasta una cierta página del documento, y se le indica que vaya a la página 999999999999 y se cae, a la aplicación probablemente le falta código para verificar desbordes de enteros.

13.1 Identificación y Localización de Síntomas y Problemas

13.1.4 Configuración

Muchos paquetes pueden y debe ajustarse para una instalación local antes de ser usados. Simplemente instalar el software en el sistema no es suficiente. Los problemas de configuración tienden a afectar a subsistemas enteros, como subsistemas de gráficos, impresión, o networking. Por ejemplo, si una costosa terminal SVGA se conecta a una placa adaptadora gráfica de alta potencia en un sistema de escritorio y muestra solamente los gráficos de baja resolución más granulados, es probable que el subsistema de gráficos X esté mal configurado. Tal vez el programa Xconfigurator necesite ejecutarse. Programas que dependen de servicios de networking son particularmente responsables de causar problemas. Si el sistema se reinicia y un sistema de archivos remoto que una vez estuvo presente no lo está, el primer lugar donde buscar es en el archivo de configuración /etc/fstab para ver si se supone que el sistema de archivos se monte en el momento del arranque. Un ejemplo del archivo /etc/fstab se muestra en la Figura . Si se está enviando e-mail, pero mailq muestra que el correo saliente simplemente espera en una cola y nunca sale del sistema, podría ser necesario investigar la configuración para el agente de transporte de correo.

Allí donde un problema de configuración ocurre en software de aplicaciones, deberá determinarse si ocurre en todo el sistema, o a solamente un usuario. La mayoría del software configurable incluye archivos de configuración del sistema por defecto y permite a los usuarios individuales personalizar el comportamiento del programa según sus gustos. Por ejemplo, si un navegador del sistema funciona bien para todo el mundo excepto para un usuario que ve tanto el texto como el fondo del mismo color. Es probable que esta persona haya estado experimentando con las propiedades del navegador y puede necesitar un poco de asistencia para restaurar una funcionalidad razonable.

Page 400: Documento de Apoyo No. 4 Cisco It Essentials II

400

13.1 Identificación y Localización de Síntomas y Problemas

13.1.5 Error del usuario

Es perdonable cometer un error al usar un programa informático o ignorar la forma correcta de hacer algo. Lo que es imperdonable es insistir en permanecer tozudamente así. Hay más para conocer acerca de los detalles intrincados de operar casi cualquier paquete de software que lo que los usuarios cotidianos jamás se preocupen o intenten aprender. A menos que un usuario tenga un particular interés en un programa y una cantidad extra de tiempo para explorar funciones a las que puede nunca dar uso, tendrá que conformarse con lo que funciona.

Por lo tanto es raramente una sorpresa cuando los usuarios se quedan atascados en el software o simplemente encuentran que son incapaces de ir del punto A al punto B. Supongamos: "no puede llegar allí desde aquí". A veces un poco de instrucción es todo lo necesario para ayudar a alguien a superar un problema.

13.1 Identificación y Localización de Síntomas y Problemas

13.1.6 Uso de utilidades del sistema y uso de herramientas de estado del sistema

Los sistemas operativos Linux proporcionan diversas utilidades del sistema y herramientas de estado del sistema. Estas herramientas son útiles para ayudar a identificar o diagnosticar ciertos problemas del sistema operativo. Las siguientes utilidades devuelven información acerca de la configuración actual del sistema y en algunos casos permiten cambiar la configuración si necesita arreglarse. También es importante saber que estas utilidades son útiles a un grado que devolverán información acerca de cómo el sistema o un archivo "deberían" configurarse, pero no proporcionan información sobre qué archivo o configuración del sistema exactos están mal configurados.

· setserial Esta utilidad proporciona información y configura opciones para los puertos serial del sistema. Los puertos serial en un sistema Linux son por lo común /dev/ttyS0 y /dev/ttyS1. Introduciendo el comando setserial -a /dev/ttyS0 en el shell, el sistema devolverá información detallada incluyendo el tipo de hardware que está conectado al puerto serial en particular, la velocidad del puerto, y los recursos de hardware usados por el puerto. Un ejemplo de la salida del comando setserial -a /dev/ttyS0 se muestra en la Figura

. · lpq Este comando ayuda a resolver problemas de impresión. El comando mostrará todos

los trabajos que están esperando para ser impresos. Es de ayuda porque puede usarse para determinar si hay un problema en la cola de impresión, o determinar si el sistema Linux no puede encontrar la impresora en absoluto. Si el trabajo de impresión que se envió desaparece de la cola, hay algo mal en la cola de impresión. No obstante, si el trabajo de impresión permanece en la cola entonces el problema más probable es que el sistema tiene problemas para encontrar la impresora. Un ejemplo de la salida de este comando se muestra en la Figura .

· ifconfig Esta utilidad y sus usos se tratarán en más detalle posteriormente en este capítulo. No obstante, este comando puede introducirse en el shell para que devuelva la configuración de interfaz de red actual del sistema. Este comando devolverá la dirección IP actual del sistema, la máscara de subred, el gateway por defecto, el servidor DNS, el servidor DHCP, la IRQ que usa la placa de red, etcétera. Un ejemplo de la salida del

Page 401: Documento de Apoyo No. 4 Cisco It Essentials II

401

comando ifconfig se muestra en la Figura . · route Esta utilidad y sus usos también se tratarán en más detalle en este capítulo. Este

comando muestra o configura la información acerca del enrutamiento del sistema, que utiliza para enviar información a direcciones IP en particular. Este comando puede ser útil para obtener información que puede ser de ayuda en la resolución de problemas de conectividad de red. Un ejemplo de la salida del comando route se muestra en la Figura .

Hay varios otros tipos de utilidades del sistema y herramientas de estado que pueden usarse para examinar problemas en un sistema Linux que ya se han tratado a lo largo de este curso. Éstas incluyen comandos como las utilidades para disco rígido du y df, el comando top, así como la utilidad del sistema de archivos fsck.

13.1 Identificación y Localización de Síntomas y Problemas

13.1.7 Programas y procesos que no responden

A veces hay programas o procesos que por diversas razones pueden no responder o "bloquearse". A veces solamente el programa o proceso en sí se bloquea y otras veces pueden ocasionar que todo el sistema deje de responder. Un método para identificar y localizar el programa que no responde y resolver eficazmente el problema es eliminar o reiniciar el proceso o programa. Algunos de los temas tratados en esta sección han sido tratados en otros capítulos, no obstante hay otras consideraciones de resolución de problemas a tener en cuenta en el caso de programas y procesos

Page 402: Documento de Apoyo No. 4 Cisco It Essentials II

402

que no responden.

13.1 Identificación y Localización de Síntomas y Problemas

13.1.8 Cuándo iniciar, detener o reiniciar un proceso

Como se mencionó en capítulos anteriores, a veces es necesario terminar el proceso que no responde a sus funciones normales. Cuando un proceso no responde puede realmente hacer mucho daño a un sistema informático. Lo más importante, estos procesos "colgados" pueden consumir todos los recursos del sistema tomando control del tiempo de la CPU. Eventualmente estos procesos que no responden pueden hacer que todo el sistema se caiga si no se los trata apropiadamente. Es importante estar seguros de que un proceso se ha bloqueado antes de eliminarlo aunque parezca bloqueado, porque algunos procesos se cuelgan un breve tiempo cuando están procesando datos. Otras razones por las cuales se necesita terminar procesos que no responden son si comienza a quedar fuera de control y está consumiendo espacio en disco, memoria y RAM del sistema.

Lo más fácil para terminar un programa es usar el comando kill, Otros procesos necesitan terminarse editando el script de inicio Sys V que se trató en el Capítulo 10. La razón por la cual algunos programas y procesos necesitan detenerse editando el script de inicio Sys V en lugar de simplemente usar el comando kill, es que, algunos programas usan otros archivos llamados archivos de bloqueo. Los archivos de bloqueo indican que el programa está usando un recurso que no debería. Si un programa se termina usando el comando kill, el archivo de bloqueo quedará y cuando el programa se ejecute nuevamente, lo más probable es que falle. Si esto ocurriera, se generará un mensaje de error. Los archivos log del sistema pueden verse para determinar la presencia de un archivo de bloqueo. Si se muestra un mensaje de error, entonces se recomienda verificar la documentación del programa para determinar dónde está almacenado el archivo de bloqueo. Los archivos de bloqueo pueden simplemente borrarse y el problema se soluciona. Al reiniciar un programa, servicio, o daemon lo mejor es consultar primero la documentación porque diferentes programas tienen que reiniciarse de maneras diferentes. Algunos soportan el uso del comando restart, algunos necesitan detenerse completamente y luego iniciarse otra vez, y otros pueden simplemente releer sus archivos de configuración sin necesitar detenerse y volverse a iniciar, o reiniciarse. 13.1 Identificación y Localización de Síntomas y Problemas

13.1.9 Solución de problemas persistentes

Programas que ocasionan problemas persistentes y necesitan reiniciarse constantemente podrían generar llamadas para la resolución de problemas recurrentes. Esto usualmente significa que el programa tiene algún problema o bug interno. Una de las primeras cosas que pueden hacerse es verificar con el fabricante y ver si se ha lanzado alguna actualización o patches. Otro problema que puede estar causando que un programa tenga problemas recurrentes es un problema de hardware. Problemas con la CPU, la RAM, el motherboard, y otros componentes de hardware pueden causar problemas para algunos programas. En algunos casos de un fallo de hardware todo el sistema o el sistema de archivos del sistema operativo puede caerse. La mejor forma de arreglar programas que se caen repetidamente es reemplazarlos con nuevo software o con un tipo diferente de software que realice la misma tarea. El software reemplazante puede no ser una opción o ni siquiera estar disponible, sin embargo. La solución a esto es mucho más dificultosa. De ser posible, intente usar el software de manera diferente o si hay una tecla o comando en particular que hace que el programa falle, deje de usarlos. La mayoría de las veces habrá software de reemplazo disponible. Si se trata de un daemon que se cae regularmente intente

Page 403: Documento de Apoyo No. 4 Cisco It Essentials II

403

usar otros métodos para iniciarlo y ejecutarlo. Los diversos métodos para iniciar daemons en un sistema Linux se describieron en el Capítulo 10.

13.1 Identificación y Localización de Síntomas y Problemas

13.1.10 Examen de los archivos log

Los archivos log se mencionaron por primera vez y se introdujeron en la sección 11.4.4 del Capítulo 11. Las diversas actividades de un servidor Linux, el kernel del sistema operativo, y las utilidades del sistema se registran en archivos log. También se mencionó en la sección 11.4.4 del Capítulo 11 que la mayoría de archivos log se localizan en el directorio /var/log o en un subdirectorio. Algunos de los archivos log más importantes en un sistema Linux son los archivos log /var/log/messages, /var/log/secure, y /var/log/syslog. La Figura muestra todos los archivos log que están ubicados en el directorio /var/log. Examinar los archivos log puede ser de ayuda en la identificación de varios problemas en un servidor Linux. Los archivos log del sistema pueden usarse para monitorear cargas del sistema tales como cuántas páginas ha servido un servidor web. También pueden verificar rupturas de la seguridad tales como intentos de intrusión, verificar que el sistema esté funcionando apropiadamente, y anotar cualquier error que podría ser generado por el software o los programas. Hay varios diferentes tipos de información que es bueno saber, que hará de la identificación de problemas usando los archivos log algo un poco más fácil. Algunas de estas cosas se enumeran a continuación.

Monitoreo de Cargas del Sistema Los servidores están diseñados y construidos para aceptar solicitudes entrantes de otros usuarios de la red de área local (LAN) o externamente de usuarios remotos o de Internet. El servidor necesita estar construido de manera tal que pueda manipular estas solicitudes de manera eficiente. Los archivos log pueden usarse para determinar qué solicitudes se están haciendo que podrían hacer que el servidor se ralentice. Si el servidor recibe un gran incremento en la cantidad de solicitudes entrantes o los archivos transferidos se incrementan en tamaño, entonces será necesario tomar las medidas apropiadas para incrementar la capacidad del servidor para manejar la carga. Esto podría incluir el agregado de otro servidor, router, o switch, en lugar de solamente

Page 404: Documento de Apoyo No. 4 Cisco It Essentials II

404

mejorar un servidor existente. Tenga en cuenta que estos archivos log mantendrán un rastreo de incrementos de carga solamente en los programas específicos del servidor. Esto significa que solamente registrarán los eventos de los programas y servicios que se ejecutan en el servidor y no cualquier problema ocasionado por un incremento en las demandas de la estación de trabajo. No obstante, puede ser fácil determinar si las demandas de la estación de trabajo se incrementarán porque un administrador del sistema sabría si los usuarios van a usar programas más intensivos en materia de recursos.

Intentos de Intrusión y su Detección Puede ser difícil detectar una intrusión a una red o servidor. Un examen apropiado de los archivos log del sistema puede ayudar a descubrir cómo y dónde ocurrió la intrusión, así como qué cambios hizo el atacante en el sistema o la red. Cuando una persona irrumpe en un sistema, intentará modificar herramientas y utilidades del mismo. Esto afecta el desempeño o la confiabilidad. Los intrusos pueden tan sólo borrar archivos importantes y borrar archivos log para hacer difícil averiguar qué daño han hecho al sistema. Por esta razón es una buena idea monitorear continuamente los archivos log para que cualquier cambio o entrada inusual llame la atención.

Funcionamiento Normal del Sistema Los archivos log también pueden examinarse para asegurarse de que el sistema está funcionando en un estado normal. Si hay algo mal en el sistema, la información de los archivos log puede ayudar a identificar y eliminar posibles problemas. Por ejemplo, un sistema Linux puede estar configurado como servidor DHCP en el cual es posible distribuir direcciones IP a estaciones de trabajo cliente. Los archivos log pueden examinarse para ver si el servidor está recibiendo solicitudes y está distribuyendo préstamos de direcciones IP. Si las solicitudes se están recibiendo el problema puede reducirse a un problema del lado del cliente y no a un problema con el servidor.

Entradas Faltantes Si a cualquiera de los archivos log le faltan entradas, esto puede indicar que algo en el servidor no está funcionando apropiadamente o está mal configurado. Entradas faltantes en archivos log también pueden indicar un problema en otro lugar que no sea el servidor. Por ejemplo, un servidor de archivos está configurado para ejecutar Samba para que los clientes que usan Microsoft Windows puedan acceder al servidor Linux, y Samba está configurado para registrar intentos de acceso al servidor. Supongamos que el log se verifica después para ver quién está intentando acceder al servidor y se descubre que faltan entradas. Estas entradas faltantes pueden indicar que hay un error de configuración en el daemon Samba del servidor. También podría significar que hay un problema externamente a la red con un router o firewall que está evitando el acceso. Lo cual significa que el servidor podría no ser el problema en absoluto.

Mensajes de Error Muchos de los archivos log de un sistema Linux contendrán diversos mensajes de error que pueden usarse para ayudar a localizar e identificar cualquier problema o mala configuración del servidor. Por ejemplo, un archivo log puede contener información sobre un error de autenticación. Este mensaje de error sería de utilidad porque le indica a un administrador del sistema dónde deberían comenzar los esfuerzos de detección de problemas. Muchos programas y utilidades del servidor pueden configurarse para que registren información específica, lo cual puede ayudar también en los esfuerzos de detección de problemas. Se recomienda consultar la documentación de los programas en cuanto a las opciones de configuración que están disponibles porque pueden variar dependiendo del programa en particular.

Uso de tail y head Los comandos tail y head Linux pueden ser de ayuda para examinar archivos log del sistema. Algunos archivos log contienen numerosas páginas de información y texto. Usando los comandos tail y head es posible procesar solamente una parte del archivo log para mostrar solamente la información o texto que se especifiquen, en lugar de todo el archivo log de una sola vez. Por ejemplo, si deseara ver unas pocas líneas del principio o final del archivo log, usar el comando head enviaría las primeras 10 líneas y el comando tail enviaría las últimas 10 líneas a la salida estándar.

Page 405: Documento de Apoyo No. 4 Cisco It Essentials II

405

También es posible manipular más allá la salida deseada usando las diversas opciones del comando. Visite las páginas man de los comandos tail y head para ver una lista más abarcativa de las opciones disponibles. Se puede cambiar la cantidad de líneas que estos comandos envían a su salida estándar con la opción -n. Para instruir a head o tail que usen bytes en lugar de líneas se usaría la opción -c en lugar de -n. Por ejemplo, para mostrar los primeros 200 caracteres del archivo log, use el comando head -c 200 file, o use el comando -c 200 file para mostrar los últimos 200 caracteres. Otras opciones incluyen agregar una b (por bloques) después de 200, lo que multiplicaría el valor por 512. De manera similar, k (por kilobytes) multiplica el número dado por 1024, y m (por megabytes) multiplica el número dado por 1048576 bytes.

Algunos archivos log continuarán procesando los datos y continuarán agregando datos mientras está instruyendo a head o tail para que lean datos del archivo específico. Un ejemplo de esto serían los archivos log para el servidor web Apache. Es enteramente posible que mientras se intenta ver inicios de sesión exitosos o fallidos al sitio web los usuarios, al mismo tiempo, estarán intentando acceder al sitio web. Usar la opción -f le indica a tail que siga leyendo los datos del archivo especificado y alimente esos datos a su propia salida estándar. Esta opción es perfecta para monitorear logs del sistema. Por ejemplo, tail -f /var/log/access.log ejecutado en una ventana terminal separada, seguirá imprimiendo nuevas entradas de inicio de sesión de acceso a Apache a medida que son agregadas después de cada intento hasta que lo detiene con Ctrl-C.

Examinar archivos log puede ser útil para identiifcar diversos problemas como problemas en el kernel, aplicaciones, configuración y también problemas del usuario. Los archivos log pueden ser de mucha ayuda al intentar identificar y localizar problemas de software con el kernel, servidor, herramientas de inicio de sesión del usuario, y otras utilidades del sistema. 13.1 Identificación y Localización de Síntomas y Problemas

13.1.11 El comando dmesg

Parte de la información más importante y de más ayuda registrada en los archivos log que puede ser útil para detectar e identificar problemas son los mensajes de inicio del kernel. Estos mensajes pueden ser de particular ayuda al identificar problemas de hardware y del kernel. El comando dmesg puede usarse para mostrar los mensajes recientes del kernel, también conocidos como buffer anillo del kernel. Un ejemplo de la salida de este comando se muestra en la Figura . Note que cuando el sistema arranca y Linux está comenzando a cargarse, una serie de mensajes del buffer anillo del kernel se deslizan por la pantalla a medida que el sistema está inicializando los dispositivos y servicios. Estos mensajes contienen información importante acerca del hardware instalado en el sistema y los controladores. La información de estos mensajes se relaciona con si los controladores se están cargando exitosamente y qué dispositivos están controlando los controladores, como controladores [controllers] EIDE o SCSI, por ejemplo.

Hay diversas instancias en las cuales el comando dmesg puede ser muy útil. Pensemos en un servidor que contiene dos placas Ethernet, una de las cuales no están funcionando. Tipeando el comando, dmesg | less, después del inicio del sistema puede verse información acerca de las dos placas Ethernet que están instaladas en el sistema. Mirando los mensajes del kernel en el archivo log puede determinarse si hay una entrada para la placa no funcional o no. Si no hay una entrada para la placa, el problema podría ser que el controlador no se está cargando o podría ser el controlador equivocado para la placa. Si hay una entrada para la placa pero aún así no funciona, el problema reside en algún lugar de la configuración de red de la placa. Use variables con el comando dmesg para reducir la cantidad de mensajes que se muestran. Por ejemplo, usando el comando grep, se mostrarán solamente las líneas que pertenecen a la placa Ethernet no

Page 406: Documento de Apoyo No. 4 Cisco It Essentials II

406

funcional. El comando usado para llevar a cabo esta operación sería dmesg | grep ethX, donde X es el dispositivo Ethernet en cuestión.

La información contenida en dmesg es tan valiosa para un sistema Linux que la mayoría de las distribuciones automáticamente envían la salida al archivo log /var/log/boot.messages . Si la distribución no hace esto, puede arreglarse colocando la línea , /font> dmesg > /var/log/boot.messages en el script /etc/rc.d/rc.local.

13.1 Identificación y Localización de Síntomas y Problemas

13.1.12 Detección de problemas basándose en el feedback del usuario

A veces la mejor forma de identificar un problema con una computadora es localizar a la persona que usa el sistema más a menudo o la persona que usó el sistema cuando se informó acerca del problema. No todos los usuarios tienen la capacidad de entregar apropiadamente la información correcta acerca de cuál es el problema o qué estaban haciendo cuando comenzaron a experimentarlo. Por lo tanto, cualquier información que se obtenga de los usuarios deberá usarse como punto de partida pero se recomienda que el problema se investigue y reproduzca para asegurarse de cuál es el problema. Muchos problemas que los usuarios informan provienen simplemente de su falta de comprensión y conocimiento de cómo funcionan los sistemas informáticos. Hay varios tipos diferentes de problemas que los usuarios reportan. Algunos de los más comunes se describen en esta sección.

Problemas de Inicio de Sesión Uno de los tipos más comunes de problemas de los cuales se quejan los usuarios es que no pueden iniciar sesión en el sistema. Frecuentemente cuando esto ocurre no se debe a que haya ocurrido ningún problema sino más bien a que han olvidado su contraseña, la han tipeado incorrectamente, o la contraseña ha expirado. Recuerde que las contraseñas de un sistema Linux son sensibles al uso de mayúsculas y minúsculas. Si la contraseña ha expirado entonces es necesario re-habilitarla, para que el usuario pueda cambiar la contraseña o una nueva pueda asignarse.

Problemas de Permisos de Archivos Los problemas de permisos de archivos no son tan comunes como los problemas de inicio de sesión, no obstante podría haber un usuario que tenga problemas para acceder a un archivo compartido. Éste no es normalmente un problema si el usuario trabaja con archivos en sus propios directorios, pero sí puede serlo cuando los usuarios necesitan acceso a archivos en otros directorios. En algunos casos, puede ser necesario explicar cómo funcionan los permisos del sistema Linux para evitar estos tipos de problemas.

Problemas con Medios Removibles Linux maneja los medios removibles de manera muy diferente a otros sistemas operativos, como Windows. Los usuarios muy a menudo tendrán muchas quejas. Incluso aunque la interfaz GUI puede hacer parecer que se puede acceder a medios removibles como disqueteras y CD-ROMs simplemente insertando el medio y buscando los archivos, no puede hacerse. Aún tienen que montarse y desmontarse. Es importante señalar esto a los usuarios y explicarles cómo usar apropiadamente los comandos mount y umount. Por defecto solamente la cuenta superusuario puede usar los comandos mount y umount. Puede ser una buena idea modificar el archivo /etc/fstab para que los usuarios puedan montar y desmontar los medios removibles por sí mismos. Un ejemplo del archivo /etc/fstab se muestra en la Figura . La disquetera puede eyectarse sin desmontarla primero, lo cual puede conducir a archivos corrompidos. La mayoría de los dispositivos, no obstante, como los CD-ROMs, se bloquearán para que no puedan eyectarse a menos que hayan sido desmontados primero. Los otros tipos de medios que no pueden eyectarse a menos que hayan sido desmontados pueden conducir a muchas llamadas de resolución de problemas innecesarias a menos que se haya explicado a los usuarios cómo montar y desmontar apropiadamente unidades de medios removibles.

Page 407: Documento de Apoyo No. 4 Cisco It Essentials II

407

Problemas con el E-mail El e-mail deberá funcionar para los usuarios cuando ha sido configurado correctamente. Esto es particularmente cierto si todo lo que el usuario tiene que hacer es extraer su correo del servidor SMTP localmente. No obstante, si hay usuarios remotos podría ser una buena idea instruirlos respecto a cómo configurar sus cuentas de correo para que éste pueda ser recuperado sin problemas.

Errores en los Programas Los usuarios informarán a menudo que un programa se cayó. La mejor opción es enfocar esto caso por caso porque cada programa requerirá un diferente enfoque para resolver sus problemas. Obtenga tanta información del usuario como sea posible en cuanto a cualquier mensaje de error que puede haber aparecido o a qué estaba haciendo cuando el programa se cayó para recrear los eventos que ocasionaron el error.

Problemas de Apagado Linux siempre deberá apagarse usando el comando shutdown. Esto se explicó en capítulos anteriores. No obstante, solamente el usuario raíz puede usar este comando. A los usuarios que experimentan problemas al apagar debería mostrárseles cómo usar la opción de apagado de la GUI que permitirá el apagado del usuario no raíz de un sistema Linux. Es importante que los usuarios sepan cómo apagar el sistema Linux apropiadamente porque un apagado inapropiado puede ocasionar diversos problemas como procesos de inicio prolongados, seria corrupción de archivos del sistema, y pérdida de datos. Si los usuarios se quejan de tales problemas puede hacerse la sugerencia de que el sistema debe apagarse apropiadamente.

13.2 Errores de Arranque de LILO

13.2.1 Códigos de error

El cargador de arranque LILO fue mencionado por primera vez en el Capítulo 9, por lo cual debería haber una firme comprensión de qué hace el cargador Linux (LILO) en un sistema Linux. El cargador de arranque LILO es la primera pieza de código que toma control de proceso de arranque desde el BIOS. Carga el kernel Linux, y luego cede el control enteramente al kernel Linux. Hay muchas instancias que ocasionarán errores de arranque de LILO. El sistema BIOS para la mayoría de las computadoras impulsadas por el procesador x86 fue diseñado en primer lugar para sistemas en los cuales la capacidad del disco rígido era de meramente 40 MB. Para estos sistemas, los programas y sistemas operativos de 32 bits o incluso de 64 bits que se están haciendo disponibles eran cosa de fantasía y ciencia ficción. No obstante, hoy sabemos que la tecnología de hardware de computadoras evolucionó a velocidades sorprendentes, y como resultado la tecnología BIOS ha evolucionado también. Los cambios en la tecnología combinados con las necesidades de LILO pueden desafortunadamente conducir a que LILO no funcione apropiadamente. Cuando LILO no funciona correctamente puede ser frustrante porque usualmente significa que el sistema no arrancará. Los mensajes de error o códigos que produce LILO pueden ser difíciles de interpretar. Comprender cómo arreglar y sortear estos problemas puede ayudar a reparar el error de LILO y regresar el sistema a un orden funcional. Es importante que se comprenda cómo se instala y configura LILO antes de proceder con esta sección, así que podría ser una buena idea repasar la sección en particular del Capítulo 9. También es importante mencionar que incluso aunque otros cargadores de arranque pueden usarse para arrancar Linux, LILO se trata aquí porque es el que se usa en los sistemas x86. Éstos son los sistemas que se usarán en este curso y es el cargador de arranque que se instala en este curso. LILO no se usa en sistemas procesadores no x86.

Page 408: Documento de Apoyo No. 4 Cisco It Essentials II

408

El primer paso en la comprensión de los errores de arranque de LILO es poder comprender e interpretar los diversos códigos de error de LILO que pueden generarse. Cuando hay un problema con LILO, se mostrará un código de error. Algunos de los diversos códigos de error que pueden mostrarse se enumeran y explican abajo.

· Ninguno · L código-error · LI · LI101010… · LIL- · LIL? · LILO

Ninguno Si no hay ningún código de error esto significa que LILO no se ha cargado. Esto puede deberse a que LILO no se instaló o puede haberse instalado en la ubicación equivocada. Verifique el archivo /etc/lilo.conf y asegúrese de que la configuración sea correcta, luego use el comando lilo para instalar LILO. Para obtener una mejor comprensión de qué significan las líneas del archivo /etc/lilo.conf es una buena idea mirar la página man de lilo.conf, que también se muestra en la Figura . LILO puede haber sido instalado en una partición diferente, en cuyo caso esa partición en la que está instalado LILO deberá hacerse la partición de arranque. Todos estos tópicos se tratan en el Capítulo 9.

L código-error Esto significa que LILO ha comenzado a arrancar pero no puede arrancar el cargador de arranque de la segunda etapa. El código-error generado es un número de dos dígitos que es generado por el BIOS. Los códigos que estos números representan se detallan en la documentación de LILO. La mayoría de los códigos de error representan fallos de hardware como un disco rígido defectuoso o una discrepancia en cómo LILO y el BIOS acuerdan tratar las direcciones de disco. Si el disco rígido está defectuoso, tome las medidas apropiadas para confirmar si el disco rígido falló. Si las configuraciones de LILO y el BIOS son diferentes en cómo tratan las direcciones de disco, haga los cambios necesarios en el BIOS o en el archivo /etc/lilo.conf.

LI Esto significa que LILO ha iniciado y los cargadores de la primera y segunda etapa se han cargado, pero el cargador de la segunda etapa no funciona. Este tipo de código de error es usualmente el resultado de los mismos síntomas que la condición L código-error.

Page 409: Documento de Apoyo No. 4 Cisco It Essentials II

409

LI101010… Esto significa que LILO ha sido cargado y se está ejecutando apropiadamente pero no puede localizar la imagen en el kernel. Este código de error usualmente se verá cuando un nuevo kernel se ha cargado o actualizado y el comando lilo nunca se usó para reinstalar LILO.

LIL Esto significa que los cargadores de la primera y segunda etapa han sido cargados exitosamente y están funcionando de manera apropiada. No obstante, LILO es incapaz de leer la información que necesita para funcionar. Este código de error es usualmente el resultado de algún fallo en el hardware o incoincidencia en la geometría del disco entre LILO y el BIOS. Este problema puede arreglarse configurando o corrigiendo la opción necesaria en /etc/lilo.conf o haciendo los cambios necesarios en el BIOS. Un ejemplo del archivo /etc/lilo.conf se muestra en la Figura .

LIL? Esto significa que el cargador de arranque de la segunda etapa ha sido cargado correctamente pero se encuentra en una dirección incorrecta. Este problema puede ser ocasionado al mover /boot/boot.b, que es el archivo cargador de arranque de la segunda etapa, sin usar el comando lilo para reinstalar LILO o por una incoincidencia en la geometría del disco entre LILO y el BIOS.

LIL- Esto significa que la tabla descriptora del disco (/boot/map) está corrompida. Este problema puede ser ocasionado al mover /boot/map, que es el archivo del cargador de arranque de la segunda etapa, sin usar el comando lilo para reinstalar LILO o por una incoincidencia en la geometría del disco entre LILO y el BIOS.

LILO Esto significa que LILO se ha cargado exitosamente y está funcionando. En este punto no debería haber ningún problema con LILO que haga que el sistema no arranque. Si el sistema aún no arranca apropiadamente en este punto, el problema reside en alguna otra parte, posiblemente en el kernel, sus controladores o archivos de configuración del sistema.

Note que la mayoría de estos errores son el resultado de que LILO no puede leer archivos que han sido modificados o movidos. Cualquier cambio en LILO que incluya el movimiento o cambio de archivos debe seguirse por el comando lilo para reinstalar LILO para que cualquiera de los cambios tenga efecto. Otros medios para arrancar Linux sin LILO se describen a continuación.

Page 410: Documento de Apoyo No. 4 Cisco It Essentials II

410

13.2 Errores de Arranque de LILO

13.2.2 Arranque de un sistema Linux sin LILO

Podría haber algunos casos en los cuales LILO no puede usarse en absoluto para arrancar la computadora porque ha fallado del todo. Cuando esto ocurre es necesaria otra forma de arrancar el sistema. Hay unos pocos métodos por medio de los cuales es posible arrancar el sistema sin LILO. Usar el Sistema de Arranque de Emergencia y usar un Disco de Arranque de Emergencia para arrancar el sistema en lugar de LILO se tratan en las siguientes dos secciones. No obstante, podría probarse primero algo más simple. Hay unas pocas opciones enumeradas a continuación que pueden usarse.

· LOADLIN · Kernel "en crudo" en un diskette · LILO en un diskette

Estas opciones se tratan en más detalle en los siguientes párrafos.

LOADLIN Ésta es una utilidad DOS que puede usarse para arrancar Linux. Esta utilidad usualmente viene con los CDs de instalación y está ubicada en el directorio dosutils. Para usar LOADLIN use una partición DOS o un disco de arranque DOS, una copia de LOADLIN.EXE, y una copia del kernel Linux. Primero arranque DOS y luego tipee LOADLIN VMLINUZ root=/dev/rootdevice ro, donde VMLINUZes el nombre del kernel y root=/dev/rootdevice es el nombre de la partición raíz como /dev/hda1.

Kernel "en crudo" en un diskette Es posible arrancar Linux si el kernel Linux "en crudo" está escrito en un diskette. Si se elige este método, copie el kernel al diskette usando el comando dd if=vmlinuz of=/dev/fd0, donde nuevamente vmlinuz es el nombre del kernel. Una vez que el kernel ha sido copiado al diskette, simplemente inserte el diskette en la unidad y encienda la computadora. Asegúrese de que el BIOS esté configurado para arrancar desde la disquetera. Hay otro paso necesario para confirmar que esto funcione. Primero configure el kernel para que sepa la ubicación de la partición raíz. Para hacerlo use el comando rdev /dev/fd0 /dev/dispositivoraíz, donde /dev/dispositivoraízes el nombre de la partición raíz. Tenga en cuenta que estos discos parecerán no formateados en DOS o Windows y no podrán montarse en Linux porque no tienen ningún sistema de archivos.

LILO en un diskette Éste es uno de los métodos preferidos porque es el más rápido. Es mucho más rápido que usar el método de LOADLIN o el método del kernel "en crudo" en un diskette porque el kernel aún está en la computadora. Para poder instalar LILO en un diskette edite el archivo lilo.conf. La línea de arranque en el archivo deberá cambiarse a boot=/dev/fd0. Después de esto, tipee lilo para que LILO se reinstale. Tenga en cuenta que esta línea necesitará volver a editarse para instalar LILO nuevamente en el disco rígido.

Hay algunas reglas generales e información extra que es de ayuda al usar estas técnicas para arrancar un sistema Linux sin LILO. La técnica de LOADLIN es generalmente considerada como la más flexible porque permite la creación o modificación de un disco de arranque usando DOS, usando un kernel por defecto desde un CD de instalación Linux. El método de kernel "en crudo" en un diskette es una técnica simple porque no requiere ninguna configuración para que sepa dónde se ubica la partición de arranque. No obstante, si la configuración del sistema cambia específicamente dónde está ubicada la partición de arranque del sistema, será necesario hacer modificaciones en el kernel del diskette. Si esto no se hace el sistema no arrancará con la configuración del disco. Usar el método de LILO en un diskette es el menos útil pero puede ayudar en algunos casos. Por ejemplo, algunas personas prefieren configurar la partición de arranque para que arranque en un sistema operativo no Linux. Entonces cuando el sistema necesita arrancarse a Linux todo lo que necesitan es insertar el diskette que tiene LILO en él. La Figura muestra un

Page 411: Documento de Apoyo No. 4 Cisco It Essentials II

411

ejemplo de la página de configuración de LILO que se presenta al usuario durante la instalación. Desde esta pantalla un diskette de arranque LILO puede crearse que puede usarse para arrancar Linux desde LILO usando el diskette.

13.2 Errores de Arranque de LILO

13.2.3 Sistema de arranque de emergencia

Linux proporciona una copia del sistema de emergencia de LILO, que puede usarse para arrancar Linux en el caso de que el cargador de arranque LILO tenga errores o no esté funcionando. Esto se conoce como Sistema de Arranque de Emergencia. Para poder usar esta copia de LILO deben efectuarse cambios en la configuración en lilo.conf. Los pasos a dar para hacer estos cambios son los siguientes.

· Primero, cambie el lugar donde la partición raíz de los discos regulares está montada. Se recomienda montarla en algún lado del sistema de arranque de emergencia como /mnt/std. La Figura muestra un ejemplo de la pantalla de configuración de la GUI en la cual se puede efectuar este procedimiento.

· Segundo, asegúrese de que el directorio /boot esté en su propia partición. Móntelo en lugar de o además de la partición raíz.

· Los últimos cambios de configuración que necesitan hacerse son cambiar las imágenes del kernel y otras opciones de arranque respecto a lo que es normal. Por ejemplo, las opciones boot y root deberán señalar al disco rígido regular.

Una vez completos estos pasos necesita usarse el comando lilo para volver a cargar LILO. Si todo se configuró correctamente, el cargador de arranque deberá instalarse a sí mismo normalmente. Es posible que esto no funcione. Si la versión de LILO que usa el sistema de emergencia es diferente a la versión que está actualmente instalada en el sistema regular, la instalación de LILO puede no funcionar. Si esto ocurriera use el método de LOADLIN, que se explica en la sección anterior y luego reinstale LILO usando las herramientas regulares del sistema.

Page 412: Documento de Apoyo No. 4 Cisco It Essentials II

412

13.2 Errores de Arranque de LILO

13.2.4 Uso de un disco de arranque de emergencia en Linux

Hay algunos otros casos en los cuales un sistema Linux no arrancará. Hay varias razones y errores que pueden ocasionar que un sistema Linux no arranque, además de problemas de LILO. Por ejemplo, el archivo /etc/fstab que se usa para mapear particiones al sistema de archivos pueden estar corruptos. Errores del script de inicio pueden hacer que el sistema se bloquee o se apague en ocasiones. Otras razones incluyen un fallo en el disco rígido y reemplazo del disco desde un backup. Todos estos son errores comunes que aparecerán en un sistema Linux de tiempo en tiempo, y LILO no es responsable. Para sortear estos tipos de problemas y arrancar exitosamente el sistema obtenga o cree un Disco de Arranque de Emergencia. Un disco de arranque de emergencia habilitará el sistema para que arranque sin usar ninguna parte de la partición principal. Los discos de arranque de emergencia pueden ser un único diskette que contenga una cantidad mínima de archivos del sistema con los cuales arrancar el sistema, o instalaciones Linux completas que están almacenadas en medios removibles de alta capacidad como CD-ROMs. Un administrador de sistemas debe saber cómo crear apropiadamente un disco de arranque de emergencia para que puedan responder a las llamadas de resolución de problemas necesarias. También es importante saber qué herramientas están en el disco y cómo usarlas para resolver problemas apropiadamente en un sistema Linux que no puede arrancar.

Búsqueda de un Disco de Emergencia Hay varias opciones de las cuales escoger en lo que se refiere a buscar un disco de arranque de emergencia ya preparado para Linux, la mayoría de los cuales están disponibles para descargar de Internet. Los siguientes discos de arranque de emergencia de Linux son fáciles de usar y a menudo no requieren configuración para usarlos. Algunos de los discos de arranque de emergencia más populares disponibles para Linux se enumeran a continuación.

Los Discos de Instalación de Linux Uno de los lugares más obvios para buscar es en los discos o medios de instalación que se usaron para instalar el sistema operativo en primera instancia. La mayoría de las distribuciones incluyen un sistema de disco de arranque de emergencia al que se puede tener acceso como opción al cargar los medios de instalación. Por ejemplo, al iniciar el programa instalador para cargar Red Hat Linux, el comando linux rescue se tipearía en el prompt lilo:. Si se usa una distribución diferente, consulte la documentación relativa a cómo usar el disco de emergencia incluido con los medios de instalación.

Disco Raíz/de Arranque de Tom El nombre oficial para esta distribución de disco de emergencia es tomsrtbt, que significa "el diskette de Tom, que tiene un sistema de archivos raíz y también es booteable". Éste puede descargarse de Internet y puede entrar en un único diskette. Es un sistema Linux booteable completo que solamente puede usarse desde la línea de comandos. La GUI no se soporta. Éste viene en paquetes para DOS también. Para obtener una copia y averiguar más acerca del Disco Raíz/de Arranque de Tom, diríjase a http://www.toms.net/rb.

Page 413: Documento de Apoyo No. 4 Cisco It Essentials II

413

ZipSlack Esto está disponible para Slackware Linux. Puede instalarse en una partición pequeña o en una unidad removible como un disco zip porque los 100 MB de tamaño de este disco de arranque de emergencia es mayor que la capacidad de un diskette, que tiene solamente 1,4 MB. La ventaja de tener una versión más grande de Linux que la que está disponible en un único diskette es que es más fácil de personalizar con herramientas de backup comerciales y controladores para el kernel personalizados.

Demo Linux Ésta es una de las mejores utilidades de disco de arranque de emergencia disponibles porque es la más completa. Es más grande que los 100 MB de ZipSlack y debe quemarse en un CD-R. El archivo de 650 MB puede descargarse desde la web en http://www.demolinux.org. Ofrece una versión completa de Linux con la cual trabajar que incluso permite que la X GUI se ejecute en la mayor parte del hardware de video.

SuSE Evaluation Ésta es muy similar a Demo Linux en que es de alrededor del mismo tamaño y debe quemarse en un CD-R. No obstante, ésta es una versión de evaluación de SuSE Linux que puede descargarse desde la web en http://www.suse.com.

Tenga en cuenta que éstas son solamente algunas de las opciones disponibles para discos de arranque de emergencia de un sistema Linux. Para averiguar qué otras están disponibles diríjase a http://www.linux.org/dist/english.html. Esta página y la página web para Raíz/Arranque de Tom contienen otros vínculos para encontrar distribuciones pequeñas y especializadas para usar en discos de arranque de emergencia.

Creación de un Disco de Arranque de Emergencia En su mayor parte, los discos de arranque de emergencia que se mencionan antes serán suficientes para cualquier propósito. No obstante, hay algunos casos en los cuales será necesario hacer un disco de arranque de emergencia personalizado. Por ejemplo, si el sistema en el cual se trabaja contiene hardware que necesita controladores especiales, o usa un sistema de archivos especial, funciones de networking especiales, o cualquier otra configuración que no se soportaría normalmente en cualquiera de los discos de arranque de emergencia comunes, necesitarán un disco de arranque personalizado.

La creación de un disco de arranque de emergencia personalizado puede ser una tarea fácil o difícil dependiendo de los requisitos del sistema que necesita arrancarse y cómo se enfoca la tarea de crear el disco. El método más simple y recomendado para crear un disco de arranque de emergencia personalizado para adaptarse a las necesidades de un sistema informático individual es modificar uno de los discos de arranque existentes. El disco existente puede modificarse de modo tal que las funciones especiales que un sistema puede requerir puedan agregarse. El disco de arranque ZipSlack es una de las mejores opciones a elegir al crear un disco de arranque de emergencia personalizado. ZipSlack actúa de manera muy semejante a una distribución de Linux regular, no obstante le faltan algunas funciones como una GUI. ZipSlack también permite a un usuario recompilar su kernel, agregar cualquier herramienta necesaria, o configurar muchos otros aspectos para adaptar al sistema Linux que necesita arrancarse. Otra función que hace de ZipSlack una buena opción es que hay cierto espacio para hacerle adiciones en un disco Zip de 100 MB. También es posible sacar cualquier programa que no será necesario lo que libera un poco más de espacio. Otra opción sería usar un disco de Zip de 250 MB para guardar ZipSlack en el cual dejaría mucho espacio para cualquier programa adicional o cambios de configuración que sea necesario efectuar.

No se recomienda el uso de ninguna de las otras opciones de discos de arranque de emergencia para hacer un disco de arranque personalizado por diversas razones. El disco Raíz/de Arranque de Tom es demasiado pequeño para ello. Con este disco de arranque de emergencia entrando en un pequeño diskette de 1,4 MB, no hay mucho espacio para agregar nada o hacer ningún cambio. Otro problema es que porque estas distribuciones son tan pequeñas, muchos de los archivos de

Page 414: Documento de Apoyo No. 4 Cisco It Essentials II

414

programa ya han sido cambiados para optimizarlos para esta pequeña cantidad de espacio. Esto hace el cambiar o agregar cualquier cosa un proceso muy difícil porque es casi imposible hacerlo sin exceder el tamaño máximo en el disco. Las distribuciones que pueden quemarse en un CD son difíciles para crear un disco de emergencia personalizado debido al hecho de que no se pueden hacer cambios en los archivos de un CD. Para hacer un disco de emergencia personalizado con una de las distribuciones que se queman en un CD, el contenido debe copiarse en un disco rígido de un sistema funcional, y luego los cambios deben efectuarse antesde quemar el CD nuevamente.

Herramientas de Recuperación Independientemente del disco de arranque de emergencia que se use, hay varios tipos de herramientas de recuperación que deberán incluirse que pueden ayudar en el proceso de reparación. La siguiente lista de herramientas de recuperación es relativamente estándar y serán programas de Linux familiares. Tenga en cuenta que en el caso de que el sistema en particular que se está arrancando con el disco de arranque de emergencia puede haber algún programa especial instalado o configuración que puede requerir una herramienta de recuperación especial además de una que se nombre a continuación.

Controladores Es importante recordar que los controladores para cualquier hardware y sistemas de archivos que son soportados en el sistema Linux debe incluirse en el disco de arranque de emergencia. Puede ser difícil incluirlos a todos en una de las distribuciones que encajan en un único diskette porque los controladores tienden a consumir más espacio en disco que lo que se permite en un diskette. Incluir controladores para el hardware y los sistemas de archivos soportados es importante porque serán necesarios para usar o resolver problemas en cualquier pieza de hardware o el sistema de archivos después de arrancar el sistema con el disco de arranque de emergencia. Esto es particularmente importante si el sistema tiene adaptadores SCSI y discos rígidos o algún otro hardware inusual.

Un editor de textos Es importante que alguna clase de editor de textos como vi se incluya para que los archivos de configuración puedan verse y editarse apropiadamente. Cada distribución de disco de emergencia deberá incluir un editor de textos y vi es una buena opción porque no es muy grande. Algunas de las distribuciones más grandes de los discos de arranque de emergencia tienen editores de textos más grandes de los cuales elegir.

Utilidades de Disco El disco de arranque de emergencia deberá tener las utilidades de disco necesarias como fdisk, mkfs, y fsck, que pueden usarse para formatear un disco rígido para poder instalar Linux en él. Las Figuras , , y muestran ejemplos de estas tres utilidades. Un disco de arranque de emergencia con estas utilidades puede ser valioso en el caso de un fallo en el sistema de archivos o un problema en el cual el disco rígido o las particiones necesiten borrarse y prepararse para la instalación de Linux. La utilidad fsck puede usarse para reparar sistemas de archivos dañados.

Page 415: Documento de Apoyo No. 4 Cisco It Essentials II

415

Software de Backup Siempre es importante incluir alguna clase de utilidad de software de backup. Si un cambio o reparación a algunos de los archivos de configuración necesita hacerse podría ser una buena idea primero hacer un backup. La mayoría de las distribuciones mencionadas antes vienen con algún tipo de utilidad de backup como tar, restore, cpio, y posiblemente otras. Las páginas man de estas tres utilidades se muestran en las Figuras , , y . En el caso de que se use un software de backup diferente, comercial o de terceros será necesario incluirlo en el disco de arranque de emergencia.

Page 416: Documento de Apoyo No. 4 Cisco It Essentials II

416

Software de Red Tener software o utilidades de red incluidos en el disco de arranque de emergencia es necesario si necesita establecerse una conexión de red. Algunas redes tendrán datos almacenados a los que puede accederse mediante una conexión de red y descargarlos del servidor puede restaurar los datos. Tanto controladores serán necesarios para el hardware de red que está instalado en el sistema como para el paquete de cliente o servidor de red.

Una última cosa que es importante mencionar acerca de arrancar un sistema con un disco de arranque de emergencia es que algunos métodos de disco de recuperación requieren funciones inusuales para acceder a disco de arranque en sí. Por ejemplo, si se está usando ZipSlack desde una unidad zip, que está conectada mediante un puerto paralelo, debe arrancarse desde un kernel almacenado en un diskette de arranque. Ese kernel debe incluir soporte para unidades zip paralelas.

13.3 Reconocimiento de Errores Comunes

13.3.1 Diversas razones para los problemas de dependencia de los paquetes

Las dependencias de los paquetes se trataron en capítulos anteriores, por lo tanto ya hay una comprensión del concepto. Cuando un paquete está instalado en un sistema Linux podría haber otros paquetes que es necesario instalar para que ese paquete en particular funcione apropiadamente. El paquete de dependencia puede tener ciertos archivos que necesitan estar en su lugar o puede ejecutar ciertos servicios que necesitan iniciarse antes de que el paquete que ha de instalarse pueda funcionar. En cualquier caso, este proceso usualmente se ejecuta sin problemas. Linux a menudo notificará al usuario si está instalando un paquete que tiene dependencias para poder instalarlas también. Hay algunas veces cuando este proceso no procede como debiera y ocurren problemas. Usualmente el problema se relaciona con dependencias insatisfechas o conflictos entre paquetes. Esto es más probable que ocurra al instalar paquetes de diferentes fabricantes. Como administrador de sistemas, es importante comprender cómo reconocer estos errores y saber cómo resolverlos apropiadamente.

Page 417: Documento de Apoyo No. 4 Cisco It Essentials II

417

Hay varias razones por las cuales dependencias y conflictos pueden surgir en un sistema Linux con paquetes RPM, Debian y tarball. Solamente los paquetes RPM y Debian tienen la capacidad para notificar al usuario sobre problemas de dependencia, tarballs no tiene esta capacidad. Unos pocos ejemplos de eventos que pueden ocasionar problemas de dependencia y conflictos se enumeran a continuación.

Librerías o programas de soporte faltantes Este problema resulta ser uno de los tipos más comunes de problemas que son la causa de la mayoría de los problemas de dependencia. Las librerías son un tipo de código de soporte que puede ser usado por muchos programas diferentes en un sistema Linux. Todos los diferentes programas pueden usar las librerías como si fueran parte del programa en sí. Cuando o si las librerías faltan, los programas instalados no funcionan. Los paquetes de soporte funcionan de manera muy similar a las librerías. Por ejemplo, todos los programas de KDE se basan en un programa de soporte llamado Qt, que es un programa de soporte sobre el cual están construidos todos los programas de KDE. Si el paquete de soporte Qt no está instalado ningún paquete KDE puede instalarse usando RPMs.

Librerías o programas de soporte incompatibles Es importante comprender que hay diferentes versiones de las librerías y programas de soporte disponibles. Estas diferentes versiones corresponden a las versiones actual y pasadas de programas instalados. Si una librería o programa de soporte está instalado necesita ser la versión actual que corresponde a los programas que se están ejecutando en el sistema Linux. Es posible tener varias versiones de librerías y programas de soporte instalados, para permitir el soporte para programas con requisitos competentes. Por ejemplo, si un programa requiere Qt 2.2, pero la versión Qt 1.4 está instalada, entonces es necesario instalar la versión 2.2. Recuerde mantener la versión 1.4 para que otros programas instalados todavía puedan ejecutarse.

Archivos o funciones duplicados A veces dos paquetes diferentes incluirán los mismos archivos exactamente o un paquete que está a punto de ser instalado incluirá archivos o funciones que pueden ya estar instalados en el sistema. Cuando esto ocurre, puede causar ocasionalmente que los programas no funcionen correctamente.

Encontrar la causa exacta de un error de dependencia de un paquete puede ser difícil. Puede haber un mensaje de error que se produce que puede ser útil al determinar qué paquete está ocasionando el problema y a qué categoría pertenece el problema. A veces estos problemas no causarán ningún daño pero algunos pueden ser muy reales y serios. Tener librerías y programas de soporte faltantes puede hacer que varios programas fallen y hacer que el sistema no responda. Al instalar paquetes RPM o Debian, el proceso de encontrar la causa exacta para el problema de dependencia del paquete puede ser un poco más fácil a causa del mensaje de error que se produce. Tarballs no produce ningún mensaje de error cuando se ha detectado un error de dependencia de paquete. El problema solamente se verá cuando el sistema intenta ejecutar el programa. Por esta razón, el problema puede manifestarse inmediatamente y producir un mensaje

Page 418: Documento de Apoyo No. 4 Cisco It Essentials II

418

de que es incapaz de localizar una librería o archivo específico. Pueden causar que los programas se caigan o no respondan. Por esta razón, al instalar paquetes tarball, lo mejor es usar la opción "mantener-archivos-antiguos" [keep-old-files] para que no se sobreescriban archivos existentes. Usar esta opción permitirá al paquete ser desinstalado y restaurar el sistema a su condición de funcionamiento original. 13.3 Reconocimiento de Errores Comunes

13.3.2 Soluciones a problemas de dependencia de paquetes

Ahora que los diversos errores que causan los problemas de dependencia de paquetes se han identificado, es el momento de tratar los pasos a dar para proporcionar soluciones a problemas de dependencia de paquetes. Hay varias formas de proporcionar una solución, no obstante la correcta a tomar dependerá de la situación. Repase todas las posibilidades antes de tomar una decisión acerca de qué enfoque adoptar ya que algunas soluciones funcionan mejor que otras. Algunas de las soluciones posibles que se tratarán incluyen la instalación forzada, modificación del sistema para que cumpla con la dependencia, reconstrucción del paquete del problema a partir del código fuente, y encontrar una versión diferente del paquete problemático.

Instalación Forzada Tal solución para resolver problemas de dependencia de paquetes es simplemente ignorar el mensaje de error e instalar el paquete por la fuerza de todos modos. Aunque puede ser arriesgado, hay casos en que hacerlo es apropiado. Si el error está en un paquete en el cual el usuario ha compilado manualmente el código fuente, puede forzarse la instalación. Para forzar la instalación del paquete e ignorar dependencias fallidas con paquetes RPM, use el parámetro – nodeps Para forzar la instalación sobre otros errores, como conflictos con paquetes RPM existentes, use el parámetro –forcePor ejemplo, la sintaxis para estos parámetros se muestra en la Figura .

NOTA:

The xxxxxxxx.rpm representa a cualquier paquete rpm.

También es importante notar que estas opciones de parámetros serán levemente diferentes para los paquetes Debian. Los paquetes Debian están identificados por dpkg en lugar de rpm. Al usar paquetes Debian use los siguientes parámetros mostrados en la Figura para forzar la instalación de paquetes.

NOTA:

Donde paquete es el nombre del paquete

Modificación del Sistema El método correcto y recomendado para proporcionar soluciones a problemas de dependencia es modificar el sistema para que tenga las dependencias necesarias para ejecutarse apropiadamente. Por ejemplo, si el paquete que se está instalando requiere una librería o programa de soporte actualizado entonces la versión actualizada debe instalarse. Si Qt 1.44 está actualmente instalado y el paquete requiere Qt 2.2 entonces la versión actualizada debe instalarse. Localice la versión

Page 419: Documento de Apoyo No. 4 Cisco It Essentials II

419

actualizada en los CDs de instalación de la distribución si es ahí donde el paquete se está instalando. El CD de instalación deberá tener librerías y programas de soporte actualizados que los paquetes requieren para esa distribución. Todo lo que necesita hacerse es instalar las librerías y programas de soporte desde el CD.

Hay unas pocas precauciones a tener en cuenta al adoptar este enfoque. Preste particular atención a qué paquetes y modificaciones se están haciendo y asegúrese de que cualquier paquete y/o actualización que esté instalado esté de hecho pensado para la versión de distribución particular que se está usando. Por ejemplo, programas que usan librerías y paquetes de soporte para Red Hat 6 no necesariamente funcionarán con las librerías y paquetes de soporte de Red Hat 7. Un paquete que contiene actualizaciones para librerías y paquetes de soporte y se instala para una distribución en particular tendrá determinados requisitos que lo hacen compatible solamente con los programas de esa distribución específica. Si la distribución A (Red Hat 6) está actualmente en ejecución, pero se instala una actualización que fue construida para la distribución B (Red Hat 7), los programas producirán un mensaje de error enunciando los problemas de dependencia que tienen en términos de los archivos, librerías y paquetes de soporte de la distribución B, cuando realmente se están ejecutando en la distribución A. Las actualizaciones de la versión apropiada pueden de hecho no estar disponibles para la distribución A, pero si la versión de la distribución B de librerías y paquetes de soporte está instalada; puede haber conflictos con los otros paquetes que ya están instalados en la distribución A. En algunos casos si las actualizaciones apropiadas no están instaladas para la versión de la distribución correcta, en un principio no habrá problemas. No obstante, podría haber problemas en el futuro cuando se instalen otros programas o cuando la distribución particular de Linux que se está usando se actualice. Cuando ése es el caso, las librerías y paquetes de soporte incorrectos que fueron actualizados ya no serán reconocidos y en algunos casos ni siquiera se podrán actualizar a la versión de la nueva distribución.

Esto puede parecer un tanto confuso pero es realmente un concepto simple. En otras palabras, si el sistema va a ser modificado de cualquier manera, como que las librerías y paquetes de soporte están siendo actualizados, entonces es necesario asegurarse de que las actualizaciones correctas estén instaladas. Esto significa que si Red Hat 6 se está usando, las actualizaciones para Red Hat 6 son las que deberán usarse y no para otra versión de Red Hat, como Red Hat 7. En el caso de que las actualizaciones no estén disponibles para la distribución que se está usando, podría ser una mejor idea simplemente actualizar toda la versión de la distribución. Hacerlo aseguraría que las actualizaciones necesarias estén instaladas.

Reconstrucción del Paquete Problemático a partir del Código Fuente En algunos casos puede ser necesario reconstruir el paquete a partir del código fuente si aparecen mensajes de error de dependencia. No obstante, es importante comprender que las condiciones de dependencia que resultan de necesitar hacerlo en oposición a otras condiciones de dependencia en las cuales no sería necesario reconstruir el paquete en sí. Por ejemplo, algunas dependencias son el resultado de las librerías y paquetes de soporte que están actualmente instaladas en la computadora, y no de los requisitos de los otros paquetes y software del sistema. Esto a menudo resulta cuando el software de un sistema Linux se ha recompilado. Cuando el software se recompila, esto hará que las dependencias para diversos programas cambien. Por lo tanto, es mucho más fácil reconstruir el paquete a partir del código fuente para sobreponerse a este cambio que lo que sería intentar instalar por la fuerza nuevos paquetes o modificar el sistema de cualquier forma.

Es realmente un proceso bastante simple reconstruir un paquete RPM. Para reconstruir un RPM llame al rpm mediante el comando – rebuild. La sintaxis del comando usado para reconstruir un paquete RPM es como sigue. Es posible reconstruir tarballs a partir del código fuente, no obstante es un proceso mucho más difícil. En lugar de tener que ejecutar un comando simple como arriba, alrededor de diez diferentes comandos tendrán que introducirse para configurar los scripts de compilación, el software tendrá que recompilarse, y después el software puede instalarse. También habrá algunos archivos de configuración que tendrá que editarse manualmente. Por esta razón es mejor no intentar hacer esto con los paquetes tarball. En cualquier caso lea la documentación del paquete que viene con el mismo para obtener más información acerca del paquete.

Page 420: Documento de Apoyo No. 4 Cisco It Essentials II

420

# rpm – rebuild nombrepaquete-version.src.rpm

nombrepaquete-version.src.rpm es el nombre del RPM que es necesario reconstruir. Este comando extrae el código fuente y ejecuta cualesquiera comandos sean necesarios para construir un nuevo paquete o a veces varios paquetes. Dependiendo de la velocidad de la computadora y del tamaño del paquete que se está reconstruyendo, el proceso para recompilar el paquete puede llevar de unos segundos a unas horas. Una vez que el proceso está completo, habrá varios RPMs en forma binaria ubicados en/usr/src/nombredist/RPMS/arch, donde nombredist es el código que representa la distribución del sistema, como RedHat o OpenLinux. arch representa la arquitectura de la CPU del sistema, como i386, i586, x86, o ppc. Una vez que estos archivos se han colocado en/usr/src/nombredist/RPMS/arch, pueden moverse a cualquier ubicación y luego instalarse como cualquier otro paquete RPM.

Otra cosa que es bueno saber si un paquete va a recompilarse para reconstruirlo es que será necesario un compilador apropiado para el software. Esto vale para cualquier tipo de paquete que se esté recompilando (RPM o Tarball). Usualmente el Compilador C de GNU (GCC) funcionará bien. Algunos programas también necesitarán tener instalados los archivos de encabezado apropiados instalados, para que recompilen apropiadamente. Éste es usualmente el caso para la mayoría de los programas basados en X. Los archivos encabezado son archivos especiales que se necesitan al compilar un programa para que el programa use las librerías y paquetes de soporte correctos. En algunos casos varias librerías pueden instalarse en un sistema Linux y el programa necesitará saber cuál se supone que use. Los paquetes de archivos encabezado pueden instalarse como cualquier otro paquete, no obstante, es necesario que los archivos encabezado que se instalen coincidan con la librería que usa el programa compilado. Si las versiones del archivo encabezado no coinciden con las versiones de la librería entonces no compilará o no funcionará una vez compilado. Reconstruir un programa o paquete a partir del código fuente no es el método más fácil y no siempre funciona. Hay varias razones por las cuales el programa puede no funcionar una vez compilado. Los archivos encabezado apropiados pueden faltar, o el compilador apropiado y otras herramientas de desarrollo pueden ser los equivocados o faltar del todo. Otras veces el código fuente se basa en funciones que no están presentes en las librerías que se instalan en el sistema. Si cualquiera de estos problemas se identifican, aparece un mensaje de error cuando el sistema está recompilando el paquete. Si esto ocurre la mejor idea es intentar por otro medio arreglar el problema de dependencia.

Búsqueda de una Versión Diferente La forma más fácil de arreglar problemas de dependencia de los paquetes es ubicar una versión diferente del paquete que está causando los problemas. Otra opción es buscar una versión más nueva del paquete. También es posible buscar una versión más antigua e incluso otra opción sería usar la misma versión del paquete pero una construida para la distribución Linux específica que se está usando. Para buscar otros paquetes que pueden sustituirse por alternativos visite RPM Find(http://www.rpmfind.net) o el sitio de listado de paquetes de Debian en (http://www.debian.org/distrib/packages). Estos dos sitios web pueden ser de ayuda en localizar versiones alternativas de paquetes a usar. Otras ubicaciones a verificar están en los CDs de Instalación y en el sitio Web o FTP de la distribución particular. Esta opción usualmente funciona bien y es más fácil que reconstruir el paquete recompilando el software. No obstante, un problema es que a veces el único paquete aceptable es el que no funciona. El paquete puede contener características especiales que es necesario instalar o puede ser un patch que tiene como objetivo arreglar bugs importantes del software, en cuyo caso sería casi imposible hallar un reemplazo. Otras versiones podrían no estar disponibles, así que en este punto puede ser mejor simplemente probar un software diferente. 13.3 Reconocimiento de Errores Comunes

13.3.3 Errores de backup y restauración

Otro tipo de error común que es importante poder reconocer y resolver eficazmente son los errores de backup y restauración. Proporcionar una estrategia de backup confiable será una de las tareas más importantes de cualquier administrador de sistemas. Sin un sistema de backup confiable, los datos de la compañía podrían estar en riesgo de verse comprometidos en cualquier momento. Esto no solamente incluye datos valiosos y a menudo irreemplazables y/o costoso tiempo de inactividad

Page 421: Documento de Apoyo No. 4 Cisco It Essentials II

421

del servidor o Internet, sino también robo o falla, e incluso error humano. Una cosa cierta es que estos problemas no son completamente evitables. No obstante, con un estrecho y confiable programa de backup y restauración implementado, estos problemas no son permanentes. Otra cosa desafortunada e inevitable sobre los backups es que no son inmunes a los errores en sí. Es importante comprender cómo identificar estos errores así como las soluciones a errores de backup y restauración para que estén listos para usar en caso de que se necesiten los backups. También es importante notar que el peor momento para descubrir que el plan de backup y restauración tiene errores es cuando necesitan usarse en una situación crítica. Por esta razón siempre es buena idea probar los procedimientos de backup y restauración antes de un caso real en el que sea necesario usarlos.

Existen diversos métodos y tipos de medios disponibles para los procedimientos de backup y restauración. Los backups a cinta son el tipo más común encontrado en un sistema Linux y otros grandes entornos de servidores a causa de su facilidad de uso. Y pueden reutilizarse una cantidad de veces hasta que se estropean. Por esta razón la mayoría de los problemas y soluciones de esta sección se aplican a backups de cinta. Hay varias otras formas de hacer backup y restaurar los datos como CD-R, CD-RW, DVD-R, DVD-RW, así como diversas tecnologías RAID que hacen backup de los datos directamente a otros discos rígidos. Otra razón por la cual los backups de cinta se usan a veces es porque las tecnologías RAID tienden a ser bastante caras. Los backups a cinta proporcionan un medio confiable y costeable para proporcionar una solución de backup. La primera cuestión a comprender acerca de los backups a cinta es que ahorrarán mucho tiempo y ayudarán a evitar errores de backup y restauración y que los backups a cinta deberán reemplazarse después de haber sido usados 100 veces. Esto evitará que se vuelvan poco confiables.

Los errores de Backup y Restauración pueden ocurrir en diferentes puntos. Algunos errores ocurren cuando el sistema está realmente llevando a cabo el backup. Esto significa que el backup del sistema puede ni siquiera funcionar. Otras veces los errores ocurren durante el proceso de restauración cuando el sistema está intentando recuperar los datos. Algunos de los tipos más comunes de problemas se enumeran a continuación.

Problemas con los Controladores Como cualquier otra pieza de hardware del sistema, los dispositivos de backup necesitan tener los controladores apropiados instalados. Sea cuidadoso acerca de los diversos problemas con los controladores que se han tratado en este curso con los sistemas Linux. Usualmente el dispositivo de backup a cinta EIDE/ATAPI o SCSI requerirá soporte de un controlador o adaptador de host. Si los controladores están instalados como módulos entonces los controladores o el dispositivo necesitan cargarse en la memoria cuando se lleva a cabo el backup, de otro modo el sistema será incapaz de hacer cualquier backup.

Errores de Acceso a la Unidad de Cinta Un dispositivo de backup a cinta usualmente usará los archivos /dev/ht0 o /dev/nst0 para proporcionar acceso a la unidad de cinta. Un usuario raíz deberá poder usar estos archivos para acceder al dispositivo de backup a cinta tanto para lectura como para escritura. Si por alguna razón no puede accederse al dispositivo, probablemente haya un error en los archivos de dispositivo usados o en los archivos de controladores que han sido cargados.

Errores de Acceso a los Archivos Los permisos de acceso a los archivos pueden ser algo complicado y los backups no son diferentes. El tipo de backup que alguien puede hacer en un sistema Linux dependerá de qué tipo de acceso a los archivos tiene. Por ejemplo, cualquier usuario podrá hacer backups de sus propios archivos porque tendrá acceso tanto de lectura como de escritura a ellos. No obstante, para poder hacer un backup de todo el sistema de archivos en la computadora una persona necesita tener acceso de lectura completo a todos los archivos. Ésta es la razón por la cual la mayoría de los backups se hacen como raíz. Un usuario no raíz que está haciendo un backup podrá hacerlo de la mayoría de los archivos del sistema, pero no de los archivos de otras personas y ciertamente no de archivos protegidos como /etc/shadow. Esto funciona de igual forma con la restauración de un sistema. Para llevar a cabo una restauración de todo el sistema el usuario necesitará ser raíz

Page 422: Documento de Apoyo No. 4 Cisco It Essentials II

422

también porque necesitará tener acceso completo de lectura y escritura a todos los directorios que se están restaurando. Solamente la cuenta raíz tendrá tales derechos de acceso a los archivos en un sistema Linux.

Errores de los Medios Uno de los peores tipos de errores de backup es cuando el medio real desarrolla errores. A veces el backup a cinta, CD-R, DVD-R, o unidad de disco rígido secundaria reales se dañan y cualquier intento por restaurar los datos no funcionará. Hay varias cosas que pueden dañar un backup a cinta, CD, o disco rígido. Muchas veces el medio de backup se dañará cuando ha estado en almacenamiento mucho tiempo. Éste es especialmente el caso cuando las condiciones ambientales del cuarto de almacenamiento no son las apropiadas para un almacenamiento de medios de backup apropiado. Una de las peores cosas para cualquier tipo de medio de backup es un cuarto de almacenamiento que no tiene la regulación de temperatura o circulación de aire apropiados para mantener el cuarto en una temperatura confortable. Otra idea a prueba de fallos sería hacer un backup de los medios de backup, en caso de que un medio falle, habrá otro.

Errores de Archivos No Encontrados [Files not Found] Éste es otro tipo de error que puede a veces estar asociado con hacer backup y restauración de datos en un sistema Linux. En sistemas Linux, al restaurar los datos de los backups usando la utilidad de línea de comandos tar, ésta a veces será incapaz de restaurar archivos específicos. Esto se debe a que la utilidad de línea de comandos tar almacena archivos sin la / al comienzo, lo que significa que al restaurar archivos con tar la / al comienzo no deberá incluirse al restaurar archivos y directorios específicos. (Si se usa el parámetro -P (-rutas-absolutas) con tar, ésta hará un backup de los archivos e incluirá la / al comienzo). Por esta razón se recomienda que el usuario siempre se encuentre en el directorio raíz (/) al restaurar cualesquiera datos. Si el archivo que es necesario restaurar no puede encontrarse pero ha sido incluido en el backup y está en el medio de backup, entonces usar el parámetro -t (-list) con tar enumerará el contenido y permitirá una búsqueda manual del archivo. Esto puede consumir mucho tiempo y si hay muchos archivos en el medio de backup, llevará mucho tiempo hacer la búsqueda. Una alternativa sería usar una herramienta de compresión y backup más sofisticada que tar que proporcione funciones adicionales de búsqueda cuando un archivo necesite hallarse manualmente. Algunas de estas funciones adicionales incluyen cosas como un índice de los archivos del medio de backup, junto con otras funciones que permitirán restaurar solamente los archivos seleccionados, lo cual evitará cosas como tipear mal el nombre de archivo y luego tener que buscar manualmente a través de un backup entero sin encontrar el archivo.

Hay diversos tipos de errores que pueden ocurrir al hacer backup y restaurar un sistema informático Linux. Estos errores pueden estar asociados con el proceso de backup en sí, el hardware involucrado en el procedimiento de backup, o el medio de backup. Por esta razón es importante que después de haber efectuado cualquier backup o restauración de datos el backup o restauración se verifiquen también. En un sistema Linux es posible usar una opción de verificación del tiempo de backup que llevará a cabo una verificación justo después de que los datos se han llevado a backup. Es posible que durante esta verificación algunos archivos se devuelvan con errores, pero pueden ser archivos que han cambiado legítimamente y por lo tanto el mensaje de error puede ignorarse. Muchos dispositivos de backup incluyen una opción de verificación que verificará los datos inmediatamente después de haber sido reescritos. No obstante, aún es importante correr una verificación completa después de haber realizado un backup de todos los datos.

Page 423: Documento de Apoyo No. 4 Cisco It Essentials II

423

Otras técnicas de verificación incluyen comparar la información en la unidad o backup contra cualquier información de resumen disponible. Por ejemplo, después de una restauración es importante verificar que los mismos paquetes estén instalados como antes comparándolos con la base de datos RPM. (Recuerde de capítulos anteriores que algunos administradores de paquetes como Red Hat y Debian tienen bases de datos que almacenan información acerca de los paquetes almacenados o instalados en un sistema Linux). Para ello, use el comando rpm -Va. Tenga en cuenta que podría haber variaciones legítimas debidas al hecho de que algunos cambios pueden haberse efectuado. 13.3 Reconocimiento de Errores Comunes

13.3.4 Fallos de aplicaciones en servidores Linux

Entre las muchas organizaciones que desarrollan normas para redes de computadoras, el Instituto de Ingenieros Eléctricos y Electrónicos (IEEE) ha estado muy activo en la definición de normas para LANs. A través de sus grupos de trabajo "802", que comenzaron a reunirse en febrero (mes 2) de 1980 (el "80" de 802), el IEEE ha publicado normas para las LANs más ampliamente implementadas. Éstas incluyen Ethernet Ethernet (802.3), Token Ring (802.5), redes de fibra óptica (802.8), LANs inalámbricas (802.11), y otras. El IEEE también ha definido una norma para proporcionar control de errores y control de flujo sobre diferentes tipos de LAN en su especificación para el Control de Enlace Lógico (LLC, 802.2).

Las normas para LANs del IEEE son ahora centrales para las LANs usadas hoy. Dispositivos como las placas de interfaz de red (NICs) que se conforman a las normas IEEE permiten que equipos construidos y vendidos por diferentes fabricantes interoperen en la misma LAN.

13.4 Detección y Resolución de Problemas de Red

13.4.1 Pérdida de conectividad

A pesar de los mejores esfuerzos preventivos, es inevitable que un administrador encuentre problemas en la red. Éstos van desde ralentizamientos graduales que molestan a los usuarios hasta una completa pérdida de conectividad en toda la red que hace que el trabajo de miles de empleados se detenga. Todos los productos que se han tratado pueden usarse para detectar y resolver problemas de red. Puesto que la mayoría de las redes modernas corren en TCP/IP, varias utilidades de detección y resolución de problemas están disponibles en cada sistema Linux. Pueden usarse sin la necesidad de adquirir, instalar y aprender un producto de administración de red complejo y costoso.

Esta sección trata algunos conceptos básicos de detección y resolución de problemas, cómo usar los archivos log en la detección y resolución de problemas y las herramientas y utilidades TCP/IP incluidas en la mayoría de las distribuciones de Linux. Esta sección también trata el uso de estas herramientas en la detección y resolución de problemas de conectividad de red. Finalmente, se proporcionan directrices detalladas para detectar y resolver problemas en la red, que pueden ser usadas por un administrador de red para rastrear y resolver problemas de conectividad y desempeño de la red.

El problema más básico del networking es la incapacidad de una computadora de comunicarse con otra. La pérdida de conectividad puede estar relacionada con el hardware y/o software. La primera regla de detectar y resolver problemas es verificar la conectividad física. Esta explicación simple

Page 424: Documento de Apoyo No. 4 Cisco It Essentials II

424

nunca debería pasarse por alto. Más de un profesional del networking ha pasado horas reconfigurando protocolos, reinstalando software, e incluso reinstalando el sistema operativo, solamente para descubrir que la razón por la cual la computadora no podía comunicarse a través de la red era que el cable había sido desconectado de la NIC. Por lo tanto, antes de embarcarse en una compleja misión de detección de problemas, asegúrese de que los cables estén apropiadamente enchufados en ambos extremos, que el adaptador de red esté funcionando verificando la luz de enlace de la NIC, que las luces de estado del hub estén encendidas, y que el problema de comunicación no sea un simple mal funcionamiento del hardware.

13.4 Detección y Resolución de Problemas de Red

13.4.2 Error del operador

Otra causa común de problemas en la red es el error del operador. Tal vez la razón por la cual la estación de trabajo no puede ver al resto de la red es que el usuario inició sesión en la máquina local y no se conectó a la red. Asegúrese de que los usuarios estén usando el nombre de usuario y contraseña correctos y de que sus cuentas no estén restringidas en una forma que evite que puedan conectarse a la red. Por ejemplo, los tiempos de inicio de sesión podrían estar limitados a horas de negocios en días de la semana, o el usuario podría estar restringido para iniciar sesión solamente desde una estación de trabajo especificada.

NOTA:

Una de las razones más comunes por las cuales la contraseña de un usuario no funciona es debido a la naturaleza sensible al uso de mayúsculas y minúsculas en la mayoría de los sistemas operativos. Presionar accidentalmente la tecla Bloq Mayús antes de introducir la contraseña hará que se la rechace. Los problemas de hardware son relativamente fáciles de tratar una vez descubiertos. Los problemas de software pueden ser mucho más difíciles de rastrear y remediar. La mala configuración del software es un responsable común. Las configuraciones de software podrían haber sido cambiadas por la rutina de instalación de un programa recientemente instalado, o el usuario podría haber estado experimentando con las configuraciones. Archivos faltantes o corruptos pueden causar problemas de muchos tipos, incluyendo problemas de conectividad de red. Los usuarios accidentalmente o a propósito, borran archivos, y picos de energía o apagados abruptos de la computadora pueden dañar los datos de los archivos. Los virus también pueden dañar archivos del sistema o datos del usuario.

Page 425: Documento de Apoyo No. 4 Cisco It Essentials II

425

Cualquiera sea el origen sospechado del problema, seguir un conjunto de pasos para cada caso de resolución de problemas asegura que todas las bases queden cubiertas. Las siguientes secuencias de pasos de detección de problemas se recomiendan para una resolución de problemas eficiente. Aunque los primeros cuatro pasos podrían parecer de sentido común, muchos profesionales de red saltean el paso 5, y pueden también no proporcionar feedback al usuario. La secuencia de pasos de detección de problemas mostrados en la Sección 13.4.4 se recomiendan para una resolución de problemas más eficiente. Una vez arreglado el problema, creen que el trabajo ha terminado. No obstante, los últimos dos pasos son críticos en un entorno de networking.

Después de pasar dos días detectando un problema y finalmente resolviéndolo, olvidar los detalles parecería imposible. Pero la vida de un administrador de red es una vida ocupada, y es probable que cuando el mismo problema vuelva a ocurrir, tal vez un año después, lo único que cualquiera recordará es que ocurrió antes y que el problema se resolvió de alguna manera. Documentar los pasos de resolución del problema no sólo ahorrará tiempo en el futuro, sino que también evitará mucha frustración.

Proporcionar feedback a los usuarios también es importante. Los usuarios deberán ser educados cada vez que sea posible. Éste es un elemento clave en la prevención de problemas. El usuario puede no parecer preocuparse por lo que estaba mal, una vez que ha sido arreglado. No obstante, la mayoría de la gente aprecia la información, especialmente si esa información puede ayudar a cambiar sus hábitos o permitirles comprender qué señales de problemas buscar e informar antes de que el problema empeore. El feedback al usuario siempre deberá proporcionarse en un lenguaje que sea apropiado para el conocimiento técnico del usuario.

NOTA:

El feedback siempre deberá incluir instrucciones para el usuario si el problema vuelve a ocurrir. Si es una cuestión simple y el usuario puede corregirla, deberán proporcionarse instrucciones paso a paso, preferentemente por escrito. 13.4 Detección y Resolución de Problemas de Red

13.4.3 Uso de utilidades TCP/IP

En las siguientes secciones, se examinan varias categorías de utilidades TCP/IP. Hay aquéllas que prueban la conectividad, aquéllas usadas para configuración, y aquéllas que proporcionan información que puede ser útil en detectar problemas de red.

Utilidades para Probar la Conectividad El primer paso en detectar problemas en una conexión perdida es determinar si en realidad está perdida. Usuarios de red menos experimentados pueden suponer rápidamente que son incapaces de conectarse a un sitio Web en particular con sus navegadores, cuando el servidor del sitio en sí puede estar caído. La herramienta TCP/IP más común hallada en sistemas Linux, UNIX y Windows que se usa para probar la conectividad a otra máquina es el comando ping.

Page 426: Documento de Apoyo No. 4 Cisco It Essentials II

426

ping y pathping La utilidad ping significa Buscador de Paquetes en Internetwork [Packet Internetwork Groper]. Este comando es una utilidad simple que envía un mensaje llamado Solicitud de Eco a una computadora de destino designada usando el Protocolo de Control de Mensajes de Internet (ICMP). La computadora de destino responde enviando una Respuesta de Eco ICMP.

El primer paso para verificar un problema de conectividad sospechado es hacer ping al host. Si la conexión a Internet podría ser el problema, un host confiable en Internet, como http://www.yahoo.com, es un buen blanco para el ping. Si se recibe una respuesta, la conexión física entre las dos computadoras está intacta y funcionando. La respuesta exitosa también significa que el sistema que llama puede llegar a Internet. La Figura muestra un ejemplo de solicitud y respuesta ping.

El orden preferido en el cual ejecutar el test en TCP/IP es el que sigue.

1. Nombre del host El primer paso en verificar un problema de conectividad sospechado es hacer ping al host. Esto imprime el nombre del servidor de red. Si se recibe una respuesta, la conexión física entre las dos computadoras está intacta y funcionando.

2. ipconfig Imprime la configuración TCP/IP actual. Los sistemas Linux/UNIX usan el comando ifconfig más que el ipconfig. Anote la dirección IP y máscara de subred del servidor de red para una futura referencia. Si la dirección IP del gateway por defecto se muestra, anótela también.

3. Ping 127.0.0.1 Haga ping a la dirección loopback para ver si TCP/IP está instalado correctamente. Si aparece cualquier mensaje de error, es hora de eliminar y reinstalar el protocolo TCP/IP en el servidor de red.

4. Ping a la propia dirección IP Esto prueba que TCP/IP puede comunicarse con el adaptador de red del servidor de red. La dirección IP del servidor de red se muestra en la salida del comando IPCONFIG.

5. Ping al gateway por defecto Esto prueba que el servidor de red puede comunicarse desde la red a otro sistema de la red, en este caso el router. La dirección IP del gateway por defecto o router se muestra en la salida del comando ipconfig.

6. Ping al host remoto Un host remoto es una computadora del otro lado del gateway por defecto o router. Esto prueba que el router está haciendo su trabajo y envía el paquete TCP/IP a un sistema informático del otro lado del router.

7. Ping al propio nombre IP Esto prueba que el servidor de red puede resolver su propio nombre IP.

8. Ping al nombre IP del host remoto Esto prueba que el servidor DNS está funcionando y resolviendo el nombre IP de host de una computadora remota.

El comando ping puede emitirse usando la dirección IP del nombre de host DNS de la

Page 427: Documento de Apoyo No. 4 Cisco It Essentials II

427

computadora de destino. La dirección IP deberá usarse para probar la conectividad. Si un ping por dirección IP tiene éxito, pero un ping por nombre no lo tiene, esto indica un problema con el servidor o la configuración de resolución de nombres (DNS). Tal problema podría ocurrir cuando a la computadora del usuario se le asigna una dirección IP estática, en lugar de obtener una mediante DHCP, pero no tiene un servidor DNS definido en el archivo /etc/resolv.conf. Cuando la estación de trabajo es un cliente DHCP, el servidor DHCP usualmente asigna la dirección del servidor DNS. El término tiempo de ping se refiere a la cantidad de tiempo que transcurre entre el envío de la Solicitud de Eco y la recepción de la Respuesta de Eco. Un tiempo de ping bajo indica una conexión rápida. ping también puede usarse para probar si la pila TCP/IP está apropiadamente instalada y funcional en la computadora. Para llevar a cabo la prueba, haga ping a la dirección de loopback 127.0.0.1, a la cual se da el nombre de host localhost en el archivo /etc/hosts. Si se recibe una respuesta, la pila está funcionando.

Una versión de línea de comandos de ping se incluye con las pilas TCP/IP de todos los sistemas operativos Windows y con las distribuciones UNIX y Linux. En un servidor NetWare, se incluyen dos versiones, que se cargan como NLMs (Módulos Cargables de Netware) en la consola del servidor. Pathping se incluye con Windows 2000, pero no con Windows 9x o NT. Combina las funciones de ping con aquéllas de tracert y proporciona información adicional que no muestra ninguna de esas utilidades. Con pathping, es posible detectar qué routers están causando problemas en la red y medir cuántos paquetes se pierden en un router en particular.

Rastreo de Rutas de Paquetes Las utilidades de rastreo se usan para descubrir la ruta tomada por un paquete hasta llegar a su destino. La forma usual de determinar el enrutamiento de paquetes en sistemas UNIX es el comando traceroute. La Figura muestra salida común de traceroute en un sistema UNIX.

traceroute muestra todos los routers a través de los cuales el paquete pasa mientras viaja a través de la red desde la computadora emisora hasta la computadora de destino. Esto puede ser útil para determinar en qué punto la conectividad se pierde o ralentiza.

Utilidades de Configuración Los problemas de conectividad a menudo resultan ser problemas de configuración. Tal vez la dirección IP asignada a la computadora no se encuentre en el rango de subred correcto, o tal vez la máscara de subred, el gateway por defecto, la dirección DNS, u otras piezas de información de configuración se introdujeron incorrectamente. Si cualquiera de estas entradas está equivocada, o se la borra accidentalmente, la computadora no puede comunicarse apropiadamente en una red TCP/IP.

ifconfig /sbin/ifconfig, estándar en todos los sistemas UNIX más modernos, permite la visualización y el cambio de configuración de una interfaz de red, como una dirección IP, dirección de hardware,

Page 428: Documento de Apoyo No. 4 Cisco It Essentials II

428

dirección de broadcast, y máscara de subred asociadas a un dispositivo ethernet determinado.

netstat La utilidad netstat puede usarse para detectar problemas en la actividad de red mostrando las conexiones que se han efectuado hacia y desde el servidor. Usar el comando netstat mostrará conexiones TCP activas, puertos en los cuales la computadora está escuchando, estadísticas Ethernet, la tabla de enrutamiento IP, estadísticas IPv4 (para los protocolos IP, ICMP, TCP, y UDP), y estadísticas IPv6 (para los protocolos IPv6, ICMPv6, TCP sobre IPv6, y UDP sobre IPv6). Usada sin parámetros, netstat muestra todas las conexiones TCP activas. La página man de netstat enumera todos los parámetros que pueden usarse.

netconfig Linux incluye la utilidad /usr/sbin/netconfig que permite a un administrador seleccionar la configuración IP DHCP, o especificar una dirección IP estática junto con la máscara de red, gateway y servidor de nombres principal asociados.

lsof Aunque no es estrictamente una utilidad de networking, lsof puede identificar recursos relativos al networking y qué procesos pueden estar bloqueándolos. lsof (LiSt Open Files) enumera información sobre archivos que son abiertos por procesos en ejecución. Un archivo abierto puede ser un archivo regular, un directorio, un archivo especial de bloque, un archivo especial de carácter, una referencia a texto en ejecución, una librería, un stream, o un archivo de red (socket de Internet, archivo NFS o socket de dominio Linux/UNIX).

Windows NT y Windows 2000 - ipconfig El comando ipconfig se usa en Windows NT y Windows 2000 para mostrar la dirección IP, máscara de subred, y gateway por defecto para los cuales está configurado un adaptador de red. Ver Figura para información más detallada, se usa el switch/all. La Figura muestra los resultados del uso del comando ipconfig /all en un servidor Windows NT.

Si la computadora se configura como cliente DHCP, dos switches adicionales pueden usarse con ipconfig. El primero es /renew. Éste ocasiona la renovación del préstamo de la dirección IP. El segundo es el switch /release, que hace que la dirección IP se libere para que el servidor DHCP pueda reasignarla.

Otras Utilidades TCP/IP Probar la conectividad y verificar la información de configuración son los usos más comunes de TCP/IP al detectar problemas de red. No obstante, los sistemas UNIX incluyen herramientas adicionales, mostradas en la Figura , que puede usarse para reunir información específica.

Page 429: Documento de Apoyo No. 4 Cisco It Essentials II

429

13.4 Detección y Resolución de Problemas de Red

13.4.4 Directrices para resolver problemas

Detectar y resolver problemas en una red requiere habilidades para resolver problemas. El uso de un método estructurado para detectar, analizar y tratar cada problema a medida que se lo encuentra incrementa la probabilidad de tener éxito. La detección de problemas deberá efectuarse siempre paso a paso. Las buenas habilidades para resolver problemas no son específicas del networking de computadoras. Consideremos la forma en que un doctor encara un problema médico complejo o la forma en que un investigador resuelve un crimen. Independientemente del campo, los pasos son similares.

Reunir información Un médico toma una historia clínica y pide al paciente que describa los síntomas. Un detective de la policía hace preguntas a víctimas y testigos. Ambos se basan en sus propias observaciones y podrían tener que referirse a libros u otros expertos para investigar hechos específicos involucrados en el caso. Un detector de problemas de red deberá aprender a escuchar cuando los usuarios describen sus experiencias. Las buenas preguntas son una parte esencial de reunir la información necesaria para diagnosticar el problema.

Page 430: Documento de Apoyo No. 4 Cisco It Essentials II

430

Analizar la información Aquí es donde la experiencia y el conocimiento entran en juego. Las causas posibles más obvias deberán eliminarse primero. Si un paciente se queja de un dolor de cabeza, el doctor no comienza llevando a cabo cirugía cerebral, sino que primero considera los factores más simples a partir de los cuales los síntomas pueden originarse. A medida que se eliminan posibilidades, la búsqueda se estrecha.

Formular e implementar un plan de "tratamiento" Cree un plan para rectificar el problema. Todo plan deberá incluir un plan de contingencia, en caso de que el primer intento no funcione. Proceda con el plan organizadamente. Intente solamente una solución por vez.

Probar para verificar los resultados del tratamiento Es esencial que el éxito de las acciones de resolución de problemas se confirme. Es también importante verificar que la "cura" no tuviera efectos colaterales que ocasionaran problemas adicionales o diferentes.

Documentarlo todo Los detalles del problema y los pasos dados para corregirlo deberán registrarse, idealmente con una copia por escrito archivada. Esta documentación del proceso de ensayo y error podría ahorrar a un futuro administrador mucho tiempo.

Objetivos y prioridades realistas son críticos durante el proceso de resolución de problemas y optimización de la red. Un análisis de costo-beneficio puede ayudar a determinar qué problemas deberán tener precedencia. Los costos no son siempre monetarios. Aunque las prioridades pueden depender de problemas incluyendo presupuestos, eficiencia, presiones de tiempo y fechas de entrega, incluso la política interna pueden ser factores de costo. Detectar y resolver problemas es uno de los trabajos más difíciles del administrador de red. Es también el área en la cual un buen administrador prueba lo que vale y se gana tanto su salario como su título.

13.4 Detección y Resolución de Problemas de Red

13.4.5 Herramientas de diagnóstico de Windows 2000

Las herramientas de diagnóstico de red de Microsoft Windows 2000 Server incluyen Ipconfig, Nbtstat, Netstat, Nslookup, Ping, y Tracert, que son similares a sus contrapartes de Windows NT. Windows 2000 Server también incluye los comandos Netdiag y Pathping, que no estaban disponibles en Windows NT Server.

Netdiag El comando de Windows 2000 Server netdiag ejecuta un conjunto estándar de pruebas en la red y genera un informe de los resultados. El comando netdiag de Windows 2000 Server no es parte de la instalación estándar de Windows 2000 Server. Debe instalarse desde el CD-ROM de Windows 2000 Server desde la carpeta Herramientas de Soporte. El comando netdiag de Windows 2000 tiene una característica muy buena, puede usarse sin ningún indicador en absoluto y llevará a cabo un conjunto completo de pruebas en la red. Un especialista en hardware de servidores tan sólo necesita analizar la salida del comando netdiag buscando la palabra "Falló"

Page 431: Documento de Apoyo No. 4 Cisco It Essentials II

431

para encontrar posibles problemas de red. Incluso aunque el comando netdiag puede usarse sin ningún indicador, varios están disponibles. Los indicadores que pueden usarse con el comando netdiag de Windows 2000 Server son como sigue en la Figura .

pathping El comando pathping de Windows 2000 Server es una combinación del comando ping y del comando tracert. Los indicadores que pueden usarse con el comando pathping de Windows 2000. Resumen

Detectar y resolver problemas en cualquier sistema operativo puede a veces ser un proceso muy difícil y llevar mucho tiempo. Usualmente involucra dar muchos pasos y diferentes tareas para encontrar el problema. El primer lugar donde comenzar es aislar como causa del problema una de tres categorías. Estas categorías son relativas al hardware, relativas al software, o relativas al Usuario. El siguiente paso lógico sería hacer una serie de preguntas para descartar aún más opciones en la búsqueda de la causa del problema. ¿Hay algún componente específico que parece causar problemas? Después de descubrir cuáles son los síntomas, ¿cuál podría ser la causa del problema con esos síntomas? Para responder a estas preguntas es importante tener un conocimiento extensivo acerca de cómo funcionan los diversos componentes, cómo están instalados, y cómo configurarlos apropiadamente para un sistema Linux. Responder a estas preguntas también significa que es necesario conocer cómo funcionan los diversos componentes del sistema cuando están funcionando apropiadamente así como inapropiadamente.

Este capítulo trata muchos de los problemas comunes e importantes que pueden surgir en un sistema Linux. También trata diversos temas acerca de cómo identificar, diagnosticar y arreglar estos problemas comunes e importantes. ALgunos de estos problemas que se tratan en este capítulo son errores de arranque de LILO, problemas y procesos de inicio y apagado, y diversos otros fallos de software y aplicaciones. Los síntomas y soluciones de todos estos problemas se trataron eficazmente en este capítulo.

Este capítulo también describe las diversas herramientas y recursos que están disponibles para ayudar a diagnosticar y proporcionar soluciones que son importantes tener al detectar y resolver problemas en un sistema Linux. Por ejemplo, en este capítulo se trataron las diversas formas de arrancar un sistema sin LILO. Además, los diversos comandos Linux que pueden ser útiles al hacer el debugging de un sistema se mencionaron en este capítulo. En todo este capítulo y en este curso entero también, diversos lugares donde ir y encontrar ayuda para resolver estos problemas se han mencionado cuando es posible. Es imposible pensar que cualquier administrador de sistemas tendrá la respuesta para cada problema que surge o que será capaz de arreglar todos los problemas por su cuenta. Saber dónde encontrar ayuda para los problemas que no pueden manejarse individualmente es importante porque incluso el más conocedor administrador de sistemas se encontrará con problemas que no puede arreglar.

14. Seguridad en red Descripción general

Desarrollar una política de seguridad para una red depende de varios factores. El tipo de negocio, el tipo de datos, y la filosofía de administración deben considerarse para poder determinar el "Uso Aceptable".

Este módulo detallará la importancia de desarrollar una política de seguridad para vigilar contra las amenazas internas y externas a una red. El alumno aprenderá las medidas de seguridad a implementar. Aplicar patches y actualizaciones al Sistema Operativo de Red (NOS) asegurará que el sistema esté al corriente. Además, el alumno obtendrá una comprensión sobre firewalls y proxies.

Page 432: Documento de Apoyo No. 4 Cisco It Essentials II

432

14.1 Desarrollo de una Política de Seguridad de Red

14.1.1 Acceso a las necesidades de seguridad

Un networking seguro es un tema candente en el mundo de la tecnología de la información. Las intrusiones en las redes del gobierno y de los negocios, ataques masivos de virus de computadora, y casos criminal de elevado perfil involucrando a hackers están constantemente en las noticias. Desde las redes empresariales multinacionales hasta los usuarios de computadora hogareños con cuentas de Internet por conexión telefónica, casi todo el mundo que está "conectado" también está preocupado, en mayor o menor grado, acerca de la posibilidad de un acceso no autorizado.

Seguridad significa diferentes cosas para diferentes personas. La palabra seguridad según el American Heritage Dictionary es sinónimo de garantía. En el contexto del networking, la seguridad nunca es absoluta. El único sistema completamente seguro es aquél al que nadie tiene acceso. Esto obviamente no funciona. El Microsoft Press Computer and Internet Dictionary define seguridad informática como los pasos dados para proteger una computadora y la información que contiene. En esta definición no están implicadas garantías.

Puesto que todo el propósito de las redes de computadoras es compartir recursos, debe existir siempre un equilibrio delicado entre seguridad y accesibilidad. Cuanto más segura es una red, menos accesible es. Cuánto más accesible es una red, menos segura es. La Figura ilustra cómo un incremento en la accesibilidad disminuye la seguridad del sistema.

Los problemas de seguridad pueden convertir la relación entre los administradores de red y los usuarios de la red en una de relación de adversarios. Los usuarios generalmente prefieren más accesibilidad y los administradores prefieren más seguridad. Este módulo detalla las necesidades de seguridad de una red en particular, cómo evaluar amenazas existentes y potenciales a la seguridad, y cómo implementar las medidas de seguridad apropiadas. Además, se tratarán la forma en la cual funcionan los componentes de seguridad y una identificación avanzada y tecnologías de autenticación. En lo que se refiere a una red de computadoras, ¿cuánta seguridad es suficiente? La respuesta depende de la organización. El primer paso al desarrollar un plan viable para proteger los datos de la red es evaluar sus necesidades de seguridad. Hay varios factores a considerar:

· El tipo de negocio en el cual se desempeña la compañía · El tipo de datos almacenados en la red · La filosofía de administración de la organización

Tipo de Negocio Algunos negocios, como leyes o medicina, por su misma naturaleza generan datos confidenciales. La ley protege la privacidad de los registros médicos de un paciente y las comunicaciones abogado-cliente. Si se almacenan documentos sensibles en una red, es imperativo que se mantenga un alto nivel de seguridad. Hacerlo de otro modo pone a la organización en riesgo de responsabilidad civil e incluso cargos criminales.

Page 433: Documento de Apoyo No. 4 Cisco It Essentials II

433

Hay otros tipos de organización que a menudo producen datos sensibles:

· Agencias de aplicación de la ley, cortes, y otros cuerpos gubernamentales · Instituciones educativas que almacenan las notas de los alumnos en una red · Hospitales, instalaciones de salud mental, e instalaciones para la cura de abuso de drogas · Compañías que firman contratos con los organismos militares o que llevan a cabo otras

tareas relacionadas con la seguridad nacional · Organizaciones que reúnen datos bajo una garantía de confidencialidad · Organizaciones que producen un producto o proporcionan un servicio en una industria o

campo de investigación altamente competitivos · Organizaciones cuyas redes están conectadas a Internet

Tipo de Datos Independientemente del tipo de negocio, determinados tipos de datos se consideran privados y deberán protegerse. Estos tipos de datos incluyen los siguientes:

· Registros de pago e información personal de los empleados · Contaduría e información sobre impuestos · Secretos de marca como código original, planos, diagramas, recetas y estrategias de

negocios

Si estos tipos de información se almacenan en una red, un plan de seguridad deberá implementarse para protegerlos.

Filosofía de Administración Si los datos de la red no están sujetos a leyes de privacidad, el nivel de seguridad podría depender de las filosofías personales de los propietarios o administradores de negocios. En algunas organizaciones, todo el mundo es considerado parte de una gran familia feliz. La accesibilidad y facilidad de uso disfrutan de una prioridad más alta que la privacidad y seguridad. Otras organizaciones operan según un principio de "necesidad de saberlo". La administración prefiere que la información sea accesible sólo para aquéllos cuyos trabajos lo requieran. Ninguna de estas políticas es correcta o equivocada. Los administradores de red simplemente necesitan saber y deben estar dispuestos a implementar la seguridad de red que va con el estilo de administración de la organización.

14.1 Desarrollo de una Política de Seguridad de Red

14.1.2 Política de uso aceptable

El primer paso en crear una política de seguridad para una red de compañía es definir una política de uso aceptable (AUP). Una política de uso aceptable indica a los usuarios qué es aceptable y permitido en la red de la compañía. Esto puede incluir cosas como sitios web aceptables para visitar así como qué momentos son aceptables para navegar por Internet. Por ejemplo, la política de uso aceptable puede incluir información acerca de la instalación de software o hardware. El administrador del sistema puede determinar el alcance de qué incluir en la política de uso aceptable. El administrador del sistema puede incluir cualquier cosa que pudiera ser dañina para la red si se la usa inapropiadamente.

Para ver algunos ejemplos de políticas de uso aceptable por favor visite los sitios web mostrados en la Figura .

Page 434: Documento de Apoyo No. 4 Cisco It Essentials II

434

14.1 Desarrollo de una Política de Seguridad de Red

14.1.3 Estándares de nombre de usuario y contraseña

Usualmente, el administrador del sistema definirá la convención de nombrado para los nombres de usuario de una red. Un ejemplo común es la primera inicial del nombre de la persona y luego todo el apellido como lo muestra la Figura . Es recomendable mantener la convención de nombrado de nombres de usuario simple para que a la gente no le cueste recordarla. Una convención de nombrado de nombre de usuario compleja no es tan importante como tener un estándar de contraseña compleja.

Al asignar contraseñas, el nivel de control de la contraseña deberá coincidir con el nivel de protección requerido. Una buena política de seguridad deberá aplicarse estrictamente e incluir, pero no limitarse a, lo siguiente:

· Las contraseñas deben expirar después de un periodo específico. · Las contraseñas deberán contener una mezcla de letras y números para que no puedan

quebrarse fácilmente. · Los estándares de contraseñas deberán evitar que los usuarios las escriban y las dejen

desprotegidas de la vista pública. · Deberán definirse reglas acerca de la expiración y lockout de contraseñas. Las reglas de

lockout se aplican cuando se ha hecho un intento no exitoso de acceder al sistema o cuando se ha detectado un cambio específico en la configuración del sistema.

14.1 Desarrollo de una Política de Seguridad de Red

14.1.4 Estándares de protección contra virus

Estándares apropiados de protección contra virus requieren que se instale software de protección contra virus actualizada se instale en todos los sistemas de la red. Ubique filtros apropiados y listas de acceso en todos los gateways entrantes para proteger la red de un acceso no deseado. Para evitar virus, políticas de e-mail también necesitan desarrollarse que enuncien qué puede enviarse y recibirse. Estas políticas pueden encontrar resistencia porque a los usuarios les gusta chatear y enviar e-mail no orientado a los negocios mientras están en el trabajo. Los usuarios necesitan estar conscientes de los problemas de seguridad y del efecto que las violaciones de seguridad pueden tener en la red así como en los datos de los usuarios. Los sitios web de la Figura proporcionan estándares de políticas de e-mail de muestra.

Page 435: Documento de Apoyo No. 4 Cisco It Essentials II

435

Además, es importante contar con un procedimiento que requiera que todas las advertencias de virus provengan de un administrador central. Sería la responsabilidad de una única persona determinar si una alerta de virus es real o si es un engaño y luego tomar la acción apropiada. Un hoax puede no ser tan malicioso como un virus pero puede ser igual de frustrante. Lleva valioso tiempo y recursos si un hoax no es identificado. Un excelente recurso para determinar si una advertencia es real o un hoax es el sitio web de más abajo. 14.1 Desarrollo de una Política de Seguridad de Red

14.1.5 Recursos de seguridad online

A fines de 1988, un estudiante graduado de 23 años de la Universidad de Cornell lanzó un gusano auto-replicante a Internet. Un gusano es un virus auto-replicante que no altera los archivos pero reside en la memoria activa y se duplica. En cuestión de horas, el gusano en rápido esparcimiento resultó en el cierre de más de 60.000 computadoras UNIX en universidades e instalaciones militares. El gusano fue eventualmente erradicado después de que un grupo de investigadores de todo Estados Unidos trabajaran juntos para decompilar el programa. Para muchos administradores de red el gusano de Internet de noviembre de 1988 fue una advertencia. El Centro Nacional de Seguridad Informática facilitó una serie de reuniones para explorar formas de evitar y responder a futuros ataques a Internet.

La elevada consciencia de los problemas de seguridad de Internet después del gusano de 1988 condujo a la formación del Centro de Coordinación del Equipo de Respuestas a Emergencias Informáticas (CERT/CC). El propósito de CERT/CC es descubrir y estudiar vulnerabilidades de seguridad relacionadas con Internet. CERT/CC coloca alertas de seguridad en su sitio web. CERT/CC también estudia tendencias a largo plazo en seguridad de Internet.

Recursos basados en la web ofrecen información crítica y potentes herramientas que pueden usarse para proteger una red. Algunos de los mejores recursos de seguridad online son los sitios web de fabricantes de NOS. Para ver algunos ejemplos de los recursos de seguridad online visite los sitios web mostrados en la Figura .

Además, los grupos de noticias de Internet pueden ser un foro invalorable para el intercambio de información concerniente a temas relacionados con la seguridad.

Page 436: Documento de Apoyo No. 4 Cisco It Essentials II

436

14.2 Amenazas a la Seguridad de la Red

14.2.1 Descripción general: seguridad interna/externa

A medida que la industria del networking ha venido madurando durante la pasada década, la seguridad se ha convertido en una de las mayores preocupaciones de la Tecnología de la Información. Hoy, las redes transportan billones de transacciones financieras, documentos privados, y registros personales. Muchos intercambios sensibles de tal información tienen lugar a través de la Internet pública. Desde el punto de vista de la seguridad, Internet presenta numerosos desafíos. Primero, Internet se basa en los bien conocidos protocolos abiertos que componen la suite del Protocolo de Control de Transmisión/Protocolo Internet (TCP/IP). Estos protocolos, incluyendo al mismo IP, no estaban diseñados teniendo en mente una red pública mundial. Aunque la suite TCP/IP ha escalado para cumplir las demandas de la Internet global de hoy, estos protocolos tienen una notoria falta de seguridad inherente.

En otras palabras, Internet funciona esencialmente siguiendo reglas abiertas al público. Si se estudian las reglas lo suficiente, es posible hallar troneras y debilidades que pueden explotarse. Desafortunadamente, parece que nunca faltan los individuos que desean hallar y explotar estas debilidades, ya sea por lucro o sólo por diversión. Una segunda preocupación relativa a la seguridad rodea a la naturaleza de las conexiones a Internet. La cantidad de individuos, organizaciones e instituciones conectadas a Internet crece. Estos grandes grupos de conexiones a Internet se han vuelto esenciales para negocios en muchas partes desarrolladas del mundo. Pero conectarse a Internet abre la puerta a intrusos provenientes de la red. En general, una conexión a Internet es como una calle de dos manos. Si un usuario se conecta a Internet, entonces los hosts de Internet pueden conectarse a ese usuario.

Virtualmente todos los Sistemas Operativos de Red (NOSs) tienen algún grado de soporte a TCP/IP. Windows 2000 y Red Hat Linux ofrecen un complemento completo de servicios IP. Este módulo se concentra en los problemas de seguridad relacionados con TCP/IP porque TCP/IP es el protocolo de red dominante hoy. Ejecutando TCP/IP y conectándose a Internet, una compañía enfrenta significativas amenazas externas. Además de las amenazas externas desde Internet, las redes corporativas enfrentan numerosas preocupaciones de seguridad interna. Servicios comunes como compartir archivos y e-mail deben asegurarse en una red corporativa. Esta medida se toma para que sólo los usuarios autorizados tengan acceso a información sensible y personal. Así como

Page 437: Documento de Apoyo No. 4 Cisco It Essentials II

437

los archivos en papel confidenciales se mantienen en gabinetes archivadores cerrados con llave en oficinas bajo llave, los registros electrónicos también deben asegurarse.

Lapsos en la seguridad interna pueden también resultar en ataques externos. Los usuarios legítimos pueden infectar inadvertidamente la red corporativa con un virus leyendo e-mail o navegando por la web. Algunos usuarios corporativos pueden, intencionalmente o no, instalar software no autorizado que puede abrir un sistema o toda una red para ser atacados. Y, por supuesto, empleados disconformes o desleales pueden representar una amenaza a la seguridad tanto desde adentro como afuera de la red corporativa. Políticas de seguridad bien implementadas pueden minimizar el riesgo representado por estos casos. 14.2 Amenazas a la Seguridad de la Red

14.2.2 Vulnerabilidades de seguridad dentro de los servicios Linux

Muchos de los ataques exitosos son posibles por vulnerabilidades en una pequeña cantidad de servicios comunes del sistema operativo. Los atacantes obtienen ventaja de sistemas no asegurados y usualmente toman la ruta más fácil y conveniente y explotan los defectos mejor conocidos con las más eficaces y ampliamente disponibles vulnerabilidades. Muchos de los virus y gusanos fáciles y destructivos que se conocen pueden rastrearse directamente a la explotación de vulnerabilidades no resueltas. Hace tres años, el Instituto SANS y el Centro de Protección a la Infraestructura Nacional (NIPC) y el FBI lanzaron un documento resumiendo las Diez Vulnerabilidades de la Seguridad de Internet Más Críticas en Linux y UNIX. Aunque hay miles de incidentes de seguridad por año que afectan a estos sistemas operativos, la gran mayoría de ataques exitosos tienen como blanco uno o más de los siguientes servicios vulnerables:

· Sistema de Nombres de Dominio BIND · Llamadas de Procedimiento Remoto (RPC) · Servidor Web Apache · Cuentas de Autenticación UNIX Generales Sin Contraseña o Con Contraseñas Débiles · Servicios de Texto Claro · Sendmail · Protocolo de Administración de Red Simple (SNMP) · Secure Shell (SSH) · Mala Configuración de Servicios Empresariales NIS/NFS · Open Secure Sockets Layer (SSL)

Para ver una explicación abarcativa de las vulnerabilidades específicas de cada uno de los elementos de la lista de más arriba, visite el sitio web del Instituto SANS en el siguiente vínculo.

14.2 Amenazas a la Seguridad de la Red

14.2.3 Amenazas externas

Las primeras formas de NOSs usaban una variedad de protocolos de red, algunos propietarios y otros no. El explosivo crecimiento de Internet, que comenzó a finales de los '80, estimuló la demanda de software y servicios con capacidad TCP/IP. Para llevar Internet a los escritorios de los usuarios, los administradores de red tuvieron que implementar TCP/IP. TCP/IP resultó ser capaz en el área del networking corporativo. Los administradores de red comenzaron a dejar de usar otros protocolos, como AppleTalk e IPX/SPX. A fines de los '90, todos los desarrolladores de NOSs más importantes, incluyendo Apple y Novell, construían su software en torno a TCP/IP y los servicios de Internet.

Se ha vuelto cada vez más poco común para una organización implementar un NOS sin también tener una conexión a Internet. Recuerde, una conexión puede actuar como una puerta abierta. Las reglas de Internet son abiertas, bien conocidas y llenas de debilidades. Si los servicios TCP/IP se ejecutan en un NOS conectado a Internet, hay riesgos potenciales. El robo de datos tiene lugar cuando una parte o programa de software no autorizados obtiene ilegalmente información privada que se almacena o transmite por una red. El robo de datos puede ocurrir de muchas formas, incluyendo el sniffing de paquetes y la ruptura de sistemas. En general, los ladrones de datos roban

Page 438: Documento de Apoyo No. 4 Cisco It Essentials II

438

información que puede usarse para generar un beneficio monetario, como información sobre tarjetas de crédito, información sobre cuentas financieras, e incluso secretos corporativos. No obstante, alguien que irrumpe ilegalmente en un servidor de correo para leer el correo de los empleados también está robando información. Recientemente, un caso de alto perfil del robo de un registro de chat de mensajería instantánea sensible resultó en serias consecuencias financieras.

La destrucción de datos tiene lugar cuando una persona o programa de software no autorizados irrumpe en un sistema y borra datos. El borrado de datos también puede involucrar su reemplazo por datos erróneos. En algunos casos, la entidad no autorizada puede ser software malicioso que está instalado en un sistema. El software malicioso puede ser instalado como resultado de un ataque directo, un adjunto de un e-mail, un virus o un gusano.

Un ataque de denegación de servicio (DoS) está diseñado para degradar el desempeño del servidor o sacarlo de la red completamente. El objetivo de tal ataque es evitar que otros hosts usen el servidor o, denegación del servicio. Un servidor caído o inaccesible puede costar miles de dólares por hora a una compañía.

Varias fuentes externas pueden ser la causa de estos ataques, que se enumeran en la Figura .

Hackers Las definiciones del término "hacker" son controvertidas. Los medios mainstream y el público en general usan hacker como término negativo que describe a cualquier persona que lleva a cabo irrumpciones en computadoras y altera los datos de las mismas. No obstante, dentro de la mal llamada comunidad hacker, existe una distinción entre aquéllos que irrumpen y aquéllos que irrumpen con intenciones de infligir daños. Para algunos, el término hacker se refiere a alguien experto en sistemas informáticos. De acuerdo a esta definición, un hacker puede irrumpir en un sistema para explorarlo y expandir su conocimiento. El verdadero hacker desea diseccionar sistemas y programas para ver cómo funcionan. Esto contrasta con aquéllos llamados "crackers".

Crackers Aquéllos que irrumpen en sistemas informáticos para alterar, robar o destruir datos se denominan crackers. La comunidad hacker se refiere a los crackers como "black hats" [sombreros negros], por el villano arquetípico de un melodrama o un western de televisión de EE.UU. A los hackers benignos a veces se los llama "white hats" [sombreros blancos].

Virus Un virus es un trozo de código de programación usualmente disfrazado de otra cosa. Ocasiona algún evento inesperado y usualmente indeseable. Un virus está diseñado a menudo para que se esparza automáticamente a otros usuarios de computadora. Los virus pueden transmitirse como adjuntos a notas de e-mail, como descargas, o estar presentes en un diskette o CD. El origen que acabó de recibir la nota de e-mail, archivo descargado o diskette a menudo no es consciente de la existencia del virus. Los efectos de algunos virus se experimentan tan pronto como sus códigos son ejecutados. Otros virus permanecen dormidos hasta que las circunstancias hacen que sus códigos sean ejecutados por la computadora. Algunos virus tienen intención y efecto juguetón y otros pueden ser muy dañinos, borrando datos u ocasionando el fallo completo del sistema.

Page 439: Documento de Apoyo No. 4 Cisco It Essentials II

439

Gusanos Un gusano es un virus auto-replicante que no altera los archivos pero reside en la memoria activa y se duplica a sí mismo. Los gusanos usan partes de un sistema operativo que son automáticas y usualmente invisibles para el usuario. Es común que los gusanos se noten sólo cuando su réplica descontrolada consume recursos del sistema, ralentizando o deteniendo otras tareas.

Programas Troyanos Un troyano es un programa que se presenta como otro programa para obtener información. Por ejemplo, hay un troyano que emula la pantalla de inicio de sesión del sistema. Cuando los usuarios tipean su nombre de cuenta y contraseña, la información se almacena o transmite a quien originó el troyano. Luego, el nombre de usuario y contraseña pueden usarse para obtener acceso al sistema.

14.2 Amenazas a la Seguridad de la Red

14.2.4 Denegación del Servicio (DoS)

Un ataque DoS ocurre cuando el sistema blanco no puede servir solicitudes legítimas de la red eficazmente. Como resultado, el sistema se ha vuelto sobrecargado por mensajes ilegítimos. Los ataques DoS vienen en muchas formas. Los ataques DoS comunes intentan aprovechar las debilidades de TCP/IP, o debilidades del código del software del NOS. Los ataques DoS se originan en un host o grupo de hosts. Cuando el ataque viene de un grupo coordenado de hosts, esos ataques se denominan DoS Distribuida (DDoS). Un ataque DoS común es sobrecargar un sistema blanco enviando más datos que los que puede manejar. Por ejemplo, un atacante envía un gran volumen de paquetes a un blanco. El mero volumen del tráfico resultante puede agobiar al software blanco, haciendo que el software se caiga. Además, un volumen lo suficientemente grande de tráfico DoS puede llenar un vínculo a Internet blanco. Como resultado de tal ataque, el blanco es esencialmente sacado de Internet. Hay varios tipos específicos de ataques DoS: Un ataque de desbordamiento del buffer está diseñado para agobiar al software que se corre en el sistema blanco. Las aplicaciones de software se escriben de manera tal que pueden contener datos entrantes y salientes en un buffer de memoria. En algunos casos, puede ser posible enviar más datos que los que un buffer puede contener. También puede ser posible enviar datos formateados de tal manera que el programa o su buffer se confundan. Si el código del software no está escrito para manejar un desbordamiento del buffer apropiadamente, el programa puede caerse. El mal llamado ping de la muerte es un bien conocido ataque DoS por desbordamiento del buffer. Para ejecutar un ataque del ping de la muerte, el atacante envía solicitudes de eco del Internet Control Message Protocol (ICMP) ilegalmente grandes al blanco. El software TCP/IP antiguo no podía manejar apropiadamente tales pings y por lo tanto se caía. Los desbordamientos del buffer por lo común aprovechan debilidades específicas del software NOS. El ataque de sincronización TCP (SYN) explota el handshake de tres vías del protocolo TCP. Esto se ilustra en la Figura . El atacante envía un gran volumen de solicitudes de sincronización TCP (solicitudes SYN). Estas solicitudes representan la primera parte del handshake de tres vías. El sistema blanco responde con la segunda parte del handshake y luego espera una respuesta. La respuesta es la parte tercera y final del handshake. El blanco no esperará por siempre. El blanco debe esperar lo suficiente como para permitir que se establezcan sesiones legítimas. El sistema atacante no responde, en cambio envía solicitudes SYN adicionales tan rápidamente como es posible. El volumen resultante de conexiones a medio abrir puede ser demasiado para que el blanco las maneje, haciendo que su software se caiga. Incluso si el blanco no se cae, puede estar tan ocupado con las conexiones a medio abrir que no puede servir eficazmente solicitudes SYN legítimas.

Page 440: Documento de Apoyo No. 4 Cisco It Essentials II

440

En 1997 se descubrió una variante del ataque SYN TCP, llamada land. El ataque land usa un programa que altera el encabezado IP de la solicitud SYN. Esta alteración hace que la solicitud SYN parezca provenir del blanco mismo. Alterar el encabezado IP para ocultar la fuente es spoofing o falsificación. El blanco recibe el paquete falso e intenta responderse a sí mismo, solamente para caerse o colgarse casi inmediatamente. Cuando se lo descubrió por primera vez, varios sistemas con TCP/IP habilitado estaban afectados, incluyendo Windows 95/NT, BSD UNIX, y Solaris. Los dispositivos de red pueden configurarse para bloquear ataques SYN TCP provenientes de una única fuente. Una defensa contra los ataques SYN TCP incluye incrementar la cantidad de conexiones a medio abrir permitidas por el software. Otra defensa contra ataques SYN TCP puede ser disminuir la cantidad de tiempo que el software espera una respuesta. Hoy, los ataques SYN TCP, incluyendo a land, son bien conocidos y en su mayor parte evitables. Teardrop es el nombre de un programa que aprovecha la forma en que IP maneja la fragmentación. Las reglas de TCP/IP permiten a un paquete IP grande el ser dividido en fragmentos más pequeños y manejables de ser necesario. Los fragmentos se envían, cada uno, como paquetes individuales. Cada paquete fragmento contiene la información necesaria para que el paquete más grande pueda reensamblarse en el destino. Teardrop envía fragmentos que tienen información de reesamblaje superpuesta, lo cual confunde al software blanco ocasionando una caída. Se conoce que Teardrop afecta a Windows 3.1, 95, NT y algunas versiones de Linux. Hoy, virtualmente todos los OSs contienen código para protegerse contra este ataque. Como el de land, el ataque Smurf se basa en hacer spoofing del encabezado del paquete IP. Smurf también se basa en ICMP o ping. Muchas organizaciones usan tecnología firewall para bloquear solicitudes ping provenientes de redes externas. No obstante, las respuestas ping usualmente se permiten dentro de una red para que los hosts internos puedan usar ping para probar la conectividad externa. Si una organización permite la entrada de respuestas de ping a su red, puede ser vulnerable a Smurf. En un ataque Smurf, el atacante envía un gran volumen de solicitudes ping a una red blanco. Ésta puede, o no, ser la misma red en la que reside el host blanco. El atacante hace spoofing de los encabezados IP de estas solicitudes ping para que parezcan haberse originado en el blanco. Una vez que los hosts de la red blanco recibieron la solicitud de ping, dirigen todas sus respuestas al host blanco. En consecuencia, el host blanco y/o sus conexiones a la red pueden ser sobrecargadas, denegando eficazmente el servicio. Los ejemplos enumerados aquí son todas vulnerabilidades bien conocidas. El software de los OS se escribe ahora teniendo en cuenta estos ataques. Por ejemplo, la mayoría de los sistemas son ahora inmunes a land y Teardrop. Las vulnerabilidades conocidas en software representan agujeros en el sistema. Estos agujeros pueden repararse, o se puede aplicar patches a ellos, instalando actualizaciones de software cuando las haga disponible el fabricante. Al instalar cualquier OS, verifique con el fabricante para determinar si cualesquiera patches de seguridad están disponibles para el OS. Ciertamente, existen vulnerabilidades adicionales esperando a ser descubiertas. Es inteligente verificar con autoridades de seguridad en la World Wide Web, como CERT/CC, regularmente.

14.2 Amenazas a la Seguridad de la Red

14.2.5 Denegación del Servicio Distribuida (DDoS)

La mayoría de los ataques DoS funcionan sobrecargando un blanco con paquetes. Los desarrolladores de hardware y software han creado formas de identificar patrones de tráfico sospechosos que provienen de una dirección de host individual. Una vez identificado el tráfico sospechoso, un filtro o firewall puede bloquear el tráfico proveniente de esa dirección.

Page 441: Documento de Apoyo No. 4 Cisco It Essentials II

441

A fines de los '90, los ataques DoS sufrieron una evolución perturbadora. Los hackers desarrollaron formas de coordinar varios hosts en un intento por denegar el servicio. Los ataques de Denegación del Servicio Distribuida (DDoS) pueden ser muy difíciles de detener porque pueden originarse en cientos o incluso miles de hosts coordinados. ¿Cómo puede un blanco diferenciar entre solicitudes legítimas e ilegítimas? En algunos casos, la única diferencia entre paquetes legítimos y paquetes falsos es su intención. Determinar la intención de un paquete puede ser extremadamente difícil, si no imposible.

El ataque DDoS clásico comienza con semanas o incluso meses de hacking. El ataque DDoS Tribal Flood Network se ilustra en la Figura . Antes de que el hacker pueda atacar al blanco definitivo, una "flota" de sistemas deben coordinarse para el ataque. Una flota está compuesta por hosts "zombies". Un zombie es en general un host inseguro con una conexión permanente de alta velocidad a Internet. El hacker aprovecha la falta de seguridad del zombie. El hacker irrumpe en el sistema directamente o mediante un virus de e-mail. El objetivo de la irrupción o virus es instalar software en el sistema zombie. El software instalado proporciona un control parcial de ese sistema al hacker. El siguiente paso para el hacker es obtener un control parcial de una gran cantidad de zombies. El hacker usa los zombies para lanzar un ataque DDoS sobre el blanco definitivo. Una reciente tendencia en ataques DDoS es el uso de tecnología Internet Relay Chat (IRC) para controlar zombies y lanzar ataques.

Construir una flota de sistemas zombie ha resultado ser demasiado fácil para algunos atacantes DDoS. La proliferación de servicio de Internet de banda ancha ha estimulado los ataques DDoS. Millones de usuarios hogareños tienen ahora conexiones permanentes de alta velocidad a Internet. Los usuarios hogareños son notablemente susceptibles a virus de e-mail. Abriendo un adjunto de e-mail, el usuario puede involuntariamente convertir su PC hogareña en un zombie. Las computadoras de la universidad y otras redes escolares también son probables candidatos a convertirse en zombies. Las redes de los campus son notablemente grandes y difíciles de administrar. Muchas redes escolares sufren de políticas de seguridad laxas, acceso inalámbrico inseguro, y acceso sin regulación de los alumnos. 14.2 Amenazas a la Seguridad de la Red

14.2.6 Explotaciones bien conocidas

Los ataques DoS se concentran principalmente en debilidades extendidas comunes a muchas implementaciones de TCP/IP. Los ataques externos también pueden concentrarse en software específico del sistema, incluyendo el mismo NOS. Cada combinación de NOS y software de aplicación contiene su conjunto único de vulnerabilidades y debilidades.

Si un cracker es lo suficientemente habilidoso, conocedor y diligente, existe la posibilidad de que algunos de los ataques contra un sistema específico eventualmente tengan éxito. La única medida 100 por ciento eficaz para protegerse contra ataques externos es desconectarse de las redes externas. Afortunadamente, existen relativamente pocos crackers altamente habilidosos.

Page 442: Documento de Apoyo No. 4 Cisco It Essentials II

442

Muchos expertos en seguridad de redes están de acuerdo en que una de las amenazas más significativas a la seguridad de la red proviene de individuos con herramientas sofisticadas. No obstante, estos individuos poseen capacidades técnicas relativamente débiles. Estos individuos se denominan a menudo "script kiddies". Script kiddy es un término negativo usado para describir a individuos inmaduros que usan scripts, programas de software o técnicas creadas por otros crackers más habilidosos. Los script kiddies pueden ser incluso más peligrosos que sus contrapartes más refinadas. Los script kiddies probablemente no comprendan las consecuencias de lo que están haciendo. Por lo tanto, un script kiddy puede atacar al azar docenas de sistemas para divertirse.

Los script kiddies y crackers novicios recurren a sitios web para hackers y chat rooms para buscar herramientas que puedan usarse para atacar blancos. Estas herramientas pueden ser simples programas de software o incluso sólo un procedimiento que pueda usarse contra un blanco. Un ataque específico se define a menudo como una explotación. Una explotación aprovecha las debilidades del sistema.

Existen muchas explotaciones conocidas que se basan en los siguientes programas. Están enumerados en la Figura .

Page 443: Documento de Apoyo No. 4 Cisco It Essentials II

443

14.2 Amenazas a la Seguridad de la Red

14.2.7 Amenazas Internas

Las amenazas a la seguridad que se originan en el interior de una red pueden ser más dañinas que las amenazas externas. Las amenazas internas son especialmente peligrosas y pueden a menudo ser pasadas por alto por los administradores de red. Las computadoras que residen en la red interna en general tienen un alto grado de acceso a los recursos internos. Además, los empleados y usuarios en los que se confía es probable que tengan información crítica acerca de la red, incluyendo contraseñas.

Las amenazas internas de alto perfil incluyen empleados desleales y disconformes que usan su acceso interno para destruir, robar o alterar datos. No es posible protegerse completamente contra estos tipos de ataques. No obstante, políticas de seguridad bien definidas pueden minimizar los riesgos de este tipo de amenaza. Por ejemplo, las organizaciones deberán evitar usar sólo unas pocas contraseñas para proteger todos los recursos informáticos. Las grandes compañías deberán establecer procedimientos claros para quitar cuentas y contraseñas de usuario en el caso de que un empleado deje la compañía.

La amenaza interna más dañina es el típico usuario final de una red. Usuarios finales inconscientes pueden hacer caer una red abriendo sin cuidado adjuntos de e-mail, instalando software no autorizado, montando discos desde su casa, o incluso navegando por la web. La causa típica de ataques internos es un usuario final que abre un adjunto de e-mail solamente para copiar un virus a la computadora. Muchos virus prosperan en la red corporativa. Los virus de e-mail normalmente se envían a sí mismos a cuentas listadas en libretas de direcciones de e-mail. Muchas corporaciones mantienen listas de e-mails del personal cargadas en cada computadora, donde un virus puede expandirse rápidamente a todos los miembros de una compañía. Los virus también pueden buscar e infectar archivos y carpetas compartidos, que son comunes en redes corporativas.

Un problema creciente para las redes corporativas es la extensa popularidad de la mensajería instantánea y de los archivos compartidos peer-to-peer. Los empleados pueden descargar software de mensajería instantánea, como Microsoft Messenger o America Online (AOL) Instant Messenger. El software de mensajería instantánea se usa para chatear en tiempo real con compañeros de trabajo, amigos y familia. Otros usuarios pueden descargar software de archivos compartidos peer-to-peer basado en Gnutella o alguna otra tecnología. Ambos programas, de mensajería instantánea y de archivos compartidos peer-to-peer, pueden usarse para transferir archivos infectados por virus a la computadora local. Ambos tipos de programas escuchan esperando conexiones que se originan en Internet. El chat y las aplicaciones de archivos compartidos pueden ser vulnerables a otras formas de explotación. 14.3 Implementación de Medidas de Seguridad

14.3.1 Cifrado, auditoría y autenticación de archivos

Proteger los datos de la red a menudo requiere que se aplique una combinación de métodos de seguridad. Esta sección examina cómo los datos sensibles pueden cifrarse, en archivos en el disco o en paquetes que viajan a través de la red. Las tecnologías disponibles para asegurar mensajes de e-mail son el foco de esta sección, puesto que el e-mail es una de las aplicaciones de red más ampliamente usadas. Es también la forma de comunicación por red que es más probable que contenga información confidencial. Esta sección detalla cómo se implementan las medidas de seguridad y cómo estas medidas funcionan realmente.

Page 444: Documento de Apoyo No. 4 Cisco It Essentials II

444

3DES El cifrado es la transformación de datos en una forma que sea imposible de leer sin el conocimiento o clave apropiada. 3DES es un criptosistema que puede cifrar y descifrar datos usando una única clave secreta. DES (Estándar de Cifrado de Datos) fue originalmente desarrollado por IBM a principios de los '70, aunque IBM lo llamó Lucifer. DES fue adoptado como estándar federal en 1976. No obstante, DES se hizo vulnerable a medida que las computadoras se hicieron más potentes y simples. DES ya no es seguro y desde entonces se ha vuelto fácil de crackear. Por lo tanto, NIST definió 3DES o Triple DES en 1999. 3DES usa tres etapas de DES por lo cual es mucho más seguro y es suficiente para la mayoría de las aplicaciones actualmente.

DES es un cifrado de bloque, lo cual significa que actúa sobre un bloque de longitud fija de texto llano y lo convierte en un bloque de texto cifrado del mismo tamaño usando la clave secreta. En DES, el tamaño del bloque para el texto llano es de 64 bits. La longitud de la clave es también de 64 bits pero 8 bits se usan para paridad. De ahí que la longitud de clave eficaz es sólo de 56 bits. En 3DES, se aplican 3 etapas de DES con una clave separada para cada etapa. Por lo tanto, la longitud de la clave en 3DES es de 168 bits. El descifrado se hace aplicando la transformación inversa al bloque de texto cifrado usando la misma clave. DES es conocido como cifrado de clave simétrica porque la misma clave se usa tanto en el cifrado como en el descifrado. 3DES tiene muchas ventajas y desventajas que se enumeran a continuación.

· Ventajas: · Es fácil de implementar tanto en hardware como en software en comparación con

otros algoritmos. · Está basado en DES que es un cifrado muy confiable. DES ha sido estudiado

exhaustivamente durante más de 25 años y ha probado tener una base segura aunque la longitud de la clave es demasiado pequeña ahora.

· Es mucho más rápido que los métodos de criptografía de clave pública, como el método RSA. Ésta es una de las principales ventajas de usar un sistema como 3DES.

· Desventajas: · Algoritmos más modernos son mucho más rápidos que 3DES ya que fueron

construidos mucho después y con desempeño como objetivo. · La transmisión de la clave secreta entre usuarios es insegura. Es en esto donde

sobresale la criptografía de clave pública. · El nuevo estándar AES ha sido especificado, por lo cual la mayoría de los sistemas

probablemente se pasarán a él pronto.

Como se mencionó anteriormente, DES ya no es seguro y 3DES es sólo un arreglo temporal. Desde entonces NIST ha publicado el AES (Estándar de Cifrado Avanzado) en 2001. El AES ahora formalmente reemplaza al 3DES como estándar de cifrado. 3DES es un algoritmo de cifrado muy bien estudiado basado en DES. Puede otorgar un nivel aceptable de seguridad dada la potencia de computación actual. No obstante, otros algoritmos potentes se han desarrollado, que ofrecen muchas funciones que 3DES no ofrece. Por lo tanto, ha sido reemplazado por AES como estándar de cifrado aunque probablemente aún estará en uso durante un tiempo futuro.

Page 445: Documento de Apoyo No. 4 Cisco It Essentials II

445

Autenticación La autenticación proporciona varios métodos para identificar usuarios incluyendo los siguientes:

· Diálogo de inicio de sesión y contraseña · Desafío y respuesta · Soporte de mensajería

Existen varios tipos diferentes de métodos de autenticación en un servidor Linux. Por ejemplo, cuando el servidor detecta una conexión Telnet entrante, el servidor autentica el nombre de usuario y contraseña o cuando el servidor detecta una conexión PPP entrante, el servidor autentica el nombre de usuario y la contraseña. Un nombre de usuario y contraseña que autentican exitosamente para un tipo de acceso pueden no funcionar para otro. Un usuario puede ser capaz de establecer una conexión PPP pero puede no estar autorizado para una conexión telnet o viceversa. Un servidor Linux puede utilizarse para autenticar varios tipos de conexiones, incluyendo autenticación CHAP y PAP para conexiones PPP. Tratar completamente el campo completo de las capacidades de autenticación estaría más allá del alcance de este curso. Los siguientes párrafos tratarán el uso de la autenticación CHAP y PAP para una conexión PPP.

Mantener seguro su vínculo PPP es muy importante. Permitir que cualquiera se conecte al servidor PPP es tan malo como dejar que cualquiera pusiera una máquina directamente en su red. PPP proporciona una conexión IP directa, eficazmente poniendo a las máquinas de ambos extremos del enlace en la misma red. Dos protocolos de autenticación han sido desarrollados para hacer a PPP más seguro - el Protocolo de Autenticación de Contraseña (PAP) y el Challenge Handshake Authentication Protocol (CHAP). Cuando se está estableciendo una conexión PPP, cada máquina puede solicitar a la otra que se autentique. Esto permite un control completo de quién puede usar su servicio PPP. CHAP es el protocolo más seguro y es el que se trata aquí.

CHAP usa un conjunto de claves secretas, que son cadenas de texto que son mantenidas en secreto por los propietarios de las máquinas que usan CHAP y un sistema de desafío cifrado para autenticarse entre sí. Una característica útil de CHAP es que periódicamente emite solicitudes de desafío mientras el enlace PPP está activo. Esto, por ejemplo, puede detectar intrusos que han reemplazado al usuario legítimo cambiando las líneas telefónicas. Las claves secretas para CHAP se almacenan en el archivo /etc/ppp/chap-secrets. Para usar la autenticación en su enlace PPP, se agrega la opción auth a la llamada a pppd y se agrega la información apropiada para el host que está siendo autenticado en el archivo chap-secrets.

Auditoría Auditoría en lo que se refiere al mundo de las computadoras y el networking es software que corre en un servidor y genera un informe mostrando quién ha accedido al servidor y qué operaciones han llevado a cabo los usuarios durante un periodo determinado. Los rastreos de auditoría son útiles tanto para mantener la seguridad como para recuperar datos perdidos. La mayoría de los sistemas de cuentas y base de datos incluyen un componente de rastreo de auditoría. Además, hay productos de software de rastreo de auditoría separados que permiten a los administradores de red monitorear el uso de los recursos de red.

Un software de auditoría gratis y fácil de instalar es LSAT (Herramienta de Auditoría de Seguridad de Linux). LSAT es un auditor de seguridad post-instalación para sistemas Linux y UNIX. Verifica muchas configuraciones del sistema y configuraciones de red locales en el sistema para errores de seguridad y configuración y para paquetes que no son necesarios. LSAT es estrictamente una herramienta de auditoría, y no mejora la seguridad en el servidor en sí. LSAT tan sólo informará acerca de posibles defectos de seguridad en la configuración del sistema. LSAT puede descargarse gratis e instalarse de manera bastante fácil. Los siguientes pasos describen cómo instalar y configurar LSAT.

1. Descargue y descomprima el archivo tar del directorio /usr/local/bin.

Page 446: Documento de Apoyo No. 4 Cisco It Essentials II

446

2. Ejecute el siguiente comando para compilar el programa.

cd lsat-[versión] ./configure Make

14.3 Implementación de Medidas de Seguridad

14.3.2 Sistemas de Detección de Intrusiones

Un Sistema de Detección de Intrusiones (IDS) es hardware o software que es responsable de detectar datos inapropiados, insospechados, u otros que pueden considerarse no autorizados y que están apareciendo en una red. Un IDS inspecciona toda la actividad de la red e identifica patrones sospechosos que pueden indicar un ataque de alguien que intenta irrumpir en o comprometer un sistema. Un IDS es diferente a un firewall. Un firewall limita el acceso entre redes para evitar la intrusión, pero no señala un ataque o aparición no autorizada con origen dentro de la red. Un IDS evalúa una intrusión sospechada una vez que ha tenido lugar y emite una alarma. Un firewall se configura para permitir o denegar el acceso a un servicio o host en particular basándose en un conjunto de reglas en la frontera de la red. Con un firewall, si el tráfico coincide con un patrón aceptable, se permite independientemente de lo que contenga el paquete. Sin embargo, un IDS captura e inspecciona todo el tráfico, independientemente de si es permitido o no. Basándose en el contenido de los paquetes, a nivel IP o de la aplicación, se generaría una alerta si la aparición es permitida en la red.

Snort Snort es un IDS de red en tiempo real basado en software que puede usarse para notificar a un administrador de un intento de intrusión. En el pasado, los dispositivos IDS eran productos comerciales de uso dedicado, o no en tiempo real y difíciles de instalar. Snort es un IDS alternativo de gran utilidad para monitorear pequeñas redes TCP/IP donde no es eficaz en materia de costos implementar un dispositivo comercial dedicado.

El servidor IDS puede ubicarse fuera del firewall de una organización entre el firewall y la red externa, o no confiable. Esto permite que snort detecte no sólo los ataques que pueden atravesar el firewall, sino también aquéllos bloqueados por el firewall. La presencia de switches, routers y firewalls tendrán todos un efecto en la ubicación correcta del servidor. Debe tomarse una decisión en cuanto a qué segmento de la red capturará el tráfico que realmente se desea monitorear. La ubicación del IDS del lado local del firewall permitirá al IDS monitorear el tráfico que el firewall ya ha determinado como permisible, pero no necesariamente inofensivo. Esto, por supuesto, no capturará el tráfico que el firewall ya ha bloqueado, potencialmente escaneos de puerto falsos, sondeos y otros tipos de ataque.

Snort puede instalarse en un servidor con una interfaz de red única o dual. En una instalación de interfaz única la interfaz que escucha el tráfico de red es la misma desde la cual se lleva a cabo la administración, como muestra la Figura . Ésta es una configuración ideal para usuarios de redes hogareñas y administradores que monitorean redes internas. En una configuración de interfaz dual, una interfaz se usa para escuchar el tráfico de red mientras que la otra se usa para administración remota, como lo muestra la Figura . Este tipo de configuración se usa en entornos donde no es posible administrar la casilla desde la misma interfaz que está escuchando el tráfico de red. En esta configuración, la interfaz externa deberá estar bien protegida y la casilla diseñada explícitamente con este propósito. La casilla no deberá ofrecer ningún servicio de red excepto ssh en la interfaz interna solamente.

Page 447: Documento de Apoyo No. 4 Cisco It Essentials II

447

Para instalar Snort, descargue los paquetes RPM de un vínculo web ubicado más abajo. Una vez instalado snort, descargue el último archivo de reglas. Los archivos de reglas pueden descargarse desde la página web de Snort localizada en el vínculo web más abajo. Antes de que snort pueda iniciarse, deben definirse algunas variables. También incluido en el RPM de snort hay un archivo llamado rules.base, que es un archivo corto que contiene unas pocas variables que definen las redes internas y externas, hosts de los que snort deberá ignorar escaneos de puerto, y qué redes snort deberá observar en busca de escaneos de puerto. En el archivo rules.base , será necesario introducir la información para las redes INTERNA y EXTERNA y los servidores DNS desde los cuales disparar la detección de escaneos de puerto.

Page 448: Documento de Apoyo No. 4 Cisco It Essentials II

448

PortSentry PortSentry es un detector de escaneos de puerto que puede configurarse para vincular a puertos que desea monitorear. El método más fácil para instalar PortSentry es descargar e instalar el RPM del Vínculo de Seguridad Linux ubicado más abajo. La configuración de PortSentry consiste en editar el archivo portsentry.conf en el cual se introducen los números de puerto que desea que monitoree PortSentry.

Es altamente recomendable usar Snort en lugar de un detector de escaneos de puerto como PortSentry que se vincula a puertos. Por muchas razones es una mala idea usar PortSentry porque publica servicios (usualmente aquéllos que se conocen como vulnerables, que es la razón por la que PortSentry se vincula a ellos en primer término) que no están ahí, publicando su servidor a intrusos. Esto lo obliga a usar las contramedidas de PortSentry. Las contramedidas de PortSentry incluyen enrutar el escáner de puertos a un agujero negro o usando una regla de firewall para bloquear al atacante.

En una máquina no Linux PortSentry no verá escaneos de puerto dirigidos a puertos con servicios ya en funcionamiento. La razón para ello es que cuando un servicio ya está vinculado a ese puerto, PortSentry no puede vincularse también a él. Esto significa que si un atacante escanea un sitio específico en lugar de un escaneo de amplio espectro, PortSentry no sabrá nada sobre ello. Esta clase de escaneo es más común y usualmente más peligrosa. Un atacante podría tener los sitios raíz Bind y Wu-ftpd, y tener un script sólo a estos 2 puertos a lo largo de una subred e intentar explotarlos. En cualquier máquina que ejecuta versiones vulnerables de uno o dos de estos servicios se estará dejándolos desprotegidos y PortSentry continuará diciendo que todo está bien.

PortSentry sería adecuado para el usuario hogareño pero no se lo recomienda como IDS para una gran red corporativa. Hay varias razones para ello incluyendo el hecho de que PortSentry publica puertos comúnmente explotados que no están ahí, alentando así a los hackers a intentar hackearlo, el bloquear IPs dinámicamente, y su pobre desempeño contra ataques furtivos.

Page 449: Documento de Apoyo No. 4 Cisco It Essentials II

449

14.3 Implementación de Medidas de Seguridad

14.3.3 Seguridad IP

El cifrado de archivos protege los datos almacenados en un disco. No obstante, el cifrado de archivos no ofrece seguridad para los datos que se envían por la red. El protocolo Seguridad IP (IPSec) fue desarrollado para remediar esta desventaja. IPSec asegura los datos a nivel del paquete. Puesto que IPSec trabaja en la capa de red del modelo de referencia de Interconexión de Sistemas Abiertos (OSI), las aplicaciones no están al tanto de él. Cisco Systems incluye soporte para IPSec en sus routers. Windows 2000 incluye IPSec en su pila TCP/IP. Encabezado de Autenticación (AH) y Encapsulamiento de la Carga de Seguridad (ESP) son dos protocolos usados por IPSec. El Encabezado de Autenticación (AH) habilita la verificación de la identidad del emisor. Encapsulamiento de la Carga de Seguridad (ESP) asegura la confidencialidad de los datos en sí. Estos dos protocolos pueden usarse separadamente o juntos. IPSec puede operar en modo de transporte o en modo túnel como lo muestra la Figura . No obstante, los encabezados de los paquetes diferirán. El modo de transporte proporciona una seguridad de extremo a extremo. Esto significa que el cifrado está en su lugar desde la computadora de origen a la computadora de destino. El modo túnel protege los datos desde el punto de salida de una red al punto de entrada de otra.

14.3 Implementación de Medidas de Seguridad

14.3.4 Secure Sockets Layer (SSL)

Secure Sockets Layer (SSL) es otra forma de asegurar las comunicaciones en la red. La desventaja de SSL es que puesto que opera en la capa de aplicación, debe ser soportada por la aplicación del usuario. La Figura explica cómo funciona SSL.

Page 450: Documento de Apoyo No. 4 Cisco It Essentials II

450

SSL fue desarrollado por Netscape para proporcionar seguridad para su navegador web. Usa cifrado de clave pública y privada. El cifrado de clave pública y privada se trata en una sección posterior.

14.3 Implementación de Medidas de Seguridad

14.3.5 Seguridad en e-mails

Muchos usuarios de computadoras tienen un falso sentido de seguridad respecto a las comunicaciones de red en general. Los mensajes de e-mail son un problema particular en este caso. Los usuarios suponen que sólo el recipiente de un e-mail puede leer el mensaje. Los usuarios de e-mail se comportan como si tuvieran la misma expectativa de privacidad al enviar un e-mail que la que tienen al enviar una carta mediante el sistema postal. Una expectativa más precisa supondría que el e-mail es como una postal que puede ser leída por cualquiera que la manipula durante su viaje de emisor a destinatario.

Los mensajes d e-mail son muy fáciles de interceptar como lo muestra la Figura . A menudo viajan a través de docenas de nodos o servidores en su ruta de emisor a destinatario. Cuando un mensaje se envía a alguien dentro de la red local, una copia del mensaje se almacena en al menos tres máquinas. Estas máquinas incluyen la computadora del emisor, la computadora del destinatario, y el servidor de correo interno. El e-mail enviado por Internet puede atravesar varios servidores también. A menos que esté cifrado o firmado digitalmente, el mensaje puede ser fácilmente leído, copiado o alterado en cualquier punto del camino.

Page 451: Documento de Apoyo No. 4 Cisco It Essentials II

451

14.3 Implementación de Medidas de Seguridad

14.3.6 Cifrado de clave pública/privada

Aunque a menudo se lo denomina cifrado de clave pública, el término más preciso es cifrado de clave pública/privada. Esto se debe a que este tipo de cifrado usa dos claves. Una clave es publicada y es ampliamente disponible. La otra clave es privada y conocida sólo por el usuario. Ambas claves se requieren para completar la comunicación segura. Este tipo de cifrado, como lo ilustra la Figura , también se denomina cifrado asimétrico. En este tipo de cifrado, cada usuario tiene tanto una clave pública como una privada, llamadas par de claves. El siguiente ejemplo trata el uso del cifrado público/privado. Carol y Ted intercambian sus claves públicas. No importa que sea de manera insegura, porque los mensajes no pueden descifrarse con sólo la clave pública. Carol desea enviar un mensaje a Ted, por lo tanto cifra el mensaje usando la clave pública de Ted. Una clave pública está asociada sólo con una única clave privada. Para descifrar un mensaje que se cifró usando una clave pública, se requiere la clave privada asociada a ella. Lo inverso también se aplica. Para descifrar un mensaje que se cifró usando una clave privada, se requiere la clave pública asociada a ella.

Page 452: Documento de Apoyo No. 4 Cisco It Essentials II

452

Ted, usando su clave privada, puede descifrar el mensaje ya que fue cifrado usando su clave pública. Note que solamente las claves de Ted, pública y privada, se usaron en este proceso de cifrado. Si Carol hubiera cifrado el mensaje usando su clave privada, cualquiera podría descifrar el mensaje usando su clave pública, que está disponible para todo el mundo. Ambas claves del mismo par de claves deben usarse para que este cifrado funcione, y no hay necesidad de que nadie sepa la clave privada de nadie. Una buena forma de comprender este tipo de cifrado es pensar en las dos piezas de información requeridas para entrar a una casa protegida por una cerradura de combinación digital. Si alguien desea entrar a la casa, deben conocerse tanto la dirección de la calle como la secuencia de números para introducirlas en el dispositivo de cerradura. La dirección es información pública que se publica en la guía telefónica. Está disponible para cualquiera, así como la clave de cifrado pública del usuario está disponible para cualquiera. La combinación de la cerradura es análoga a la clave privada del usuario. Solamente el dueño de casa la conoce. Ambas claves son únicas para esa casa en particular, pero una es conocida públicamente mientras que la otra se mantiene en secreto.

14.4 Aplicación de Patches y Actualizaciones

14.4.1 Búsqueda de patches y actualizaciones

Verifique con el sitio web del fabricante para buscar los últimos patches de seguridad y otras actualizaciones. Haga esta verificación como parte de un mantenimiento de rutina. Los patches son arreglos para código de software existente. Un fabricante de NOS en general proporciona patches de seguridad. Estos patches están disponibles una vez que las vulnerabilidades o incluso vulnerabilidades potenciales se descubren y arreglan. Dependiendo del desarrollador del software, los patches pueden llamarse "actualizaciones". El término actualización es un término vago que puede usarse para describir un arreglo de seguridad, o una actualización completa de una aplicación. Microsoft ahora incluye la opción de usar software llamado Windows Update con sus sistemas operativos. Esto también incluye a Windows 2000 Server como lo muestra la Figura . Windows Update verifica periódicamente patches de software y actualizaciones contactándose con Microsoft a través de Internet. Cuando se encuentran actualizaciones de software disponibles, Windows Update puede alertar al usuario. Windows Update también puede configurarse para descargar e instalar automáticamente el nuevo software. La instalación automática tiene sentido para la mayoría de los usuarios hogareños. No obstante, los administradores de sistemas por lo común prefieren llevar a cabo todas las instalaciones manualmente.

Page 453: Documento de Apoyo No. 4 Cisco It Essentials II

453

Los fabricantes de NOS pueden ofrecer actualizaciones parciales o completas del sistema operativo. A diferencia de los patches de seguridad, las actualizaciones pueden cambiar significativamente la forma en que un OS maneja una tarea en particular. Por ejemplo, una actualización puede incluir un navegador web enteramente nuevo. 14.4 Aplicación de Patches y Actualizaciones

14.4.2 Selección de patches y actualizaciones

Los fabricantes de software recomiendan instalar patches de seguridad para el software inmediatamente. Esto se hace para reducir la exposición a vulnerabilidades conocidas. Los fabricantes de software lanzan actualizaciones de seguridad tan pronto como están disponibles. Periódicamente, los fabricantes de software recolectarán un grupo de actualizaciones de seguridad y las empaquetarán en una actualización más grande. Microsoft llama a estas colecciones de arreglos de bug y actualizaciones de seguridad Service Packs. La mayoría de las actualizaciones y patches de seguridad deberán instalarse. No obstante, podría haber circunstancias donde la actualización no está garantizada. Comprender el efecto en el sistema ayudará a determinar si una actualización, arreglo o patch es necesario. Tenga precaución antes de instalar un patch de software en un servidor de producción. Un patch o actualización del fabricante de software puede estar escrito específicamente para arreglar un problema de seguridad. El patch muy probablemente no afectará adversamente al sistema de producción. No obstante, los fabricantes de software colocan arreglos a la seguridad y a bugs junto con las actualizaciones de software importantes. Las actualizaciones de software importantes no deberán instalarse en un servidor de producción sin probar los resultados primero. Como regla, el nuevo software deberá cargarse en un servidor de prueba y verificar si no hay problemas de compatibilidad. En el caso de actualizaciones de seguridad de pequeño tamaño y muy enfocadas, probar no es esencial, pero se lo recomienda. Revisiones o actualizaciones importantes de software siempre deberán probarse para evitar tiempo de inactividad de la red. Esto se hace en caso de un problema de compatibilidad.

Page 454: Documento de Apoyo No. 4 Cisco It Essentials II

454

14.4 Aplicación de Patches y Actualizaciones

14.4.3 Aplicación de patches y actualizaciones

Periódicamente, los fabricantes de NOS emiten actualizaciones de sus sistemas operativos de red. Los sitios web que proporcionan información acerca de actualizaciones y patches se enumeran en la Figura . Estas actualizaciones usualmente arreglan bugs o cierran agujeros en la seguridad que han sido encontrados en la versión lanzada del OS. Descarga las actualizaciones desde el sitio web del fabricante del sistema operativo de red. Para instalar la actualización, siga las instrucciones del fabricante del sistema operativo de red. Antes de instalar la actualización, asegúrese de haber realizado una copia de respaldo completa. Esto es vital incluso si la actualización ha sido probada en otro sistema. Tenga en cuenta que algunas aplicaciones de red tales como, Microsoft Exchange Server o un servidor de e-mail, requieren la instalación de un nivel específico de service pack. Identifique el nivel de service pack antes de instalar la aplicación de red. Tal actualización se requiere para que la aplicación de red opere correctamente. Es importante mantener un registro de los patches y actualizaciones instalados en el sistema. Mantenga un libro de registros para cada servidor NOS y registre cualquier cambio en la configuración del sistema. Esto incluye la instalación de patches de seguridad y service packs.

14.5 Firewalls

14.5.1 Introducción a los firewalls y proxies

La defensa clave contra atacantes de Internet es un firewall de Internet. Un firewall es software, hardware especializados, o una combinación de los dos. El propósito de un firewall de Internet es evitar que paquetes IP no deseados o maliciosos lleguen a una red segura.

Durante la pasada década, la tecnología de firewall ha evolucionado significativamente. Los primeros firewalls filtraban los paquetes basándose en la información de direccionamiento. Estos firewalls estaban construidos y eran mantenidos por grandes organizaciones. Los OSs de escritorio de hoy como Windows XP, incluyen capacidades de firewall incorporadas dirigidas hacia el usuario hogareño promedio. La creciente cantidad de explotaciones de hackers y gusanos de Internet hacen a la tecnología de firewall un aspecto esencial de cualquier red empresarial. El término firewall se usa libremente para referirse a varios enfoques diferentes para proteger redes, como se describe en las siguientes secciones.

Filtros de Paquetes En general, un firewall de Internet es un host que se ejecuta en software de filtrado de paquetes IP. La mayoría de las LANs ejecutan filtros de paquetes IP en un router o host especializado. Un host especializado que también lleve a cabo enrutamiento. Los usuarios hogareños pueden ejecutar filtrado de paquetes IP en un sistema final, como una PC Windows.

Listas de Control de Acceso (ACLs) Los filtros de paquetes son llamados en ocasiones listas de control de acceso (ACLs). Un filtro de

Page 455: Documento de Apoyo No. 4 Cisco It Essentials II

455

paquetes comienza con una lista de reglas. Las reglas le indican al router o host cómo manipular paquetes que cumplan con los criterios especificados. Por ejemplo, un paquete que coincida con una dirección de origen en particular puede descartarse, enviarse o procesarse de alguna manera especial. Existen varios aspectos de los criterios coincidentes comunes:

· Dirección IP, origen y destino · Número de puerto TCP/UDP (Protocolo de Datagramas del Usuario), origen y destino · Protocolo de capa superior, HTTP, FTP, etcétera

Un host configurado con un filtro de paquetes IP verifica los paquetes que entran o salen de una interfaz o interfaces especificadas. Basándose en las reglas definidas, el host puede descartar un paquete o aceptarlo. Este enfoque también se refiere al envío basado en reglas. Usando este enfoque, los administradores pueden configurar los routers para que descarten paquetes no deseados o potencialmente dañinos. Los administradores configuran los routers antes de que los paquetes lleguen a la LAN segura.

Servicios Proxy En networking, un proxy es software que interactúa con redes externas para beneficio de un host cliente. La Figura ilustra el servidor proxy que responde a estaciones de trabajo. La Figura ilustra un servidor proxy con servidores web internos. Por lo común, los hosts cliente de una LAN segura solicitan una página web de un servidor que ejecuta servicios proxy. El servidor proxy después sale a Internet para conseguir la página web. La página web se copia entonces al servidor proxy. Este proceso se denomina caching. Finalmente, el servidor proxy transmite la página web al cliente. Usando los servicios de un proxy, el cliente nunca interactúa directamente con hosts externos. Esto protege a los clientes de amenazas potenciales provenientes de Internet. Los administradores pueden configurar servidores proxy para rechazar ciertas solicitudes del cliente o respuestas externas de Internet. Por ejemplo, las escuelas pueden usar servidores proxy para controlar a qué sitios web puede accederse. Puesto que todas las solicitudes web van dirigidas al proxy, los administradores tienen un estrecho control sobre qué solicitudes se cumplen. Microsoft tiene un servicio de proxy abarcativo para su NOS, llamado Microsoft Proxy Server 2.0.

Page 456: Documento de Apoyo No. 4 Cisco It Essentials II

456

Los servidores proxy trabajan para aislar las LANs y proteger los hosts de amenazas externas. La capacidad de servidor proxy para guardar páginas web en su caché es importante. El beneficio es el uso de un servicio proxy para HTTP. Varios clientes pueden acceder al contenido HTTP con un tiempo de respuesta significativamente mejorado. Responsable de esto es el almacenar en la caché el contenido HTTP al que se accede frecuentemente.

Traducción de Direcciones de Red (NAT) La Traducción de Direcciones de Red (NAT) es un proceso que se ejecuta en un router. Por lo común, un router actúa como gateway a Internet. Un router que ejecuta NAT reescribe la información de direccionamiento contenida en los paquetes IP. Los administradores usan NAT para alterar la dirección de origen de paquetes que se originan en una LAN segura. Esto permite direccionar las LANs seguras usando direcciones IP privadas como muestra la Figura .

Las direcciones IP privadas no se enrutan a Internet. Un hacker externo no puede alcanzar directamente una computadora con una dirección privada. Por supuesto, los hosts con direcciones IP privadas no pueden tampoco llegar directamente a los hosts de Internet. No obstante, un router NAT puede llevar un paquete que se origina en un host con una dirección privada. El router NAT luego reemplaza la dirección IP del paquete por una dirección pública, globalmente enrutable. El router NAT registra esta traducción de direcciones en una tabla. Una vez reescrita la información de direccionamiento, el router NAT envía el paquete hacia el host de destino. Cuando el destino externo responde, el paquete de respuesta es enrutado nuevamente al router NAT. El router NAT

Page 457: Documento de Apoyo No. 4 Cisco It Essentials II

457

luego consulta la tabla de traducción. Basándose en las entradas de la tabla, el router NAT reescribe la información de direccionamiento. Una vez que la dirección es reescrita, el paquete puede enrutarse nuevamente al host original, direccionado privadamente.

NAT a menudo se implementa en conjunción con servicios proxy y/o filtros de paquetes IP. También se está convirtiendo en una tecnología importante en hogares y pequeñas oficinas. Esto se debe a que NAT permite que cientos de computadoras "tomen prestada" una única dirección IP pública y globalmente enrutable. Este proceso se denomina a veces NAT "de muchos a uno", sobrecarga de direcciones, o traducción de direcciones de puerto (PAT). Sistemas operativos de escritorio populares incluyen servicios NAT incorporados tales como, Microsoft Windows Internet Connection Sharing. Los servicios NAT también se incluyen en los NOSs. Linux usa el programa ipchains para llevar a cabo NAT. Otros programas NAT son ip masquerade y natd.

Algunos expertos hacen una distinción entre NAT y un firewall. Otros consideran a NAT como parte de una solución de firewall abarcativa. Independientemente de ello, una NAT puede tener el efecto de proteger la red de un ataque. Esto se debe a que los extraños pueden no ser capaces de enviar paquetes directamente a blancos internos, o usar técnicas de escaneo para mapear la red interna. 14.5 Firewalls

14.5.2 Filtrado de paquetes

La solución de firewall más básica es un filtro de paquetes IP. Para configurar un filtro de paquetes, un administrador de red debe definir las reglas que describan cómo manipular los paquetes especificados. Un ejemplo de un conjunto de reglas, o lista de acceso, se muestra en la Figura .

En un principio se filtraban los paquetes basándose en la información de direccionamiento contenida en el encabezado del paquete. Es decir, la dirección IP de origen y destino. En el momento el encabezado del paquete IP operaba en la capa 3 del modelo OSI. Al mismo tiempo, los filtros de paquetes funcionaban solamente en la capa 3. Posteriormente, los filtros de paquetes estuvieron diseñados para basar sus decisiones en la información contenida en el encabezado TCP o UDP, en la capa 4. Tanto TCP como UDP usan números de puerto para direccionar aplicaciones específicas que se ejecutan en un host. Las listas de acceso de capa 4 pueden configurarse para permitir o denegar paquetes. Esta configuración se basa en puertos de origen o destino así como en información de la dirección IP. Por ejemplo, una lista de acceso de capa 4 puede configurarse para permitir tráfico destinado a una IP específica del puerto 80. Éste es un puerto bien conocido que los servidores de web escuchan.

El firewall también puede configurarse para examinar los bits de código TCP. Los seis bits de código TCP se usan para establecer conexiones entre hosts usando un handshake de tres vías. Un firewall de capa 4 puede identificar si un paquete es la primera parte de un handshake de tres vías o parte de una conexión ya establecida. En otras palabras, el firewall puede mantener afuera el tráfico no invitado, a la vez que permite entrar al tráfico invitado. Esta técnica solamente funciona con TCP, porque el firewall está examinando los bits de código TCP.

Page 458: Documento de Apoyo No. 4 Cisco It Essentials II

458

Un firewall tiene que ser inteligente. El firewall debe poder mantener afuera el tráfico UDP no invitado a la vez que permite entrar al tráfico UDP invitado. Además, puede usarse un IP sin TCP y UDP en la capa 4. Por ejemplo, un ping ICMP no usa un encabezado de capa 4. No hay forma de determinar si un datagrama es parte de una conexión establecida. Esto se debe a que IP y UDP son ambos sin conexión. No hay conexión establecidas con estos protocolos. Como recordatorio, un datagrama es un paquete IP sin encabezado TCP.

El software de firewall debe suponer qué tráfico sin conexión es invitado y qué tráfico sin conexión no lo es. Los firewalls inteligentes lo hacen monitoreando qué tipo de tráfico sin conexión se origina en la LAN segura. Los puertos UDP de origen y destino se anotan y almacenan en una tabla. Las direcciones IP de origen y destino también se anotan y almacenan en un tabla. Un firewall puede detectar tráfico sin conexión que parece ser invitado. Cuando se hace esta detección los puertos UDP y las direcciones IP coinciden con un flujo de tráfico recientemente detectado proveniente de un host interno. El firewall entonces deja pasar el tráfico. Este tipo de filtrado de paquetes se llama filtrado de paquetes stateful. Se llama así porque el firewall mantiene un rastreo de estado [state] de las conversaciones, pero sólo durante un corto periodo. Ese periodo puede a veces ser de unos pocos segundos. Esos firewalls son dinámicos. Las reglas que se usan para determinar qué paquetes se permiten en una red varían. Se basan en los flujos de tráfico que se originan en los hosts internos.

La forma más abarcativa de filtrado de paquetes examina no sólo los encabezados de capa 3 y 4, sino también los datos de aplicación de capa 7. Los firewalls de capa 7 buscan patrones en el payload del paquete. Esto se hace en un esfuerzo por determinar qué aplicación se está usando, como HTTP, FTP, etcétera. El filtrado de paquetes stateful de capa 7 tiene muchas ventajas. Esto incluye la capacidad de filtrar una aplicación en particular independientemente del número de puerto TCP o UDP utilizado. No obstante, este tipo de filtrado de paquetes solamente funciona con software preprogramado para reconocer una aplicación determinada. Además, este tipo de filtrado de paquetes agrega una significativa cantidad de retraso y sobrecarga al proceso de enrutamiento. 14.5 Firewalls

14.5.3 Ubicación del firewall

Saber dónde implementar un firewall de Internet es tan importante como saber cómo configurar las reglas de filtrado de paquetes. La Figura muestra la ubicación clásica del firewall. Un router fronterizo conecta la LAN empresarial a su ISP o Internet. La interfaz LAN del router fronterizo conduce a una red diseñada para el acceso público. Esta red contiene servidores NOS que proporcionan la World Wide Web, e-mail y otros servicios a la Internet pública. Esta red pública se conoce a veces como "LAN sucia" o "LAN de sacrificio". La red pública se denomina en estos términos porque las solicitudes públicas se permiten en la red. También se la denomina comúnmente como la Zona Desmilitarizada (DMZ). La DMZ actúa como área de buffer. El router fronterizo deberá incluir un filtro IP que proteja contra vulnerabilidades obvias. Por ejemplo, el protocolo de administración, SNMP, no deberá permitirse en la red desde el exterior. Los servidores NOS de la DMZ deberán estar configurados estrictamente. El router fronterizo deberá permitir sólo tipos específicos de tráficos a estos servidores. En la Figura , el router fronterizo deberá permitir solamente tráfico HTTP, FTP, correo y relacionado con DNS.

Page 459: Documento de Apoyo No. 4 Cisco It Essentials II

459

Una solución de firewall dedicada, como Cisco Private Internet eXchange (PIX), conecta la DMZ a la LAN protegida. Este dispositivo lleva a cabo filtrado IP adicional, filtrado stateful, servicios proxy, NAT, o una combinación de estas funciones. La DMZ está diseñada para mantener limpia la red interna. El ejemplo mostrado en la Figura presenta una configuración muy simple. Variaciones complejas de los principios aquí tratados son comunes.

14.5 Firewalls

14.5.4 Soluciones de firewall comunes

Existen varias soluciones de firewall comunes que pueden usarse.

Un aparato es un dispositivo autónomo y fácil de configurar. El aparato de firewall más popular es el Cisco PIX. El Cisco PIX incluye NAT y capacidad de filtrado de paquetes stateful en un aparato único. El Firewall PIX es montable en un rack. El modelo elegido determina la cantidad de RAM y memoria flash recibida. La Figura muestra el Firewall PIX 515. Los modelos 515 usan TFTP para descargar la imagen y actualizar. Tiene un diseño de perfil bajo, 128.000 sesiones simultáneas, y un throughput de 170 Mbps. La Figura muestra el Firewall PIX 520. Este modelo usan una disquetera de 3,5 pulgadas para cargar la imagen y actualizar. Tiene un diseño de chásis empresarial, 256.000 sesiones simultáneas, y un throughput de 240 Mbps. El Firewall PIX es seguro desde un principio. Las configuraciones por defecto del Firewall PIX permiten todas las conexiones de la interfaz interior acceder a la interfaz exterior. El Firewall PIX también puede bloquear todas las conexiones de la interfaz exterior a la interfaz interior. El Firewall PIX necesita sólo unos pocos procedimientos de instalación y una configuración inicial de seis comandos generales. El Firewall PIX es ahora operativo y listo para proteger la red. El Cisco PIX también ofrece soporte para IPSec y VPN.

Page 460: Documento de Apoyo No. 4 Cisco It Essentials II

460

La mayoría de los routers pueden configurarse para que filtren paquetes y ejecuten NAT. El Cisco IOS Firewall Feature Set proporciona filtrado de paquetes stateful. La Figura muestra un router Cisco 3600 Series que tiene algunas capacidades de firewall.

Otra solución de firewall es un host UNIX. El host UNIX sirve como router, ejecutando software de paquetes como ipfw, y/o NAT. Esta solución tiene una desventaja potencial. Es que el hardware y software involucrados no están necesariamente optimizados para conmutar y filtrar paquetes. Por lo tanto, esta opción puede no ser apta para una empresa que no puede tolerar alta latencia. Los usuarios hogareños tienen una variedad de opciones de firewall disponibles, como ZoneAlarm de Zonelabs, McAfee Firewall, o Norton Firewall de Symantec. Éstos son firewalls de software, que se instalan en la máquina del hogar.

Page 461: Documento de Apoyo No. 4 Cisco It Essentials II

461

14.5 Firewalls

14.5.5 Uso de un NOS como firewall

Los módulos anteriores han explicado cómo firewalls dedicado como los dispositivos Cisco PIX proporcionan una solución de firewall filtrando paquetes, ejecutando NAT, o actuando como servidor proxy. En grandes redes y otros entornos de elevado tráfico, un filtrado de paquetes y solución NAT se recomienda. Los dispositivos dedicados como routers, firewalls, o ambos están diseñados para conmutar paquetes y manipularlos muy rápidamente. Un NOS que se ejecuta en hardware ordinario puede ser capaz de hacer el trabajo en una pequeña red o en un entorno de bajo tráfico. No obstante, no es sin agregar latencia y sobrecarga al servidor.

En entornos de bajo tráfico, como pequeñas oficinas y redes hogareñas, una solución de firewall de NOS es una buena opción. Linux puede usar ipchains e iptables para implementar un servidor dedicado que actúe como gateway entre una red privada e Internet proporcionando así capacidades de firewall. Esta configuración puede usarse para cualquier conexión de Internet ya sea PPP de conexión telefónica, DSL, cable módem o una línea T1. En el caso de la mayoría de las conexiones PPP de conexión telefónica y de las conexiones de cable módem, sólo una única conexión IP se emite permitiendo sólo una computadora conectarse a Internet por vez, a menos que un dispositivo como un router o servidor Linux configurado como router se configure como gateway de Internet. Usando iptables, ipchains, y NAT, Linux puede configurarse como gateway, lo cual permitirá que todas las computadoras de una red privada se conectan a Internet mediante el gateway y un enmascaramiento de direcciones IP externas. Este concepto se introdujo previamente en este capítulo. Las iptables e ipchains de Linux también pueden configurarse de modo tal que el servidor Linux actúe como firewall, proporcionando protección a la red interna. Hoy la mayoría de las distribuciones de Linux usan iptables en lugar de ipchains y los últimos kernels Linux usan iptables.

Hay varias cosas diferentes que se pueden hacer con iptables. Hay tres cadenas incorporadas INPUT, OUTPUT y FORWARD que no pueden borrarse. Algunas operaciones comunes usadas para manejar cadenas enteras figuran en la lista de abajo. Una lista más abarcativa puede visualizarse usando el comando iptables -h. Esto mostrará la página de ayuda de iptables.

1. Crear una nueva cadena (-N). 2. Borrar una cadena vacía (-X). 3. Cambiar la política para una cadena incorporada (-P). 4. Enumerar las reglas de una cadena (-L). 5. Eliminar las reglas de una cadena (-F). 6. Poner en cero los contadores de paquetes y bytes en todas las reglas de una cadena (-Z).

Hay varias formas de manipular las reglas dentro de una cadena:

1. Agregar una nueva regla al final de una cadena (-A). 2. Insertar una nueva regla en alguna posición de una cadena (-I). 3. Reubicar una regla en alguna posición de una cadena (-R). 4. Borrar una regla en alguna posición de la cadena, o la primera que coincida (-D).

Cada regla especifica un conjunto de condiciones que el paquete debe cumplir, y qué hacer si las cumple. Por ejemplo, se desean descartar todos los paquetes ICMP que provienen de la dirección IP 10.0.0.1. Así, en este caso las condiciones son que el protocolo debe ser ICMP y la dirección de origen debe ser 10.0.0.1. Nuestro objetivo es `DROP'. Para implementar esta regla se usaría el siguiente comando donde -A se agrega al final de la cadena INPUT, paquetes de la red 10.0.0.1 (-s 127.0.0.1) con protocolo ICMP (-p icmp), y se desea descartar los paquetes (-j DROP).

# iptables -A INPUT -s 127.0.0.1 -p icmp -j DROP

Page 462: Documento de Apoyo No. 4 Cisco It Essentials II

462

Hay dos formas de borrar una regla. Si se conoce el número de regla, en este ejemplo sería número 1 ya que es la única regla creada, se puede usar un borrado numerado. Para borrar la regla número 1 de la cadena INPUT, use el siguiente comando.

# iptables -D INPUT 1

La segunda forma es emitir el mismo comando que se emitió al crear la regla, no obstante, esta vez reemplazando la opción -A por -D. Esto es útil cuando se tiene una cadena de reglas compleja y no se quiere contarlas para darse cuenta de qué número de regla específico necesita borrar. Para borrar la regla específica sin indicar el número de regla use el siguiente comando:

# iptables -D INPUT -s 127.0.0.1 -p icmp -j DROP

Se recomienda que si está configurando un servidor Linux como firewall para una compañía que el servidor Linux es un sistema dedicado. Esto significa que las únicas responsabilidades del server son ser un firewall. Con la cantidad de tráfico que el servidor tendrá que filtrar, la carga sería demasiada para el servidor si se lo tuviera haciendo mucho más. Otra razón para esto es que por lo común el firewall está configurado como frontera entre Internet y su red interna. No sería muy inteligente, por razones de seguridad, ejecutar servicios como e-mail, DNS, o servidor de archivos en el mismo servidor que está usando como firewall. Típicamente, no verá un servidor siendo usado como firewall. En la mayoría de los casos, firewalls avanzados como los dispositivos Cisco PIX pueden llevar a cabo estas operaciones de filtrado de paquetes así como proporcionar capacidades sólidas de firewall también. Usar un servidor Linux como firewall es una buena idea para pequeñas compañías que no tienen grandes presupuestos y están interesadas en una forma suplementaria de seguridad que no sea sólo un Gateway DSL/Cable.

Resumen

El Microsoft Press Computer and Internet Dictionary define seguridad de red como, "los pasos dados para proteger una computadora y la información que contiene". Algunos de los conceptos importantes a retener de este módulo son los siguientes:

· Un primer paso al crear una política de seguridad para la red de una compañía es definir

Page 463: Documento de Apoyo No. 4 Cisco It Essentials II

463

una política de uso aceptable. Una política de uso aceptable define qué es aceptable y permitido en la red de la compañía.

· Las políticas relativas a contraseñas deberían aplicarse estrictamente. Incluyen un fecha de expiración específica, reglas de exclusión, y el uso de combinaciones de letras y números. Las contraseñas jamás deberán dejarse donde puedan ser halladas y usadas.

· Las amenazas a la seguridad provenientes de Internet incluyen a los hackers, crackers, virus y gusanos. Aunque un hacker puede ocasionar daño, un cracker irrumpe en un sistema para hacer un daño específico o robar. Un virus y un gusano pueden ambos hacer un daño considerable. No obstante, el gusano no se adjunta a los archivos sino a la memoria activa y es auto-replicante.

· Políticas de seguridad bien definidas ayudan a minimizar amenazas desde el interior. Es probable que los empleados y usuarios en quienes se confía tengan información crítica acerca de la red, incluyendo contraseñas, y pueden facilitar el espionaje corporativo.

· Los administradores de sistemas deben vigilar contra el robo de datos, la destrucción de datos, y los ataques de denegación del servicio. Los ataques de Denegación del Servicio Distribuida (DDoS) se originan en varios hosts y puede ser extremadamente difícil defenderse contra ellos.

· Para mantener actualizado el NOS, patches y actualizaciones de seguridad de software deben aplicarse cuando estén disponibles.

· Los firewalls de Internet son la defensa más importante contra amenazas de seguridad externas. Una solución de firewall de Internet puede consistir en varios componentes, incluyendo el filtrado de paquetes IP, servicios proxy, y NAT.