31
nfs(5) - Linux man page Name nfs - nfs and nfs4 fstab format and options Synopsis /etc/fstab Description The fstab file contains information about which filesystems to mount where and with what options. For NFS mounts, it contains the server name and exported server directory to mount from, the local directory that is the mount point, and the NFS specific options that control the way the filesystem is mounted. Three different versions of the NFS protocol are supported by the Linux NFS client: NFS version 2, NFS version 3, and NFS version 4. To mount via NFS version 2, use the nfs file system type and specify nfsvers=2 . To mount via NFS version 3, use the nfs file system type and specify nfsvers=3 . Version 3 is the default protocol version for the nfs file system type when nfsvers= is not specified on the mount command. To mount via NFS version 4, use the nfs4 file system type. The nfsvers= keyword is not supported for the nfs4 file system type. These file system types share similar mount options; the differences are listed below. Here is an example from an /etc/fstab file for an NFSv2 mount over UDP. server:/usr/local/pub /pub nfs rsize=32768,wsize=32768,timeo=14,intr Here is an example for an NFSv4 mount over TCP using Kerberos 5 mutual authentication. server:/usr/local/pub /pub nfs4 proto=tcp,sec=krb5,hard,intr Options for the nfs file system type rsize=n The number of bytes NFS uses when reading files from an NFS server. The rsize is negotiated between the server and client to determine the largest block size that both can support. The value specified by this option is the maximum size that could be used; however, the actual size used may be smaller. Note: Setting this size to a value less than the largest supported block size will adversely affect performance. wsize=n

nfs

Embed Size (px)

DESCRIPTION

nfs

Citation preview

nfs(5) - Linux man pageNamenfs - nfs and nfs4 fstab format and options Synopsis/etc/fstab DescriptionThe fstab file contains information about which filesystems to mount where and with what options. For NFS mounts, it contains the server name and exported server directory to mount from, the local directory that is the mount point, and the NFS specific options that control the way the filesystem is mounted. Three different versions of the NFS protocol are supported by the Linux NFS client: NFS version 2, NFS version 3, and NFS version 4. To mount via NFS version 2, use the nfs file system type and specify nfsvers=2. To mount via NFS version 3, use the nfs file system type and specify nfsvers=3. Version 3 is the default protocol version for the nfs file system type when nfsvers= is not specified on the mount command. To mount via NFS version 4, use the nfs4 file system type. The nfsvers= keyword is not supported for the nfs4 file system type. These file system types share similar mount options; the differences are listed below. Here is an example from an /etc/fstab file for an NFSv2 mount over UDP. server:/usr/local/pub /pub nfs rsize=32768,wsize=32768,timeo=14,intr Here is an example for an NFSv4 mount over TCP using Kerberos 5 mutual authentication. server:/usr/local/pub /pub nfs4 proto=tcp,sec=krb5,hard,intr Options for the nfs file system type rsize=n The number of bytes NFS uses when reading files from an NFS server. The rsize is negotiated between the server and client to determine the largest block size that both can support. The value specified by this option is the maximum size that could be used; however, the actual size used may be smaller. Note: Setting this size to a value less than the largest supported block size will adversely affect performance. wsize=n The number of bytes NFS uses when writing files to an NFS server. The wsize is negotiated between the server and client to determine the largest block size that both can support. The value specified by this option is the maximum size that could be used; however, the actual size used may be smaller. Note: Setting this size to a value less than the largest supported block size will adversely affect performance. timeo=n The value in tenths of a second before sending the first retransmission after an RPC timeout. The default value is 7 tenths of a second. After the first timeout, the timeout is doubled after each successive timeout until a maximum timeout of 60 seconds is reached or the enough retransmissions have occured to cause a major timeout. Then, if the filesystem is hard mounted, each new timeout cascade restarts at twice the initial value of the previous cascade, again doubling at each retransmission. The maximum timeout is always 60 seconds. Better overall performance may be achieved by increasing the timeout when mounting on a busy network, to a slow server, or through several routers or gateways. retrans=n The number of minor timeouts and retransmissions that must occur before a major timeout occurs. The default is 3 timeouts. When a major timeout occurs, the file operation is either aborted or a "server not responding" message is printed on the console. acregmin=n The minimum time in seconds that attributes of a regular file should be cached before requesting fresh information from a server. The default is 3 seconds. acregmax=n The maximum time in seconds that attributes of a regular file can be cached before requesting fresh information from a server. The default is 60 seconds. acdirmin=n The minimum time in seconds that attributes of a directory should be cached before requesting fresh information from a server. The default is 30 seconds. acdirmax=n The maximum time in seconds that attributes of a directory can be cached before requesting fresh information from a server. The default is 60 seconds. actimeo=n Using actimeo sets all of acregmin, acregmax, acdirmin, and acdirmax to the same value. There is no default value. retry=n The number of minutes to retry an NFS mount operation in the foreground or background before giving up. The default value for forground mounts is 2 minutes. The default value for background mounts is 10000 minutes, which is roughly one week. namlen=n When an NFS server does not support version two of the RPC mount protocol, this option can be used to specify the maximum length of a filename that is supported on the remote filesystem. This is used to support the POSIX pathconf functions. The default is 255 characters. port=n The numeric value of the port to connect to the NFS server on. If the port number is 0 (the default) then query the remote host's portmapper for the port number to use. If the remote host's NFS daemon is not registered with its portmapper, the standard NFS port number 2049 is used instead. proto=n Mount the NFS filesystem using a specific network protocol instead of the default TCP protocol. Valid protocol types are udp and tcp. mountport=n The numeric value of the mountd port. mounthost=name The name of the host running mountd . mountprog=n Use an alternate RPC program number to contact the mount daemon on the remote host. This option is useful for hosts that can run multiple NFS servers. The default value is 100005 which is the standard RPC mount daemon program number. mountvers=n Use an alternate RPC version number to contact the mount daemon on the remote host. This option is useful for hosts that can run multiple NFS servers. The default value depends on which kernel you are using. nfsprog=n Use an alternate RPC program number to contact the NFS daemon on the remote host. This option is useful for hosts that can run multiple NFS servers. The default value is 100003 which is the standard RPC NFS daemon program number. nfsvers=n Use an alternate RPC version number to contact the NFS daemon on the remote host. This option is useful for hosts that can run multiple NFS servers. The default value depends on which kernel you are using. vers=n vers is an alternative to nfsvers and is compatible with many other operating systems. nolock Disable NFS locking. Do not start lockd. This has to be used with some old NFS servers that don't support locking. bg If the first NFS mount attempt times out, retry the mount in the background. After a mount operation is backgrounded, all subsequent mounts on the same NFS server will be backgrounded immediately, without first attempting the mount. A missing mount point is treated as a timeout, to allow for nested NFS mounts. fg If the first NFS mount attempt times out, retry the mount in the foreground. This is the complement of the bg option, and also the default behavior. soft If an NFS file operation has a major timeout then report an I/O error to the calling program. The default is to continue retrying NFS file operations indefinitely. hard If an NFS file operation has a major timeout then report "server not responding" on the console and continue retrying indefinitely. This is the default. intr If an NFS file operation has a major timeout and it is hard mounted, then allow signals to interupt the file operation and cause it to return EINTR to the calling program. The default is to not allow file operations to be interrupted. posix Mount the NFS filesystem using POSIX semantics. This allows an NFS filesystem to properly support the POSIX pathconf command by querying the mount server for the maximum length of a filename. To do this, the remote host must support version two of the RPC mount protocol. Many NFS servers support only version one. nocto Suppress the retrieval of new attributes when creating a file. noac Disable all forms of attribute caching entirely. This extracts a significant performance penalty but it allows two different NFS clients to get reasonable results when both clients are actively writing to a common export on the server. noacl Disables Access Control List (ACL) processing. sec=mode Set the security flavor for this mount to "mode". The default setting is sec=sys, which uses local unix uids and gids to authenticate NFS operations (AUTH_SYS). Other currently supported settings are: sec=krb5, which uses Kerberos V5 instead of local unix uids and gids to authenticate users; sec=krb5i, which uses Kerberos V5 for user authentication and performs integrity checking of NFS operations using secure checksums to prevent data tampering; and sec=krb5p, which uses Kerberos V5 for user authentication and integrity checking, and encrypts NFS traffic to prevent traffic sniffing (this is the most secure setting). Note that there is a performance penalty when using integrity or privacy. tcp Mount the NFS filesystem using the TCP protocol. This is the default protocol. udp Mount the NFS filesystem using the UDP protocol instead of the default TCP protocol. nordirplus Disables NFSv3 READDIRPLUS RPCs. Use this options when mounting servers that don't support or have broken READDIRPLUS implementations. nosharecache As of kernel 2.6.18, it is no longer possible to mount the same same filesystem with different mount options to a new mountpoint. It was deemed unsafe to do so, since cached data cannot be shared between the two mountpoints. In consequence, files or directories that were common to both mountpoint subtrees could often be seen to be out of sync following an update. This option allows administrators to select the pre-2.6.18 behaviour, permitting the same filesystem to be mounted with different mount options.Beware: Use of this option is not recommended unless you are certain that there are no hard links or subtrees of this mountpoint that are mounted elsewhere. fsc Enable the use of persistent caching to the local disk using the FS-Cache facility for the given mount point. All of the non-value options have corresponding nooption forms. For example, nointr means don't allow file operations to be interrupted. Options for the nfs4 file system type rsize=n The number of bytes nfs4 uses when reading files from the server. The rsize is negotiated between the server and client to determine the largest block size that both can support. The value specified by this option is the maximum size that could be used; however, the actual size used may be smaller. Note: Setting this size to a value less than the largest supported block size will adversely affect performance. wsize=n The number of bytes nfs4 uses when writing files to the server. The wsize is negotiated between the server and client to determine the largest block size that both can support. The value specified by this option is the maximum size that could be used; however, the actual size used may be smaller. Note: Setting this size to a value less than the largest supported block size will adversely affect performance. timeo=n The value in tenths of a second before sending the first retransmission after an RPC timeout. The default value depends on whether proto=udp or proto=tcp is in effect (see below). The default value for UDP is 7 tenths of a second. The default value for TCP is 60 seconds. After the first timeout, the timeout is doubled after each successive timeout until a maximum timeout of 60 seconds is reached or the enough retransmissions have occured to cause a major timeout. Then, if the filesystem is hard mounted, each new timeout cascade restarts at twice the initial value of the previous cascade, again doubling at each retransmission. The maximum timeout is always 60 seconds. retrans=n The number of minor timeouts and retransmissions that must occur before a major timeout occurs. The default is 5 timeouts for proto=udp and 2 timeouts for proto=tcp. When a major timeout occurs, the file operation is either aborted or a "server not responding" message is printed on the console. acregmin=n The minimum time in seconds that attributes of a regular file should be cached before requesting fresh information from a server. The default is 3 seconds. acregmax=n The maximum time in seconds that attributes of a regular file can be cached before requesting fresh information from a server. The default is 60 seconds. acdirmin=n The minimum time in seconds that attributes of a directory should be cached before requesting fresh information from a server. The default is 30 seconds. acdirmax=n The maximum time in seconds that attributes of a directory can be cached before requesting fresh information from a server. The default is 60 seconds. actimeo=n Using actimeo sets all of acregmin, acregmax, acdirmin, and acdirmax to the same value. There is no default value. retry=n The number of minutes to retry an NFS mount operation in the foreground or background before giving up. The default value for forground mounts is 2 minutes. The default value for background mounts is 10000 minutes, which is roughly one week. port=n The numeric value of the port to connect to the NFS server on. If the port number is 0 (the default) then query the remote host's portmapper for the port number to use. If the remote host's NFS daemon is not registered with its portmapper, the standard NFS port number 2049 is used instead. proto=n Mount the NFS filesystem using a specific network protocol instead of the default TCP protocol. Valid protocol types are udp and tcp. Many NFS version 4 servers only support the TCP protocol. clientaddr=n On a multi-homed client, this causes the client to use a specific callback address when communicating with an NFS version 4 server. This option is currently ignored. sec=mode Same as sec=mode for the nfs filesystem type (see above). bg If an NFS mount attempt times out, retry the mount in the background. After a mount operation is backgrounded, all subsequent mounts on the same NFS server will be backgrounded immediately, without first attempting the mount. A missing mount point is treated as a timeout, to allow for nested NFS mounts. fg If the first NFS mount attempt times out, retry the mount in the foreground. This is the complement of the bg option, and also the default behavior. soft If an NFS file operation has a major timeout then report an I/O error to the calling program. The default is to continue retrying NFS file operations indefinitely. hard If an NFS file operation has a major timeout then report "server not responding" on the console and continue retrying indefinitely. This is the default. intr If an NFS file operation has a major timeout and it is hard mounted, then allow signals to interupt the file operation and cause it to return EINTR to the calling program. The default is to not allow file operations to be interrupted. nocto Suppress the retrieval of new attributes when creating a file. noac Disable attribute caching, and force synchronous writes. This extracts a server performance penalty but it allows two different NFS clients to get reasonable good results when both clients are actively writing to common filesystem on the server. nosharecache As of kernel 2.6.18, it is no longer possible to mount the same same filesystem with different mount options to a new mountpoint. It was deemed unsafe to do so, since cached data cannot be shared between the two mountpoints. In consequence, files or directories that were common to both mountpoint subtrees could often be seen to be out of sync following an update. This option allows administrators to select the pre-2.6.18 behaviour, permitting the same filesystem to be mounted with different mount options.Beware: Use of this option is not recommended unless you are certain that there are no hard links or subtrees of this mountpoint that are mounted elsewhere. fsc Enable the use of persistent caching to the local disk using the FS-Cache facility for the given mount point. All of the non-value options have corresponding nooption forms. For example, nointr means don't allow file operations to be interrupted. Files/etc/fstab See Alsofstab(5), mount(8), umount(8), exports(5) Author"Rick Sladkey" BugsThe posix, and nocto options are parsed by mount but currently are silently ignored. The tcp and namlen options are implemented but are not currently supported by the Linux kernel. The umount command should notify the server when an NFS filesystem is unmounted. Checking files on NFS filesystem referenced by file descriptors (i.e. the fcntl and ioctl families of functions) may lead to inconsistent result due to the lack of consistency check in kernel even if noac is used. Referenced Byclunfsops(8), mount.nfs(8), nfsstat(8), rpcdebug(8), rquotad(8), sfs(7), umount.nfs(8)

Captulo 9. Sistema de archivos de red (NFS)Un Sistema de archivos de red (NFS) permite a los hosts remotos montar sistemas de archivos sobre la red e interactuar con esos sistemas de archivos como si estuvieran montados localmente. Esto permite a los administradores de sistemas consolidar los recursos en servidores centralizados en la red. Este captulo se centra en los conceptos fundamentales de NFS e informacin suplementaria. Para instrucciones especficas con respecto a la configuracin y operacin del software NFS en servidores o clientes, vea el captulo titulado Sistema de archivos de red (NFS) en el Manual de administracin del sistema de Red Hat Enterprise Linux. 9.1. FuncionamientoHay tres versiones de NFS actualmente en uso. La versin 2 de NFS (NFSv2), es la ms antigua y est ampliamente soportada por muchos sistemas operativos. La versin 3 de NFS (NFSv3) tiene ms caractersticas, incluyendo manejo de archivos de tamao variable y mejores facilidades de informes de errores, pero no es completamente compatible con los clientes NFSv2. NFS versin 4 (NFSv4) incluye seguridad Kerberos, trabaja con cortafuegos, permite ACLs y utiliza operaciones con descripcin del estado. Red Hat Enterprise Linux soporta clientes tanto NFSv2, NFSv3 como NFSv4, y cuando monta un sistema de archivos a travs de NFS, Red Hat Enterprise Linux usa NFSv4 por defecto. Todas las versiones de NFS pueden utilizar el Protocolo de control de transmisiones (TCP) ejecutndose sobre una red IP. En el caso de NFSv4, ste lo requiere. NFSv2 y NFSv3 pueden utilizar el Protocolo de datagrama de usuarios (UDP) sobre una red IP para proporcionar conexiones de red sin supervisin (stateless) entre el cliente y el servidor. Cuando se utiliza NFSv2 o NFSv3 con UDP, bajo condiciones normales la conexin UDP desatendida minimiza el trfico de la red, ya que el servidor NFS envia un cookie al cliente despus que este tiene acceso al volumen compartido. Esta cookie es un valor aleatorio guardado en el lado del servidor y es pasado junto con las peticiones RPC desde el cliente. El servidor NFS puede ser reiniciado sin afectar a los clientes y las cookies permanecen intactas. Sin embargo, debido a que UDP es sin supervisin, si el servidor se cae de forma inesperada, los clientes UDP continan saturando la red con peticiones para el servidor. Por esta razn, TCP es el protocolo preferido cuando se conecte a un servidor NFS. Cuando se autentifique utilizando NFSv4, se crea una conexin atenta y, de forma opcional, est disponible la autenticacin de usuarios y grupos con Kerberos. NFSv4 no tiene interaccin con portmapper, rpc.mountd, rpc.lockd y rpc.statd, pues estos han sido incorporados en el kernel. NFSv4 escucha en el puerto TCP 2049. Nota

TCP es el protocolo por defecto para NFS bajo Red Hat Enterprise Linux. Consulte el captulo llamado Sistema de archivos de red (NFS) en el Manual de administracin del sistema de Red Hat Enterprise Linux para ms informacin sobre la conexin a servidores NFS usando TCP. UDP se puede utilizar para propsitos de compatibilidad si se necesita, pero no es recomendado para uso general.

La nica vez que NFS lleva a cabo la autentificacin es cuando el cliente intenta montar un recurso compartido NFS. Para limitar el acceso al servicio NFS, se utilizan envolturas TCP (TCP wrappers). Los TCP wrappers leen los archivos /etc/hosts.allow y /etc/hosts.deny para determinar si a un cliente particular o red tiene acceso o no al servicio NFS. Para ms informacin sobre cmo configurar los controles de acceso con envolturas TCP (TCP wrappers), consulte el Captulo 17. Despus de que al cliente se le permite acceso gracias a un TCP wrapper, el servidor NFS recurre a su archivo de configuracin, /etc/exports, para determinar si el cliente tiene suficientes privilegios para acceder a los sistemas de archivos exportados. Una vez otorgado el acceso, todas las operaciones de archivos y de directorios estn disponibles para el usuario. Aviso

Si se est utilizando NFSv2 o NFSv3, los cuales no son compatibles con la autenticacin Kerberos, los privilegios de montaje de NFS son otorgados al host cliente, no para el usuario. Por lo tanto, se puede acceder a los sistemas de archivos exportados por cualquier usuario en un host cliente con permisos de acceso. Cuando se configuran las unidades compartidas NFS, tenga mucho cuidado de cules hosts obtienen permisos de lectura/escritura (rw).

Importante

Para que NFS funcione con una instalacin de Red Hat Enterprise Linux con un cortafuegos instalado, se debe configurar IPTables con el puerto predeterminado TCP 2049. Sin una configuracin IPTables, NFS no funcionar correctamente. El script de inicializacin NFS y el proceso rpc.nfsd ahora permiten la vinculacin a cualquier puerto especificado durante el inicio del sistema. Sin embargo, esto puede ser susceptible a errores si el puerto no est disponible o si entra en conflicto con otro demonio.

9.1.1. Servicios requeridosRed Hat Enterprise Linux utiliza una combinacin de soporte a nivel del kernel y procesos demonio para proporcionar los archivos compartidos con NFS. NFSv2 y NFSv3 confa en las Llamadas de procedimientos remotos ((RPC)) para enrutar peticiones entre clientes y servidores. Los servicios RPC bajo Linux son controlados por el servicio portmap. Para compartir o montar sistemas de archivos NFS, los servicios siguientes funcionan juntos, dependiendo de cul versin de NFS se tenga implementada: nfs Inicia los procesos RPC apropiados para servir peticiones para los sistemas de archivos compartidos NFS. nfslock Un servicio opcional que inicia los procesos RPC adecuados para permitir que clientes NFS bloqueen archivos en el servidor. portmap El servicio RPC para Linux; responde a las peticiones para servicios RPC y configura las conexiones al servicio RPC solicitado. No se utiliza con NFSv4. Los siguientes procesos RPC facilitan los servicios NFS: rpc.mountd Este proceso recibe las peticiones de montaje desde clientes NFS y verifica que el sistema de archivos solicitado est actualmente exportado. Este proceso es iniciado automticamente por el servicio nfs y no requiere de la configuracin del usuario. No se utiliza con NFSv4. rpc.nfsd Este proceso es el servidor NFS. Trabaja con el kernel Linux para satisfacer las demandas dinmicas de clientes NFS, tales como proporcionar hilos del servidor cada vez que se conecta un cliente NFS. Este proceso corresponde al servicio nfs. rpc.lockd Un proceso opcional que permite a los clientes NFS bloquear archivos en el servidor. Esto corresponde al servicio nfslock. No se utiliza con NFSv4. rpc.statd Este proceso implementa el protocolo RPC Network Status Monitor (NSM) el cual notifica a los clientes NFS cuando un servidor NFS es reiniciado luego de haber sido apagado abruptamente. Este proceso es iniciado automticamente por el servicio nfslock y no requiere configuracin por parte del usuario. No se utiliza con NFSv4. rpc.rquotad Proporciona informacin de cuotas de usuario para los usuarios remotos. Este proceso se inicia automticamente por el servicio nfs y no requiere configuracin por parte del usuario. rpc.idmapd Este proceso proporciona al cliente y servidor NFSv4 llamadas ascendentes (upcalls) que hacen corresponder los nombres NFSv4 (los cuales son cadenas en la forma usuario@dominio) y los UIDs y GIDs locales. Para que idmapd funcione con NFSv4, el /etc/idmapd.conf debe estar configurado. Se requiere este servicio para su uso con NFSv4. rpc.svcgssd Este proceso proporciona al servidor los mecanismos de transporte para el proceso de autenticacin (Kerberos versin 5) con NFSv4. Se requiere este servicio para su uso con NFSv4. rpc.gssd Este proceso proporciona al cliente los mecanismos de transporte para el proceso de autenticacin (Kerberos versin 5). Se requiere este servicio para su uso con NFSv4. 9.1.2. NFS y portmapNota

La seccin siguiente solamente aplica para las implementaciones NFSv2 o NFSv3 que requieren del servicio portmap para la compatibilidad hacia atrs.

El servicio portmap bajo Linux asigna las peticiones RPC a los servicios correctos. Los procesos RPC notifican a portmap cuando comienzan, revelando el nmero de puerto que ellos estn supervisando y el nmero de programas RPC que esperan servir. El sistema cliente entonces contacta con el portmap del servidor con un nmero de programa RPC particular. Entonces portmap redirecciona al cliente al nmero del puerto apropiado para que se comunique con el servicio solicitado. Como los servicios basados en RPC confian en portmap para hacer todas las conexiones con las peticiones de clientes entrantes, portmap debe estar disponible antes que cualquiera de esos servicios comience. El servicio portmap puede utilizar TCP wrappers para el control de acceso, y las reglas de control de acceso para portmap afectan a todos los servicios basados en RPC. Alternativamente, es posible especificar reglas de control de acceso para cada demonio RPC NFS. Las pginas man para rpc.mountd y rpc.statd contienen informacin relativa a la sintaxis precisa de estas reglas. 9.1.2.1. Resolucin de problemas de NFS y portmapComo portmap proporciona la coordinacin entre servicios RPC y los nmeros de puertos usados para comunicarlos, es til poder visualizar el estado de los servicios RPC actuales usando portmap cuando estamos resolviendo algn problema. El comando rpcinfo muestra cada servicio basado en RPC con su nmero de puerto, nmero de programa RPC, versin y tipo de protocolo (TCP o UDP). Para asegurarse que estn activos los servicios NFS basados en RPC para portmap, use el comando siguiente como root: rpcinfo -p

A continuacin se presenta una muestra de la salida de este comando: program vers proto port 100000 2 tcp 111 portmapper 100000 2 udp 111 portmapper 100021 1 udp 32774 nlockmgr 100021 3 udp 32774 nlockmgr 100021 4 udp 32774 nlockmgr 100021 1 tcp 34437 nlockmgr 100021 3 tcp 34437 nlockmgr 100021 4 tcp 34437 nlockmgr 100011 1 udp 819 rquotad 100011 2 udp 819 rquotad 100011 1 tcp 822 rquotad 100011 2 tcp 822 rquotad 100003 2 udp 2049 nfs 100003 3 udp 2049 nfs 100003 2 tcp 2049 nfs 100003 3 tcp 2049 nfs 100005 1 udp 836 mountd 100005 1 tcp 839 mountd 100005 2 udp 836 mountd 100005 2 tcp 839 mountd 100005 3 udp 836 mountd 100005 3 tcp 839 mountd

La salida de este comando revela que los servicios NFS correctos se estn ejecutando. Si uno de los servicios NFS no comienza correctamente, portmap puede ser incapaz de corresponder las peticiones RPC de los clientes para ese servicio con sus respectivos puertos. En muchos casos, si NFS no est presente en la salida de rpcinfo, reiniciando NFS provocar que estos servicios se registren correctamente con portmap y empiecen a funcionar. Para ms instrucciones sobre el inicio de NFS, consulte la Seccin 9.2. Estn disponibles otras opciones tiles para el comando rpcinfo. Para ms informacin, consulte la pgina man de rpcinfo.

9.2. Iniciar y detener NFSPara ejecutar un servidor NFS, debe estar ejecutndose el servicio portmap. Para verificar que portmap est activo, escriba el comando siguiente como root: /sbin/service portmap status

Si el servicio portmap se est ejecutando, entonces se puede iniciar nfs. Para iniciar un servidor NFS, como root escriba: /sbin/service nfs start

Para detener el servidor, como usuario root, escriba: /sbin/service nfs stop

La opcin restart es un atajo para detener y luego iniciar NFS. Esta es la forma ms eficiente de hacer que los cambios en la configuracin tomen efecto luego de modificar el archivo de configuracin por NFS. Para reiniciar el servidor, como usuario root, escriba: /sbin/service nfs restart

La opcin condrestart (reinicio condicional) solamente inicia nfs si este est actualmente ejecutndose. Esta opcin es til para los scripts, porque no inicia el demonio si este no se est ejecutando. Para reiniciar condicionalmente el servidor, como root escriba: /sbin/service nfs condrestart

Para recargar el archivo de configuracin del servidor NFS sin reiniciar el servicio, como root escriba: /sbin/service nfs reload

Por defecto, el servicio nfs no arranca automticamente en el momento del inicio. Para configurar NFS para que inicie en el momento del arranque, utilice una utilidad de initscript, tal como /sbin/chkconfig, /sbin/ntsysv o la Herramienta de configuracin de servicios9.3. Configuracin del servidor NFSExisten tres formas de configurar un servidor NFS bajo Red Hat Enterprise Linux: usando la Herramienta de configuracin del servidor NFS (system-config-nfs), modificando manualmente su archivo de configuracin (/etc/exports), o utilizando el comando /usr/sbin/exportfs. Para las instrucciones sobre cmo utilizar la Herramienta de configuracin del servidor NFS, consulte el captulo llamado Sistemas de archivo de red (NFS) en el Manual de administracin del sistema de Red Hat Enterprise Linux. El resto de esta seccin discute la modificacin manual de /etc/exports y el uso del comando /usr/sbin/exportfs para exportar sistemas de archivos NFS. 9.3.1. El archivo de configuracin /etc/exportsEl archivo /etc/exports controla cules sistemas de archivos son exportados a las mquinas remotas y especifica opciones. Las lneas en blanco son ignoradas, se pueden comentar lneas con el smbolo # y las lneas largas pueden ser divididas con una barra invertida (\). Cada sistema de archivos exportado debe tener su propia lnea y cualquier lista de hosts autorizadas colocada despus de un sistema de archivos exportado, debe estar separada por un espacio. Las opciones para cada uno de los hosts deben ser colocadas entre parntesis directamente detrs del identificador del host, sin ningn espacio de separacin entre el host y el primer parntesis. Una lnea para un sistema de archivos exportado tiene la estructura siguiente: () ()...

En esta estructura, reemplace con el directorio a exportar, reemplace con el host o la red a la cual va a compartir el directorio y reemplace con las opciones para ese host o red. Los hosts adicionales se pueden especificar en una lista separada por espacios. Se pueden usar los mtodos siguientes para especificar nombres de host: host nico Cuando una mquina en particular es especificada con nombre completo de dominio, nombre de mquina o direccin IP. comodines Usamos un carcter * o ? para referirnos a un grupo de nombres completos de dominio o direcciones IP o que coincidan con una cadena particular de letras. Los comodines no se deberan de utilizar con direcciones IP; sin embargo, es posible para estos funcionar accidentalmente si fallan las bsquedas de DNS inversas. Tenga cuidado cuando especifique comodines con nombres de dominio completos, pues tienden a ser ms exactos de lo que usted cree. Por ejemplo, el uso de *.ejemplo.com como comodn, permitir a ventas.ejemplo.com acceder al sistema de archivos exportado, pero no a bob.ventas.ejemplo.com. Para coincidir ambas posibilidades, debera usar *.ejemplo.com y tambin *.*.ejemplo.com redes IP Permite la coincidencia de hosts basados en sus direcciones IP dentro de una red ms grande. Por ejemplo, 192.168.0.0/28 permite al acceso a las primeras 16 direcciones IP, desde la 192.168.0.0 a la 192.168.0.15, acceder al sistema de archivos exportado, pero no a la 192.168.0.16 y superiores. grupos de redes Permite usar un nombre de grupo de red NIS, escrito como @. Esto pone al servidor NIS controlando el acceso de este sistema de archivos, donde los usuarios pueden ser aadidos o borrados de un grupo NIS sin que afecte a /etc/exports. En su forma ms sencilla, el archivo /etc/exports slo especifica el directorio a exportar y los hosts que pueden usarlo, como en el ejemplo siguiente: /exported/directory bob.example.com

En el ejemplo, bob.example.com puede montar /exported/directory/. Como no se especifica ninguna opcin en este ejemplo, tomarn efecto las siguientes opciones predeterminadas de NFS: ro Se montan los sistemas de archivos como de slo lectura (read-only). Los host remotos no pueden hacer cambios a los datos compartidos en el sistema de archivos. Para permitir que los hosts puedan hacer cambios, debe especificar la opcin rw (lectura-escritura, read-write). wdelay Provoca que el servidor NFS retrase el escribir a disco si sospecha que otra peticin de escritura es inminente. Esto puede mejorar el rendimiento reduciendo las veces que se debe acceder al disco por comandos de escritura separados. Use no_wdelay para desactivar esta opcin, la cual slo funciona si est usando la opcin sync. root_squash Previene a los usuarios root conectados remotamente de tener privilegios como root asignndoles el id del usuario de nobody. Esto reconvierte el poder del usuario root remoto al de usuario local ms bajo, previniendo la alteracin desautorizada de archivos en el servidor remoto. Alternativamente, la opcin no_root_squash lo desactiva. Para reconvertir a todos los usuarios, incluyendo a root, use la opcin all_squash. Para especificar los ID de usuario y grupo para usar con usuarios remotos desde un host particular, utilice las opciones anonuid y anongid, respectivamente. De esta manera, puede crear una cuenta de usuario especial para que los usuarios NFS remotos compartan y especificar (anonuid=,anongid=), donde es el nmero de ID del usuario y es el nmero de ID del grupo. Importante

Por defecto, las listas de control de acceso (ACLs) son soportadas por NFS bajo Red Hat Enterprise Linux. Para desactivar esta funcionalidad, especifique la opcin no_acl cuando est exportando el sistema de archivos. Para ms informacin sobre esta funcionalidad, vea el captulo Sistemas de archivo de red (NFS) en el Manual de administracin del sistema de Red Hat Enterprise Linux.

Cada valor predeterminado para un sistema de archivos exportado debe ser explcitamente ignorado. Por ejemplo, si no se especifica la opcin rw, entonces el sistema de archivos es exportado como de slo lectura. Lo siguiente es una lnea de muestra de /etc/exports la cual sobreescribe dos opciones predeterminadas: /another/exported/directory 192.168.0.3(rw,sync)

En este ejemplo 192.168.0.3 puede montar /another/exported/directory/ como lectura/escritura y todas las transferencias al disco son efectuadas antes de completar la peticin de escritura del cliente. Adicionalmente, hay otras opciones que estn disponibles que no tienen especificado un valor predeterminado. Estas incluyen la habilidad de desactivar la verificacin por subdirectorios, permitir el acceso desde puertos inseguros y permitir bloquear archivos inseguros (necesario para algunas implementaciones antiguas de clientes NFS). Vea la pgina man de exports para estas opciones menos usadas. Aviso

La manera en que el archivo /etc/exports est organizado es muy importante, particularmente lo que concierne a los espacios en blanco. Recuerde separar siempre los sistemas de archivos exportados de una mquina a la otra, con un espacio. Sin embargo, no debera haber otros espacios en el archivo a menos que se usen en lneas comentadas. Por ejemplo, las siguientes dos lneas significan cosas distintas: /home bob.example.com(rw)/home bob.example.com (rw)

La primera lnea permite slo a los usuarios de bob.ejemplo.com acceder en modo de lectura/escritura al directorio /home. La segunda lnea permite a los usuarios de bob.ejemplo.com montar el directorio como de slo lectura (el predeterminado), pero el resto del mundo puede instalarlo como lectura/escritura.

Para instrucciones detalladas sobre la configuracin de un servidor NFS modificando /etc/exports, consulte el captulo titulado Sistemas de archivos de red (NFS) en el Manual de administracin del sistema de Red Hat Enterprise Linux. 9.3.2. El comando exportfsCada sistema de archivos que se exporta a usuarios remotos a travs de NFS, as como los niveles de acceso relativos a ellos, son listados en el archivo /etc/exports. Cuando comienza el servicio nfs, se lanza el comando /usr/sbin/exportfs y lee este archivo, pasa el control a rpc.mountd (si es NFSv2 or NFSv3) para el proceso de montaje real, luego a rpc.nfsd donde los sistemas de archivos estn disponibles a los usuarios remotos. Cuando se ejecuta manualmente, el comando /usr/sbin/exportfs permite al superusuario exportar o no de forma selectiva, directorios concretos sin reiniciar los servicios NFS. Cuando se le pasan las opciones apropiadas, el comando /usr/sbin/exportfs escribe los sistemas de archivos exportados a /var/lib/nfs/xtab. Como rpc.mountd se refiere al archivo xtab para decidir privilegios de acceso a un sistema de archivos, los cambios en la lista de sistemas de archivos exportados toman efecto inmediatamente. Lo siguiente es una lista de las opciones ms comunes disponibles para /usr/sbin/exportfs: -r Provoca que todos los directorios listados en /etc/exports sean exportados construyendo una nueva lista de exportacin en /etc/lib/nfs/xtab. Esta opcin refresca la lista de exportacin con cualquier cambio que hubiramos realizado en /etc/exports. -a Provoca que todos los directorios sean exportados o no, dependiendo de qu otras opciones hemos pasado a /usr/sbin/exportfs. Si no se pasan otras opciones, /usr/sbin/exportfs exporta todos los sistemas de archivos especificados en /etc/exports. -o sistema-de-archivos Permite especificar directorios a exportar que no estn listados en /etc/exports. Reemplace sistema-de-archivos con los sistemas de archivos adicionales a exportar. Estos sistemas de archivos deben tener el mismo formato en que fueron especificados en /etc/exports. Consulte la Seccin 9.3.1 para ms informacin sobre la sintaxis de /etc/exports. Esta opcin se utiliza a menudo para probar un sistema de archivos antes de aadirlo de forma permanente a la lista de sistemas a exportar. -i Ignora /etc/exports; slo las opciones dadas desde la lnea de comandos son usadas para definir los sistemas de archivos exportados. -u No exporta todos los directorios compartidos. El comando /usr/sbin/exportfs -ua suspende la comparticin de archivos NFS mientras que mantiene todos los demonios NFS activos. Para reactivar NFS, teclee exportfs -r. -v Operacin descriptiva, donde los sistemas de archivos exportados o dejados de exportar son mostrados en gran detalle al ejecutarse el comando exportfs. Si no se pasan opciones al comando /usr/sbin/exportfs, mostrar una lista de los sistemas de archivos actualmente exportados. Para ms informacin sobre /usr/sbin/exportfs, vaya a la pgina man de exportfs. 9.3.2.1. Uso de exportfs con NFSv4Puesto que en NFSv4 ya no se utiliza el protocolo rpc.mountd como se utiliz en NFSv2 y NFSv3, el montaje de sistemas de archivos ha cambiado. Un cliente NFSv4 ahora tiene la habilidad de ver todas las exportaciones servidas por el servidor NFSv4, como un nico sistema de archivos, llamado el pseudo sistema de archivos NFSv4. En Red Hat Enterprise Linux, se identifica el pseudo sistema de archivos como un sistema de archivos nico y verdadero, identificado con la opcin fsid=0. Por ejemplo, los comandos siguientes no se podran ejecutar en un servidor NFSv4: mkdir /exportsmkdir /exports/optmkdir /exports/etcmount --bind /usr/local/opt /exports/optmount --bind /usr/local/etc /exports/etcexportfs -o fsid=0,insecure,no_subtree_check gss/krb5p:/exportsexportfs -o rw,nohide,insecure,no_subtree_check gss/krb5p:/exports/optexportfs -o rw,nohide,insecure,no_subtree_check gss/krb5p:/exports/etc

En este ejemplo, se proporciona a los clientes con mltiples sistemas de archivos a montar, usando la opcin --bind. 9.4. Archivos de configuracin de clientes NFSLas comparticiones NFS son montadas en el lado del cliente usando el comando mount. El formato del comando es como sigue: mount -t -o :

Reemplace con nfs para servidores NFSv2 o NFSv3, o nfs4 para servidores NFSv4. Reemplace con una lista de opciones separadas por comas para el sistema NFS (para ms detalles, consulte la Seccin 9.4.3). Reemplace con el host remoto, con el directorio remoto que est siendo montado y sustituya con el directorio local donde el sistema de archivos remoto se montar. Consulte la pgina man de mount para ms detalles. Si est accediendo a una comparticin NFS emitiendo manualmente el comando mount, el sistema de archivos debe ser remontado manualmente despus de reiniciar el sistema. Red Hat Enterprise Linux ofrece dos mtodos para el montaje automtico de sistemas de archivos al momento del arranque: el archivo /etc/fstab o el uso del servicio autofs. 9.4.1. /etc/fstabEl archivo /etc/fstab lo referencia el servicio netfs al momento del arranque, por lo que las lneas haciendo referencia a las comparticiones NFS tienen el mismo efecto que escribir manualmente el comando mount durante el arranque. Una muestra de lnea de /etc/fstab para montar un NFS exportado ser parecida a: : 0 0

Reemplace con el nombre de la mquina, direccin IP o nombre de dominio totalmente cualificado del servidor que exporta el sistema de archivos. Reemplace con la ruta al directorio exportado.Sustituya con el sistema de archivos local en el cual se montar el directorio exportado. Este punto de montaje debe existir antes de que /etc/fstab sea ledo o el montaje fallar. Reemplace con nfs para servidores NFSv2 o NFSv3, o con nfs4 para servidores NFSv4. Reemplace con una lista de opciones separada por comas para el sistema NFS (refirase a la Seccin 9.4.3 para ms detalles). Consulte la pgina man de fstab para informacin adicional. 9.4.2. autofsUna desventaja de usar /etc/fstab es que, sin tener en cuenta con que frecuencia se use este sistema de archivos montado, el sistema debe dedicar recursos para mantener este montaje en su sitio. Esto no es un problema con uno o dos montajes, pero cuando su sistema est manteniendo montajes a una docena de sistemas al mismo tiempo, el rendimiento global puede decaer. Una alternativa a /etc/fstab es usar la utilidad basada en el kernel automount, la cual monta y desmonta sistemas de archivos NFS automticamente, ahorrando recursos. El servicio autofs es utilizado para controlar el comando automount a travs del archivo de configuracin primario /etc/auto.master. Mientras que automount puede ser especificado en la lnea de comandos, es ms conveniente especificar los puntos de montaje, nombres de hosts, directorios exportados y opciones en un conjunto de archivos que teclearlo todo a mano. Los archivos de configuracin autofs estn fijados en una relacin padre-hijo. El principal archivo de configuracin (/etc/auto.master) lista los puntos de montaje en el sistema que estn enlazados a un tipo de mapa particular, el cual toma la forma de otros archivos de configuracin, programas, mapas NIS y otros mtodos de montaje menos comunes. El archivo auto.master contiene lneas que se refieren a cada punto de montaje, organizadas como:

El elemento de esta lnea indica la ubicacin del montaje en el sistema de archivos local. se relaciona con la forma en la cual el punto de montaje ser montado. El mtodo ms comn para el automontaje de las exportaciones NFS es usar un archivo como la gua para un punto de montaje particular. El mapa del archivo, usualmente llamado auto., donde es el punto de montaje designado en auto.master, contiene lneas que se ven similar a: - :

Reemplace con el sistema de archivos local en el cual se monta el sistema de archivos exportado. Este punto de montaje debe existir antes de que el mapa del archivo sea ledo o el montaje fallar. Reemplace con una lista de opciones separada por comas para el sistema de archivos NFS (para ms detalles vea la Seccin 9.4.3). Asegurese de incluir un guin (-) inmediatamente antes de la lista de opciones. Reemplace con el nombre de la mquina, direccin IP o nombre de dominio totalmente cualificado del servidor que exporta el sistema de archivos. Reemplace con la ruta al directorio exportado. Reemplace con una lista de opciones separadas por comas para el sistema de archivos NFS (para ms detalles, consulte la Seccin 9.4.3). Mientras que los archivos de configuracin autofs pueden ser usados por una variedad de montajes de muchos tipos de dispositivos y sistemas de archivos, son particularmente tiles para crear montajes NFS. Por ejemplo, algunas organizaciones guardan un directorio de usuario /home/ en un servidor central a travs de una comparticin NFS. Entonces, configuran el archivo auto.master en cada una de las estaciones de trabajo para que apunten a un archivo auto.home conteniendo los detalles sobre cmo montar el directorio /home/ va NFS. Esto permite al usuario acceder a sus datos personales y archivos de configuracin en su directorio /home/ conectndose desde cualquier sitio de la red interna. El archivo auto.master en esta situacin debera parecerse a: /home /etc/auto.home

Esto hace que el punto de montaje /home/ en el sistema local sea configurado mediante el archivo /etc/auto.home, el cual se vera como: * -fstype=nfs4,soft,intr,rsize=32768,wsize=32768,nosuid server.example.com:/home

Esta lnea establece que cualquier directorio al que un usuario intente acceder bajo el directorio local /home/ (debido al asterisco), debe resultar en un punto de montaje NFS en el sistema server.example.com en el punto de montaje /home/. Las opciones de montaje especifican que cada directorio /home/ montado va NFS debe usar una coleccin particular de opciones. Para ms informacin de las opciones de montaje, incluyendo las usadas en este ejemplo, vea la Seccin 9.4.3. Para ms informacin sobre los archivos de configuracin autofs, consulte la pgina man de auto.master. 9.4.3. Opciones de montaje NFS comunesAparte de montar un sistema de archivos a travs de NFS en un host remoto, existe un nmero de diferentes opciones que pueden ser especificadas al momento del montaje que pueden hacerlo ms fcil de usar. Estas opciones pueden usarse con el comando manual mount, configuraciones /etc/fstab y autofs. Las siguientes son opciones populares utilizadas para montajes NFS: fsid=num Obliga a que las configuraciones de manejo y de atributos de archivos en el cable, a ser num, en vez de un nmero derivado desde el nmero menor y principal ('minor' y 'major') del dispositivo de bloques en el sistema de archivos montado. El valor 0 tiene un significado especial cuando se utiliza con NFSv4. NFSv4 tiene un concepto de raz del sistema de archivos exportado en general. El punto de exportacin con fsid=0 se utiliza como esta raz. hard o soft Especifican si el programa que usa un archivo va una conexin NFS, debe parar y esperar (hard) a que el servidor vuelva a estar en lnea, si el host que sirve el sistema de archivos no est disponible, o si debe informar de un error (soft). Si se especifica la opcin hard, el usuario no podr terminar el proceso que est esperando que la comunicacin NFS se reanude a menos que especifique la opcin intr. Si usa soft, puede usar la opcin adicional timeo=, donde especifica el nmero de segundos que deben pasar antes de informar del error. intr Permite que se interrumpan las peticiones NFS si el servidor se cae o no puede ser accedido. nfsvers=2 o nfsvers=3 Especifica cul versin del protocolo NFS se utiliza. Esto es til para los hosts que ejecutan mltiples servidores. Si no se especifica ninguna versin, NFS utiliza la ltima versin compatible con el kernel y el comando mount. Esta opcin no es soportada con NFSv4 y por tanto no se debera de utilizar. noacl Apaga todo el procesamiento de ACL. Esto puede ser necesario cuando se trate con versiones ms viejas de Red Hat Enterprise Linux, Red Hat Linux, o Solaris, puesto que la tecnologa ACL ms reciente no es compatible con sistemas ms antiguos. nolock Desactiva el bloqueo de archivos. Esta configuracin es requerida a veces cuando conectamos a servidores NFS antiguos. noexec No permite la ejecucin de binarios en sistemas de archivos montados. Esto es til si el sistema est montando un sistema de archivos no Linux a travs de NFS que contiene binarios incompatibles. nosuid No permite que los bits set-user-identifier o set-group-identifier tomen efecto. Esto previene que los usuarios remotos obtengan privilegios mayores ejecutando un programa setuid. port=num Especifica el valor numrico del puerto del servidor NFS. Si num es 0 (el valor predeterminado), entonces mount consulta al portmapper del host remoto por el nmero de puerto. Si el demonio NFS del host remoto no est registrado con su portmapper, se utilizar el nmero de puerto estndar de NFS, TCP 2049. rsize=num and wsize=num Estas configuraciones pueden acelerar la comunicacin NFS tanto para lecturas (rsize) como para escrituras (wsize), configurando un tamao de bloque de datos mayor, en bytes, que sern transferidos de una sola vez. Tenga cuidado al cambiar estos valores; algunos kernels antiguos de Linux y tarjetas de red no funcionan bien con grandes tamaos de bloques. Para NFSv2 o NFSv3, los valores por defecto para ambos parmetros est configurado a 8192. Para NFSv4, los valores por defecto para ambos parmetros es 32768. sec=mode Especifica el tipo de seguridad a utilizar cuando se autentique una conexin NFS. sec=sys es la configuracin por defecto, lo que utiliza UNIX UIDs y GIDs locales a travs de AUTH_SYS para autentificar las operaciones NFS. sec=krb5 utiliza Kerberos V5 en vez de UNIX UIDs y GIDs locales para autentificar a los usuarios. sec=krb5i utiliza Kerberos V5 para la autenticacin de usuarios y realiza la verificacin de integridad de las operaciones NFS usando sumas de verificacin para prevenir el dao de los datos. sec=krb5p utiliza Kerberos V5 para la autenticacin de usuarios, la verficacin de integridad y encriptar el trfico NFS para prevenir el huzmeo del mismo. Esta es la configuracin ms segura, pero tambin tiene la sobrecarga de rendimiento ms grande. tcp Especifica que se utilice el protocolo TCP para el montaje NFS. udp Especifica que NFS utilice el protocolo UDP para el montaje.Hay muchas ms opciones en la pgina del manual de mounty de nfs. 9.5. Cmo proteger NFSNFS trabaja muy bien compartiendo sistemas de archivos enteros con un gran nmero de hosts conocidos de una manera muy transparente. Sin embargo, esta facilidad de uso trae una variedad de problemas potenciales de seguridad. Los puntos siguientes deberan ser considerados cuando se exporten sistemas de archivos NFS en un servidor o cuando se monten en un cliente. Haciendo esto reducir los riesgos de seguridad NFS y proteger mejor los datos en el servidor. Para una lista concisa de los pasos que los administradores deben seguir al asegurar servidores NFS, consulte el captulo titulado Seguridad del servidor en el Manual de seguridad de Red Hat Enterprise Linux. 9.5.1. Acceso al sistemaLa versin de NFS que planee implementar, depende de su red existente y de sus preocupaciones de seguridad. La seccin siguiente explica las diferencias entre las medidas de seguridad con NFSv2, NFSv3 y NFSv4. Si es posible, utilice NFSv4. Es el ms recomendado. 9.5.1.1. Uso de NFSv2 o NFSv3NFS controla quien puede montar y exportar sistemas de archivos basados en la mquina que hace la peticin, no el usuario que utiliza el sistema de archivos. Los hosts tienen que tener los derechos para montar los sistemas de archivos exportados explcitamente. El control de acceso no es posible para usuarios, aparte de los permisos de archivos y directorios. En otras palabras, una vez que un sistema de archivos es exportado va NFS, cualquier usuario en cualquier mquina remota conectada al servidor NFS puede acceder a los datos compartidos. Para limitar estos riesgos potenciales, los administradores slo pueden permitir acceso de slo-lectura o reducir a los usuarios a un usuario comn y groupid. Pero estas soluciones pueden impedir que la comparticin NFS sea usada de la forma en que originalmente se pens. Adicionalmente, si un atacante gana el control del servidor DSN usado por el sistema que exporta el sistema de archivos NFS, el sistema asociado con un nombre de host concreto o nombre de dominio totalmente cualificado, puede ser dirigido a una mquina sin autorizacin. En este punto, la mquina desautorizada es el sistema que tiene permitido montar la comparticin NFS, ya que no hay intercambio de informacin de nombre de usuario o contrasea para proporcional seguridad adicional al montaje NFS. Los comodines o metacaracteres deben ser usados lo menos posible cuando garantizamos el acceso a una comparticin NFS. El uso de los comodines puede incluir ms sistemas de los que se desean. Tambin es posible restringir el acceso al servicio portmap a travs de los TCP wrappers. El acceso a los puertos usados por portmap, rpc.mountd y rpc.nfsd se puede limitar creando reglas de cortafuegos con iptables. Para ms informacin sobre la seguridad en NFS y portmap, consulte el captulo llamado Seguridad del servidor en el Manual de seguridad de Red Hat Enterprise Linux. Se puede encontrar informacin adicional sobre los cortafuegos en Captulo 18. 9.5.1.2. Uso de NFSv4El lanzamiento de NFSv4 trajo consigo una revolucin para la autentificacin y la seguridad cuando se comparten directorios a travs de NFS. NFSv4 manda la implementacin del mdulo del kernel RPCSEC_GSS, el mecanismo GSS-API de la versin Kerberos 5, SPKM-3, y LIPKEY. Con NFSv4, los mecanismos de seguridad obligatorios estn orientados hacia la autenticacin de usuarios individuales y no a mquinas clientes, como lo hace NFSv2 y NFSv3. Nota

Se asume que se tiene instalado un servidor de entrega de tckets (KDC) y que est configurado de la forma correcta, antes de configurar el servidor NFSv4.

NFSv4 incluye el soporte a ACL basado en el modelo de Microsoft Windows NT, no en el modelo POSIX, por sus funcionalidades y porque es implementado ampliamente. NFSv2 y NFSv3 no son compatibles con los atributos nativos de ACL. Otra funcionalidad de seguridad importante de NFSv4 es la eliminacin del demonio rpc.mountd. El demonio rpc.mountd presentaba posibles agujeros de seguridad debido a la forma en que trataba con los manejadores de archivos. Para ms informacin sobre la estructura de RPCSEC_GSS, incluyendo cmo rpc.svcgssd y rpc.gssd interoperan, consulte en http://www.citi.umich.edu/projects/nfsv4/gssd/. 9.5.2. Permisos de archivosUna vez que el sistema de archivos es montado como lectura/escritura por un host remoto, la nica proteccin que tiene cada archivo compartido son sus permisos. Si dos usuarios que comparten el mismo valor de identificador de usuario montan el mismo NFS, ellos podran modificar sus archivos mutuamente. Adicionalmente, cualquiera con acceso root en el sistema cliente puede usar el comando su - para volverse un usuario que tenga acceso a determinados archivos a travs de la comparticin NFS. Para ms detalles sobre los conflictos entre NFS y ID de usuarios, consulte el captulo llamado Administracin de cuentas de usuario y acceso a recursos en el Introduccin a la administracin de sistemas de Red Hat Enterprise Linux. Por defecto, las listas de control de acceso (ACLs) son soportados por NFS bajo Red Hat Enterprise Linux. No se recomienda desactivar esta funcionalidad. Para ms detalles sobre esta funcionalidad, consulte el captulo llamado Sistema de archivos de red (NFS) en el Manual de administracin del sistema de Red Hat Enterprise Linux. El comportamiento predeterminado cuando se est exportando un sistema de archivos a travs NFS es usar aplastamiento de root. Esto coloca el identificador del usuario de cualquiera que est accediendo a la comparticin NFS, como el usuario root en su mquina local a un valor de la cuenta de nfsnobody. Nunca desactive el aplastamiento (squashing) de root. Si se est exportando una comparticin NFS como de slo lectura, considere usar la opcin all_squash, la cual hace que todos los usuarios accesando el sistema de archivos exportado tomen el ID de usuario del nfsnobody.