71
LPNHE Projet Stockage Dossier d’exploitation de Stockage Référence : LPNHE-_Infra_stockage_dossier d'exploitation_v1.2 Version et Date : v1.2 du 05/01/2015 Auteur : Fabien Poyer

15/12/2014 V1.1 F.POYER Ajout

  • Upload
    others

  • View
    5

  • Download
    0

Embed Size (px)

Citation preview

Page 1: 15/12/2014 V1.1 F.POYER Ajout

LPNHE

Projet Stockage

Dossier d’exploitation de StockageRéférence : LPNHE-_Infra_stockage_dossier d'exploitation_v1.2Version et Date : v1.2 du 05/01/2015Auteur : Fabien Poyer

Page 2: 15/12/2014 V1.1 F.POYER Ajout

Ont participé à la rédaction du documentAuteur Fonction DescriptionF.POYER Consultant NetApp

Suivi des modifications du documentDate Version Auteur Description11/12/2012 V1 F.POYER Création du document15/12/2014 V1.1 F.POYER Ajout ch.18 multistore (vfiler)

Mise à jour de la table d’IP ch.405/01/2015 V1.2 F.POYER Ajout ch.19 bascule PRA

Validation du document Date Opération Nom Fonction

Diffusion du document Société Nom Fonction

LPNHE-_Infra_stockage_dossier d'exploitation_v1.2 Page 2 sur 71

Page 3: 15/12/2014 V1.1 F.POYER Ajout

Sommaire

1. Contexte........................................................................................................................................61.1. Objectif du document............................................................................................................61.2. Document de référence..........................................................................................................61.3. Règles de gestion du document.............................................................................................6

2. Présentation de l’installation de la baie NetApp..........................................................................72.1. Logiciel Data OnTap..............................................................................................................72.2. Câblage et vue arrière des contrôleurs...................................................................................72.3. Configuration minimale des contrôleurs.............................................................................102.4. Arrêt et redémarrage d’un contrôleur..................................................................................10

3. Les outils d’administration.........................................................................................................114. La configuration du réseau.........................................................................................................12

4.1. Configuration du site...........................................................................................................134.2. Configuration des serveurs DNS.........................................................................................154.3. Configuration du serveur de temps......................................................................................15

4.3.1. En ligne de commande.................................................................................................154.3.2. Depuis OnCommand System Manager........................................................................15

4.4. Configuration de SSH..........................................................................................................164.4.1. En ligne de commande.................................................................................................164.4.2. Depuis OnCommand System Manager........................................................................16

4.5. Configuration de SSL..........................................................................................................164.5.1. En ligne de commande.................................................................................................164.5.2. Depuis OnCommand System Manager........................................................................17

4.6. Configuration de l’autosupport............................................................................................174.6.1. En ligne de commande.................................................................................................174.6.2. Depuis OnCommand System Manager........................................................................17

5. La gestion des licences...............................................................................................................185.1.1. En ligne de commande.................................................................................................185.1.2. Depuis OnCommand System Manager........................................................................19

6. La configuration du cluster Actif/Actif......................................................................................206.1. Bascule manuelle d’un cluster.............................................................................................21

6.1.1. En ligne de commande.................................................................................................216.1.1. Depuis OnCommand System Manager........................................................................21

6.2. Administration d’un contrôleur en mode Takeover.............................................................226.3. Retour à l’état nominal........................................................................................................23

7. La configuration du protocole iSCSI..........................................................................................257.1. Démarrage et arrêt du service iSCSI...................................................................................25

7.1.1. En ligne de commande.................................................................................................257.1.2. Depuis OnCommand System Manager........................................................................25

7.2. Identification de la target iSCSI...........................................................................................267.2.1. En ligne de commande.................................................................................................267.2.2. Depuis OnCommand System Manager........................................................................26

7.3. Configuration des interfaces................................................................................................267.3.1. En ligne de commande.................................................................................................277.3.2. Depuis OnCommand System Manager........................................................................27

7.4. Lister les initiateurs connectés en iSCSI.............................................................................277.4.1. En ligne de commande.................................................................................................27

Page 4: 15/12/2014 V1.1 F.POYER Ajout

7.4.2. Depuis OnCommand System Manager........................................................................277.5. Connexion iSCSI depuis un serveur Windows....................................................................28

8. La configuration du protocole NFS............................................................................................368.1. Options de configuration du protocole NFS........................................................................368.2. Démarrage du service NFS..................................................................................................378.3. Arrêt du service NFS...........................................................................................................378.4. Accès client sous Unix.........................................................................................................378.5. Définition des exports NFS.................................................................................................378.6. Sécurité des volumes ou qtrees exportés.............................................................................39

8.6.1. Type de sécurité appliqué aux QTree et aux volumes..................................................398.6.2. Modifier la sécurité......................................................................................................39

9. La configuration du protocole CIFS...........................................................................................409.1. Options de configuration du protocole CIFS.......................................................................40

9.1.1. En ligne de commande.................................................................................................409.1.2. Depuis OnCommand System Manager........................................................................40

9.2. Démarrage et arrêt du protocole CIFS.................................................................................409.3. Définition du partage CIFS..................................................................................................41

9.3.1. En ligne de commande.................................................................................................419.3.2. Depuis OnCommand System Manager........................................................................41

10. La configuration de Vscan.......................................................................................................4211. La gestion physique du stockage.............................................................................................43

11.1. Présentation......................................................................................................................4311.2. Les agrégats......................................................................................................................4411.3. Configuration finale.........................................................................................................45

12. La gestion logique du stockage...............................................................................................4712.1. Les volumes.....................................................................................................................4712.2. Les Qtrees........................................................................................................................4812.3. Les LUN’s........................................................................................................................4812.4. Les Igroup........................................................................................................................49

13. La gestion des Quotas..............................................................................................................5114. La gestion des utilisateurs.......................................................................................................53

14.1. La commande useradmin.................................................................................................5314.2. Lister les comptes existant...............................................................................................5414.3. Changer le mot de passe d’un utilisateur.........................................................................56

15. La gestion des Snapshots.........................................................................................................5616. La configuration de la déduplication.......................................................................................57

16.1. Configuration de la fonction A_SIS.................................................................................5816.2. Activation et désactivation de la fonction A_SIS............................................................5816.3. Démarrage et arrêt de la déduplication............................................................................5816.4. Planification de la déduplication......................................................................................58

17. La vérification de l’état d’un contrôleur..................................................................................5918. Multistore : Gestion des vFiler................................................................................................61

18.1. Présentation de Multistore...............................................................................................6118.2. Commandes vfiler............................................................................................................6118.3. Création d’un vfiler..........................................................................................................6318.4. Statut des vfiler................................................................................................................6418.5. Arrêt / démarrage d’un vfiler...........................................................................................6418.6. Protocoles autorisés / interdits.........................................................................................6518.7. Connexion à un vfiler.......................................................................................................65

18.7.1. Connexion via le filer...............................................................................................65

Page 5: 15/12/2014 V1.1 F.POYER Ajout

18.7.2. Connexion directe sur un vfiler................................................................................6619. Bascule PRA............................................................................................................................67

19.1. Vérification et bascule.....................................................................................................6719.2. Inversion de réplication....................................................................................................6919.1. Nettoyage de la configuration snapmirror.......................................................................7019.2. Vérification des quotas.....................................................................................................7119.3. Retour à l’état initial........................................................................................................7119.4. Nettoyage de la configuration snapmirror.......................................................................71

20. Ouverture d’un incident...........................................................................................................72

Page 6: 15/12/2014 V1.1 F.POYER Ajout

1. Contexte

1.1. Objectif du document

Le présent document traite de l’architecture et des spécifications techniques à mettre en place, pour paramétrer et administrer l’environnement Stockage.

1.2. Document de référence

Référence Description

1.3. Règles de gestion du document

Toute modification du document entraîne une incrémentation du numéro de version présent à la finde la référence du document.Le tableau « Historique du document » (page 2) consigne les différentes modifications. Ledocument est diffusé aux personnes mentionnées dans le tableau « Diffusion du document » (page2). Le client prend en charge la diffusion du document auprès des autres interlocuteurs du client,non inclus dans le tableau.

Le document est diffusé par voie électronique exclusive.

Page 7: 15/12/2014 V1.1 F.POYER Ajout

2. Présentation de l’installation de la baie NetApp

2.1. Logiciel Data OnTap

Tous les contrôleurs sont préalablement pré installés avec une version de Data ONTAP et leurslicences correspondantes. Les licences sont attribuées au numéro de série du Filer lors del’expédition.Voici la liste des versions de firmware déployé sur le site :

- Data Ontap 8.2.2- BIOS 8.1.0- Service Processor 2.3

2.2. Câblage et vue arrière des contrôleurs

La vue arrière d’un contrôleur est la suivante :

Les ports réseaux seront utilisés ainsi :

Page 8: 15/12/2014 V1.1 F.POYER Ajout

Un vif LACP pour la connexion NFS / CIFS sur les ports e0a, e0b, e0c et e0d

Le port console permet d’exécuter le mini setup du contrôleur lors du premier démarrage.Le port SP / e0M est un port à 2 fonctionnalités :

L’interface e0M est un port dédié à l’administration L’interface Service Processor (SP) et anciennement BMC ou RLM permet la connexion

en ssh

Les ports SAS et e0P seront utilisés pour interconnecter les tiroirs disques supplémentaires.

Le câblage SAS des sites est le suivant :

Les câbles vert sont les câbles à ajouter à chaud lors de livraison

Le câblage ACP des sites est le suivant :

Page 9: 15/12/2014 V1.1 F.POYER Ajout
Page 10: 15/12/2014 V1.1 F.POYER Ajout

2.3. Configuration minimale des contrôleurs

Afin de pouvoir réaliser une configuration minimale, il est nécessaire d’effectuer les étapes suivantes :

Connecter le câble réseau d’administration sur l’interface réseau « Management port ».

Connecter la console série sur la prise référencée « Console » :

A l’autre bout du câble console, connecter un PC qui sera utilisé avec l’hyperterminal ou avec putty avec les paramètres suivants :9600 b/s, 8 bits, Pas de parité, 1 bit de stop, pas de contrôle de flux.

Allumer dans l’ordre, le rack, les shelfs disques supplémentaires dans l’ordre croissant des numéros ID, le Filer.

Des questions vous sont posées pour effectuer une configuration minimale.

2.4. Arrêt et redémarrage d’un contrôleurPour arrêter le filer, il faut effectuer les actions suivantes :

Arrêter les I/O des serveurs. Désactiver le cluster : cf disable Arrêter un contrôleur via halt puis arrêter le second contrôleur. Couper les alimentations des contrôleurs puis des modules disques supplémentaires.

Ou Arrêter les I/O des serveurs. Arrêter un contrôleur via halt -f puis arrêter le second contrôleur. Couper les alimentations des contrôleurs puis des modules disques supplémentaires.

Pour redémarrer le filer, il faut effectuer les actions suivante : Brancher les alimentations des modules disques supplémentaires et patienter 30

secondes afin que les modules s’initialisent. Brancher les alimentations des contrôleurs. Vérifiez que les deux contrôleurs ont démarré puis activez le cluster via « cf enable » Redémarrer les serveurs.

Ou Brancher les alimentations des modules disques supplémentaires et patienter 30

secondes que les modules s’initialisent. Brancher les alimentations des contrôleurs. Vérifiez que les deux contrôleurs ont démarré. Redémarrer les serveurs.

Attention : Il est très important que le contrôleur soit allumé en dernier. Les étagères et les disques nécessitent un certain temps pour s’allumer, s’initialiser et se préparer à répondre au contrôleur. Le contrôleur attend d’eux qu’ils soient prêts lorsqu’il s’allume.

Page 11: 15/12/2014 V1.1 F.POYER Ajout

3. Les outils d’administration

On dispose de plusieurs interfaces pour administrer une baie Netapp. Les différents outils sont les suivants :

Shell Data Ontap (via la console ou une connexion rsh, telnet ou ssh).

Operation Manager (outil de gestion et de supervision indépendant).

OnCommand System Manager

L’interface la plus complète est l’administration via le shell Data Ontap. Les autres interfaces disposent de plus ou moins de fonctionnalités.

Attention, à partir de la version 8.1.1, l’interface web FilerView n’est plus disponible

Page 12: 15/12/2014 V1.1 F.POYER Ajout

4. La configuration du réseau

Le câblage des ports physiques sur le site est le suivant :

Nom Serveur @IPN°PortServeur

N° Port Cœur

LPNPAMELACTRL

134.158.152.43192.168.6.43192.168.7.43

Vif1E0MSP

Vfiler_LPNPAMELA

134.158.152.100 (vif1)

e0aNFS /CIFS

e0bNFS /CIFS

e0cNFS /CIFS

e0d NFS /CIFS

LPNPAMELA2CTRL

134.158.152.60192.168.6.60192.168.7.60

Vif1E0MSP

Vfiler_LPNPAMELA2

134.158.152.42(vif1)

e0aNFS /CIFS

e0bNFS /CIFS

e0cNFS /CIFS

e0dNFS /CIFS

LPNPAMELA3

134.158.152.140

192.168.6.140192.168.7.140

Vif1e0MSP

e0aNFS /CIFS

e0bNFS /CIFS

e0cNFS /CIFS

e0dNFS /CIFS

Chaque contrôleur aura 4 ports réseau de disponible.Pour connaître l’état des interfaces Ethernet, tapez sur la console du Filer, la commande :

ifconfig –a

Cette commande renvoie des informations sur : L'adresse IP des brins Ethernet, L'adresse du netmask, L'adresse broadcast, La Mac Address, L'état de la connexion ainsi que sa vitesse d’exécution en cas de connexion établie.

Page 13: 15/12/2014 V1.1 F.POYER Ajout

Pour administrer une connexion Ethernet, tapez sur la console du Filer, la commande :ifconfig interface options

Les différentes options sont : up ou down, adresse_ IP, netmask “adresse_du_netmask”, Pour les cartes 10/100 Mb/s :

mediatype : 10fx, 10fx-fd, 100tx, 100tx-fd, auto. Pour les cartes Gigabit Ethernet :

flowcontrol : send, receive, full. trusted ou untrusted. wins ou -wins

L’option partner permet d’indiquer quelle interface doit reprendre le service de l’interface définie par la commande ifconfig dans le cas d’un cluster.

Sur le contrôleur, il est possible de créer une interface virtuelle afin de gérer le truncking et ou l’agrégat de ports.Le truncking peut se faire de plusieurs manières différentes :

Simple : En créant une interface virtuelle simple, le contrôleur va gérer une adresse IP avec 2 ports réseau. L’un des ports sera actif, l’autre restant inactif. En cas de problème sur le premier port, le second port deviendra actif, et récupèrera les informations réseau.Pour mettre en place cette solution, taper sur le port console du Filer, les commandes:ifgrp create single <nom_vif> <interface1> <interface2>ifgrp favor <interface_principale>ifconfig <nom_vif> up <adresse_ip> netmask <adresse_netmask> etc …

Multiple : En créant une interface virtuelle multiple, le contrôleur va gérer une adresse IP sur plusieurs ports réseaux actifs. Tous les liens sont donc actifs simultanément.Pour avoir cette solution comme ci-dessous, taper sur le port console du contrôleur, la commande :ifgrp create multi <nom_vif> -b ip <interface1> <interface2>ifconfig <nom_vif> up <adresse_ip> netmask <adresse_netmask> etc

ou si LACP :ifgrp create lacp <nom_vif> -b ip <interface1> <interface2>ifconfig <nom_vif> up <adresse_ip> netmask <adresse_netmask> etc

Attention toutes les commandes passées en ligne de commande seront perdues en cas de reboot du contrôleur. Afin de garder le paramétrage après un reboot, il est nécessaire d’entrer ces commandes dans le fichier /etc/rc.

Le fichier /etc/rc sera lu à chaque redémarrage du contrôleur et permettra de configurer le réseau.Le fichier /etc/hosts permettra d’effectuer la résolution de nom.Le fichier /etc/resolv.conf contiendra les serveurs DNS.

4.1. Configuration du siteLes 4 ports réseau (e0a, e0b, e0c et e0d) de chaque contrôleur seront paramétrés en agrégat et en utilisation du protocole LACP. Sur ces 4 ports passera le trafic CIFS et NFS.

Page 14: 15/12/2014 V1.1 F.POYER Ajout

Le contenu du fichier /etc/rc sur le contrôleur 1 est le suivant :hostname lpnpamelaifgrp create lacp vif1 -b ip e0b e0c e0d e0aifconfig vif1 `hostname`-vif1 mediatype auto netmask 255.255.252.0 partner vif1 mtusize 1500ifconfig e0M `hostname`-e0M netmask 255.255.254.0 partner 192.168.6.42 mtusize 1500route add default 192.168.6.1 1routed onoptions dns.domainname in2p3.froptions dns.enable onoptions nis.enable offsavecore

Le contenu du fichier /etc/hosts sur le contrôleur 1 est le suivant : 127.0.0.1 localhost localhost-stack127.0.10.1 localhost-10 localhost-bsd127.0.20.1 localhost-20 localhost-sk134.158.152.100 lpnpamela lpnpamela-vif1192.168.6.100 lpnpamela-e0M# 0.0.0.0 lpnpamela-e0P134.158.66.54 srelay.in2p3.fr mailhost

Le contenu du fichier /etc/rc sur le contrôleur 2 est le suivant :hostname lpnpamela2ifgrp create lacp vif1 -b ip e0c e0d e0b e0aifconfig vif1 `hostname`-vif1 mediatype auto netmask 255.255.252.0 partner vif1 mtusize 1500ifconfig e0M `hostname`-e0M netmask 255.255.254.0 partner 192.168.6.43 mtusize 1500route add default 134.158.152.1 1routed onoptions dns.domainname in2p3.froptions dns.enable onoptions nis.enable offsavecore

Le contenu du fichier /etc/hosts sur le contrôleur 2 est le suivant : 127.0.0.1 localhost localhost-stack127.0.10.1 localhost-10 localhost-bsd127.0.20.1 localhost-20 localhost-sk134.158.152.42 lpnpamela2 lpnpamela2-vif1192.168.6.42 lpnpamela2-e0M# 0.0.0.0 lpnpamela2-e0P134.158.66.53 srelay.in2p3.fr mailhost

La configuration de la carte SP du contrôleur 1 est la suivante :

Page 15: 15/12/2014 V1.1 F.POYER Ajout

La configuration de la carte SP du contrôleur 2 est la suivante :

4.2. Configuration des serveurs DNS

Le paramétrage des serveurs DNS se fait au setup du contrôleur ou en modifiant le fichier /etc/resolv.conf.

Le contenu du fichier /etc/resolv.conf sur les 2 contrôleurs est le suivant :nameserver 134.158.152.146nameserver 134.158.69.191

La commande dns info permet d’afficher des statistiques.

Les options permettant de configurer DNS sont les suivantes :dns.cache.enable ondns.domainname in2p3.frdns.enable ondns.update.enable offdns.update.ttl 24h

4.3. Configuration du serveur de temps4.3.1. En ligne de commande

Pour activer ou désactiver la synchronisation avec un serveur de temps, il suffit de se connecter sur le port console du contrôleur et taper la commande :

options timed.enable [on | off ]

Pour spécifier le nom du serveur de temps, il suffit de taper la commande :options timed.servers nom-du-serveur-de-temps

Pour spécifier le protocole à utiliser pour la synchronisation du Filer, il faut se connecter sur le port console du Filer et taper la commande :

options timed.proto [ntp | rdate]

Le serveur de temps sera le ntp1.sncf.fr en utilisant le protocole ntp.

4.3.2. Depuis OnCommand System Manager

Page 16: 15/12/2014 V1.1 F.POYER Ajout

Aller dans system tools – datetime puis cliquer sur le bouton edit dans la fenêtre de droite pour modifier les paramètres

4.4. Configuration de SSHAfin de permettre l’administration à distance en ligne de commande, le protocole SSH sera activé sur chacun des contrôleurs.

4.4.1. En ligne de commandePour activer le protocole SSH, exécuter la commande suivante :

secureadmin setup sshpuis répondre par la touche « Entrée » à chaque question.

4.4.2. Depuis OnCommand System ManagerAller dans security – SSH/SSL

Puis cliquer sur le bouton ssh setup

4.5. Configuration de SSL

4.5.1. En ligne de commandeAfin de sécuriser le trafic d’administration, il est possible d’activer SSL afin d’accéder via le filerview au contrôleur en HTTPS.Pour activer le protocole SSL, exécuter la commande suivante :

secureadmin setup ssl

Page 17: 15/12/2014 V1.1 F.POYER Ajout

puis répondre par la touche « Entrée » à chaque question.

Les options liées à filerview et SSL sont les suivantes :httpd.admin.enable on (autorise l’administration via le filerview)httpd.admin.ssl.enable on (trafic sécurisé pour le filerview)

4.5.2. Depuis OnCommand System ManagerAller dans security – SSH/SSL puis sélectionner la configuration souhaitée

4.6. Configuration de l’autosupport4.6.1. En ligne de commande

L’autosupport permet d’envoyer un email à NetApp et à des destinataires paramétrés quand un évènement apparaît qui nécessite une correction.

Le paramétrage des options est le suivant :options autosupport.support.transport smtpoptions autosupport.to [email protected] options autosupport.from [email protected] options autosupport.minimal.subject.id hostnameautosupport.payload_format tgzoptions autosupport.mailhost srelay.in2p3.frautosupport.noteto [email protected]

Afin d’effectuer un test, passer la commande suivante :options autosupport.doit testing

Il est possible d’invalider temporairement l’envoi des informations au support NetApp en passant la commande suivante :

options autosupport.support.enable off

4.6.2. Depuis OnCommand System ManagerAller dans system tools – autosupport puis cliquer sur le bouton enable puis edit pour modifier lesparamètres

Page 18: 15/12/2014 V1.1 F.POYER Ajout

5. La gestion des licences

5.1.1. En ligne de commandeL’ajout des licences s’effectue à l’aide de la commande suivante :

license add XXXXXXXOù XXXXXXX correspond au numéro de licence de chaque fonctionnalité.

La commande permettant d’afficher les licences installées est la suivante :license

Les licences installées sont les suivantes sur le site de Toulouse :

LPNPAMELALPNPAMELA

2

a_sis ENABLED ENABLED

cf SJTITYG IQENOFF

cf_remote not licensed not licensed

cifs IASVETB CTIADLK

compression ENABLED ENABLED

disk_sanitization ENABLED ENABLED

fcp GFYGUPC UQVVHEM

flash_cache ENABLED ENABLED

flex_clone not licensed not licensed

flex_scale ENABLED ENABLED

flexcache_nfs ENABLED ENABLED

http ENABLED ENABLED

insight_balance not licensed not licensed

iscsi YMGLPWA WRAHXAN

multistore ENABLED ENABLED

nearstore_option ENABLED ENABLED

nfs GTPRJMD OZQEYRI

operations_manager ENABLED ENABLED

persistent_archive ENABLED ENABLED

protection_manager ENABLED ENABLED

provisioning_manager ENABLED ENABLED

smdomino not licensed not licensed

Page 19: 15/12/2014 V1.1 F.POYER Ajout

smsql not licensed not licensed

snapdrive_windows not licensed not licensed

snaplock not licensed not licensed

snaplock_enterprise not licensed not licensed

snapmanager_hyperv not licensed not licensed

snapmanager_oracle not licensed not licensed

snapmanager_sap not licensed not licensed

snapmanager_sharepoint

not licensed not licensed

snapmanager_vi not licensed not licensed

snapmanagerexchange not licensed not licensed

snapmirror not licensed not licensed

snapmirror_sync not licensed not licensed

snapmover ENABLED ENABLED

snaprestore not licensed not licensed

snapvalidator not licensed not licensed

storage_services ENABLED ENABLED

sv_application_pri not licensed not licensed

sv_linux_pri ENABLED ENABLED

sv_ontap_pri not licensed not licensed

sv_ontap_sec not licensed not licensed

sv_unix_pri ENABLED ENABLED

sv_vi_pri ENABLED ENABLED

sv_windows_ofm_pri ENABLED ENABLED

sv_windows_pri ENABLED ENABLED

syncmirror_local YCLNOFF WFILSHL

v-series not licensed not licensed

vld ENABLED ENABLED

5.1.2. Depuis OnCommand System Manager

Aller dans system tools – licenses pour afficher les licences. Pour en ajouter cliquer sur le bouton add

6. La configuration du cluster Actif/Actif

Après avoir entré la licence pour le cluster, il est nécessaire de redémarrer chaque contrôleur.

Page 20: 15/12/2014 V1.1 F.POYER Ajout

Pour activer la fonctionnalité cluster, il est nécessaire de passer la commande suivante :cf enable

Cela n’est à effectuer que sur un seul contrôleur.

Pour vérifier l’état du cluster, taper la commande suivante :cf status

Pour désactiver la fonctionnalité cluster, il est nécessaire de passer la commande suivante :cf disable

Il est possible d’activer le cluster depuis l’interface graphique dans HA configuration puis decliquer sur le bouton enable / disable

Il existe des options de configuration du cluster pour modifier son comportement dans des cas particuliers :Type d’erreur Options Valeur

pardéfaut

description

Suite à une erreur système, un contrôleur ne peut plus rebooter

cf.takeover.on_failure On Autorise la bascule dans un tel cas

Panic cf.takeover.on_panic Off Positionné à on autorise la bascule dans un tel cas

Toutes les interfaces réseau (et vif) sont en erreur

cf.takeover.on_network_interface_failure

cf.takeover.on_network_interface_failure.policy

Off Pour autoriser la bascule il faut positionner la 1ère option à on et la 2ème à all_nics

Une des interfaces réseau (et vif) est en erreur

cf.takeover.on_network_interface_failure

cf.takeover.on_network_interface_failure.policy

Off Pour autoriser la bascule il faut positionner la 1ère option à on et la 2ème à any_nic

Les 2 contrôleurs ne voient pas les disques de la même façon

cf.takeover.on_disk-shelf_miscompare Off Positionné à on autorise la bascule dans un tel cas

Après une cf.takeover.on_short_uptime On Permet de

Page 21: 15/12/2014 V1.1 F.POYER Ajout

erreur systèmeun contrôleur met plus de 60secondes avantde rebooter

déclencher une bascule automatiqueplus rapidement

6.1. Bascule manuelle d’un clusterLe but est d’arrêter un des deux contrôleurs du filer pour des opérations de maintenance (les disques et les switches restent eux actifs).Prévoir un arrêt des accès CIFS, si des connexions subsistent la bascule est réalisée, une légère interruption se fera sentir, mais aucune perte de fichier.

6.1.1. En ligne de commande

La bascule se déclenche toujours depuis le nœud que l’on veut garder vivant.Avant de basculer un contrôleur, il faut toujours vérifier l’état du cluster en tapant la commande cf status.

La commande qui permet de basculer un contrôleur est la suivante :cf takeover

Sur la face avant de la machine, le voyant ORANGE est allumé.

1 Depuis OnCommand System ManagerAller dans HA configuration puis de cliquer sur le bouton takeover, puis sélectionner le nœud qui récupèrera l’autre (comme en ligne de commande) ou bien de cliquer sur le bouton takeover en dessous du nœud

Une fenêtre indiquant le chemin de bascule apparait, cliquer sur takeover

Page 22: 15/12/2014 V1.1 F.POYER Ajout

6.2. Administration d’un contrôleur en mode TakeoverUne fois basculées toutes les fonctionnalités sont opérationnelles, seul le "telnet/ssh" vers le contrôleur qui a basculé reste impossible ! Pour accéder à la console du contrôleur « hors service » il faut se connecter par "telnet/ssh" sur le contrôleur "vivant" et on utilisera la commande "partner" (voir exemple).Cette commande se comporte comme un « switch » permettant d’être connecté en tant que nœud A ou nœud B.

Exécuter la commande « partner » :lpnpamela(takeover)> partnerLogin to partner shell: lpnpamela2LPNPAMELA2/LPNPAMELA> Wed NovWed Nov 28 14:0 28 14:9:33 CET [LPNPAMELA:cf.partner.login:info]: Login to partner shell: lpnpamela209:33 CET [LPNPAMELA:cf.partner.login:info]: Login to partner shell: lpnpamela2

LPNPAMELA2/LPNPAMELA>

Nous sommes connectés au san2-ctrl1du, en exécutant la commande « hostname » on constate l’accès au contrôleur mort :LPNPAMELA2/LPNPAMELA> hostnameLPNPAMELA2LPNPAMELA2/LPNPAMELA>

Taper « partner » de nouveau, on « switche » vers l’autre contrôleur :LPNPAMELA2/LPNPAMELA> partnerLogoff from partner shell: LPNPAMELA2LPNPAMELA(takeover)> Wed NovWed Nov 28 14: 28 14:10:11 CET [LPNPAMELA:cf.partner.logoff:info]: Logoff from partner shell: LPNPAMELA210:11 CET [LPNPAMELA:cf.partner.logoff:info]: Logoff from partner shell: LPNPAMELA2

LPNPAMELA(takeover)>

Dans cette situation (contrôleur hors service) l'administration reste entièrement possible sans aucune limitation. Il est toujours possible de :

Créer des agrégats. Créer des volumes. Créer des partages.

Page 23: 15/12/2014 V1.1 F.POYER Ajout

Les flux « snapmirror » fonctionnent. La sauvegarde reste possible.

6.3. Retour à l’état nominalAprès avoir corrigé le problème et redémarré le contrôleur, le nœud doit être en attente de"giveback" indiqué au prompt "CFE" accessible via le port série.

Passer la commande « cf status » depuis le nœud « vivant » :LPNPAMELA(takeover)> cf statusLPNPAMELA has taken over LPNPAMELA2.Takeover due to negotiated failover, reason: operator initiated cf takeoverLPNPAMELA(takeover)>

Attention cette partie est informative, dans notre configuration, l’autoboot estactivéIl manque ici le message partner waiting for giveback. Etant donné que l’autoboot a étédésactivé, il faut se connecter sur lpnpamela pour le démarrer. En effet, le contrôleur n’est pasdémarré

Boot Loader version 4.1Copyright (C) 2000-2003 Broadcom Corporation.Portions Copyright (C) 2002-2011 NetApp

CPU Type: Intel(R) Xeon(R) CPU C3528 @ 1.73GHzLOADER-A>

Taper le commande boot_ontap pour démarrer le contrôleur jusqu’au message waiting forgiveback

LOADER-A> boot_ontapLoading X86_64/freebsd/image1/kernel:0x100000/8252680 0x8ded08/1275584 Entry at 0x801582e0Loading X86_64/freebsd/image1/platform.ko:0xa17000/613472 0xb49908/638088 0xaacc60/38888 0xbe5590/41184 0xab6448/80684 0xac9f74/61528 0xad8fe0/132480 0xbef670/148824 0xaf9560/1560 0xc13bc8/4680 0xaf9b78/288 0xc14e10/864 0xaf9c98/1656 0xc15170/4968 0xafa310/960 0xc164d8/2880 0xafa6d0/184 0xc17018/552 0xafa7a0/448 0xb22ae0/12458 0xb49816/237 0xb25b90/80184 0xb394c8/66382Starting program at 0x801582e0NetApp Data ONTAP 8.1.1 7-Mode

Lorsque le contrôleur a démarré, le message est bien visible

Nov 28 13:12:21 [localhost:cf.fm.partner:info]: Failover monitor: partner 'LPNPAMELA'Nov 28 13:12:21 [localhost:ha.partner.dbladeId:debug]: D-blade ID of the partner node is 9142dd39-297f-11e2-a5fb-bb32296412af.Nov 28 13:12:22 [localhost:netif.linkDown:info]: Ethernet e1a: Link down, check cable.Nov 28 13:12:22 [localhost:netif.linkDown:info]: Ethernet e1b: Link down, check cable.Nov 28 13:12:24 [localhost:shelf.config.mpha:info]: All attached storage on the system is multi-pathed HA.Waiting for giveback...(Press Ctrl-C to abort wait)

Relancer la commande cf status sur le contôleur actifLPNPAMELA(takeover)> cf statusLPNPAMELA has taken over LPNPAMELA2.LPNPAMELA2 is ready for giveback.Takeover due to negotiated failover, reason: operator initiated cf takeoverLPNPAMELA(takeover)>

Ce message signifie que le retour en arrière est possible. Un arrêt de production (arrêt d'utilisation des partages CIFS) est conseillé, si une activité « cifs » est détecté par le filer (fichier ouvert par exemple), la bascule ne se fera pas. Le seul moyen est de la forcer en rajoutantl’option –f.

Page 24: 15/12/2014 V1.1 F.POYER Ajout

Le retour en arrière s'exécute depuis le contrôleur « vivant » par la commande :cf giveback

Le retour dure environ 20 secondes, à l'issue valider l’état normal du cluster.

Ou bien depuis OnCommand System Manager, cliquer sur le bouton giveback

Page 25: 15/12/2014 V1.1 F.POYER Ajout

7. La configuration du protocole iSCSI

Le protocole iSCSI permet de transmettre une requête SCSI sur Ethernet TCP/IP. Le volume (LUN)mis à disposition par le filer sera accéder par le host en mode block et sera vu comme un disque local.

Le service iSCSI est activé par une licence, puis configuré à l’aide de fichiers et d’options.

L’activation du service ISCSI s’effectue à l’aide de la commande suivante :options iscsi.enable on

7.1. Démarrage et arrêt du service iSCSI7.1.1. En ligne de commande

Une fois la licence iSCSI activée sur un Contrôleur, il suffit pour démarrer ce service d’utiliser lacommande suivante :

iscsi start

Pour arrêter le service iSCSI sur un Contrôleur, utilisez la commande suivante :iscsi stop

Pour connaître l’état du service iSCSI, on dispose de la commande :iscsi status

7.1.2. Depuis OnCommand System ManagerAller dans configuration – protocols – iSCSI, puis cliquer sur start / stop

7.2. Identification de la target iSCSISur un SAN iSCSI, les différents nœuds du SAN sont identifiés par une des trois possibilités suivantes:iSCSI Qualified Name (IQN)Extended Unique Identifier (EUI) Format: eui.{EUI-64 bit address}T11 Network Address Authority (NAA)

Convention de nommage des IQN :le format d’un nom iqn est le suivant iqn.yyyy-mm.{reversed domain name} :identifiant. L’identifiant varie suivant les constructeurs.

7.2.1. En ligne de commande

Page 26: 15/12/2014 V1.1 F.POYER Ajout

On dispose de la commande iscsi nodename pour lister l’iqn identifiant le contrôleur. On peut modifier l’iqn ou spécifier un alias via la commande iscsi alias.

Les iqn générés par les contrôleurs sont les suivants : LPNPAMELA : iqn.1992-08.com.netapp:sn.1887315681 LPNPAMELA2 : iqn.1992-08.com.netapp:sn.1887322454

7.2.2. Depuis OnCommand System ManagerAller dans configuration – protocols – iSCSI l’information est disponible depuis l’onglet service

7.3. Configuration des interfacesPar défaut le protocole iSCSI est activé par toutes les interfaces réseau du filer.

7.3.1. En ligne de commandeLes commandes pour administrer les interfaces iSCSI est la suivant :

iscsi interface show pour afficher l’état des interfaces réseau.

iscsi interface enable <interface> pour activer iscsi sur une interface réseau.

iscsi interface disable <interface> pour désactiver iscsi sur une interface réseau.

Nous avons désactivé le protocole iSCSI sur l’interface CIFS-A et CIFS-B (utilisé pour CIFS) de chaque contrôleur sur le site Toulouse :

7.3.2. Depuis OnCommand System ManagerAller dans configuration – protocols – iSCSI, sélectionner l’interface sur laquelle il faut activer/ désactiver le protocole puis cliquer sur enable

Page 27: 15/12/2014 V1.1 F.POYER Ajout

7.4. Lister les initiateurs connectés en iSCSI7.4.1. En ligne de commande

Pour lister les serveurs qui se sont enregistrés sur le contrôleur, on dispose de la commandeiscsi initiator show

7.4.2. Depuis OnCommand System ManagerAller dans configuration – protocols – iSCSI, puis dans l’onglet initiator security

7.5. Connexion iSCSI depuis un serveur WindowsRappel, il est nécessaire de configurer des interfaces réseaux dédiées au réseau iSCSI

Ajouter la fonctionnalité MPIO sur le serveur

Page 28: 15/12/2014 V1.1 F.POYER Ajout

Configurer ensuite l’initiateur iSCSI microsoft, cliquer sur oui pour activer le service

Depuis l’onglet decouverte cliquer sur découvrir un portail

Page 29: 15/12/2014 V1.1 F.POYER Ajout

Renseigner alors l’adresse IP du premier contôleur puis cliquer sur le bouton avancé

Page 30: 15/12/2014 V1.1 F.POYER Ajout

Sélectionner initiateur microsoft iSCSI puis l’adresse IP qui va se connecter

Une fois la connexion faite, sur le contrôleur on peut voir la connexion se faire

LPNPAMELA> Wed NovWed Nov 28 14:27:49 C 28 14:ET [LPNPAMELA:iscsi.notice:notice]: ISCSI: New session from initiator iqn.1991-05.com.microsoft:s47telec771.commun.ad.sncf.fr at IP addr 10.8.236.8527:49 CET [LPNPAMELA:iscsi.notice:notice]: ISCSI: New session from initiator iqn.1991-05.com.microsoft:s47telec771.commun.ad.sncf.fr at IP addr 10.8.236.85

Sur le serveur, aller ensuite dans la configuration MPIO. Dans l’onglet découvrir plusieurschemins cocher la case ajouter la prise en charge des périphériques iSCSI

Attention, cette option n’est disponible que si un disque est mappé sur le serveur

Page 31: 15/12/2014 V1.1 F.POYER Ajout

Cliquer ensuite sur ajouter. Attention un redémarrage est nécessaire

Après redémarrage, le type MSFT2005iSCSIBusType_0x9 apparait dans la liste despériphériques MPIO

Page 32: 15/12/2014 V1.1 F.POYER Ajout

Démarrer à nouveau l’outil de gestion de l’initiateur iSCSI, puis cliquer sur connexion dansl’onglet cibles

Page 33: 15/12/2014 V1.1 F.POYER Ajout

Cocher la case activer la prise en charge de plusieurs chemins d’accès et cliquer sur avancés

Sélectionner l’adaptateur iSCSI microsoft, l’adresse IP de connexion du serveur puis l’adresse IPdu contrôleur

Page 34: 15/12/2014 V1.1 F.POYER Ajout

Une fois la connexion effectuée, analyser les disques sur le serveur. Un nouveau volume estmaintenant disponible

Page 35: 15/12/2014 V1.1 F.POYER Ajout

8. La configuration du protocole NFS

8.1. Options de configuration du protocole NFSLe service de fichier NFS est activé par une licence, puis configuré à l’aide de fichiers et d’optionsde DOT. Le nom de ces options commence par « nfs. »

Voici la signification des options les plus couramment utilisées : nfs.access : Spécifie la liste des serveurs pouvant accéder en NFS au contrôleur, positionné à

* par défaut, il peut aussi contenir la liste exhaustive des serveurs ayant accès aux ressourcesdu contrôleur exportées par NFS.

nfs.mount_rootonly : Option activée (valeur on) qui permet de limiter les accès NFS auxcomptes root des machines habilitées à accéder par NFS au système de fichier

nfs.mountd.trace : Option activée (valeur on) qui permet de logger les montages deressources

nfs.per_client_stats.enable : Option activée (valeur on) qui permet l’activation des tracesNFS par « client ». Ces traces sont au format nfsstat.

nfs.tcp.enable : Option activée (valeur on) qui permet l’utilisation du protocole NFS au-dessus de TCP.

nfs.udp.enable : Option activée (valeur on) qui permet l’utilisation du protocole NFS au-dessus de UDP.

nfs.v3.enable : Option activée (valeur on) qui permet l’utilisation de la version 3 duprotocole NFS

nfs.v4.enable : Option désactivée (valeur off) qui interdit l’utilisation de la version 4 duprotocole NFS. Cette option pourra être modifiée ultérieurement pour autoriser l’utilisationde NFS v4 lorsque des postes clients utiliseront cette version du protocole NFS. L’utilisationdes protocoles NFS v3 et v4 peut se faire en simultané sur un contrôleur, c’est le client quidétermine au niveau des options de montages la version du protocole NFS qu’il souhaiteutiliser.

Liste des options :lpnpamela2> options nfsnfs.acache.persistence.enabled on (value might be overwritten in takeover)nfs.always.deny.truncate on (value might be overwritten in takeover)nfs.assist.queue.limit 40 (value might be overwritten in takeover)nfs.export.allow_provisional_access on (value might be overwritten in takeover)nfs.export.auto-update on (value might be overwritten in takeover)nfs.export.exportfs_comment_on_delete on (value might be overwritten in takeover)nfs.export.harvest.timeout 1800 (value might be overwritten in takeover)nfs.export.neg.timeout 3600 (value might be overwritten in takeover)nfs.export.pos.timeout 36000 (value might be overwritten in takeover)nfs.export.resolve.timeout 6 (value might be overwritten in takeover)nfs.hide_snapshot offnfs.ifc.rcv.high 66340nfs.ifc.rcv.low 33170nfs.ifc.xmt.high 16nfs.ifc.xmt.low 8nfs.ipv6.enable offnfs.kerberos.enable offnfs.locking.check_domain on (value might be overwritten in takeover)nfs.max_num_aux_groups 32nfs.mount_rootonly onnfs.mountd.trace offnfs.netgroup.strict offnfs.nfs_rootonly off (value might be overwritten in takeover)nfs.notify.carryover onnfs.ntacl_display_permissive_perms off (value might be overwritten in takeover)nfs.per_client_stats.enable offnfs.require_valid_mapped_uid offnfs.response.trace off (value might be overwritten in takeover)

Page 36: 15/12/2014 V1.1 F.POYER Ajout

nfs.response.trigger 60 (value might be overwritten in takeover)nfs.rpcsec.ctx.high 0nfs.rpcsec.ctx.idle 360nfs.rpcsec.trace off (value might be overwritten in takeover)nfs.tcp.enable onnfs.thin_prov.ejuke off (value might be overwritten in takeover)nfs.udp.enable onnfs.udp.xfersize 32768 (value might be overwritten in takeover)nfs.v2.df_2gb_lim off (value might be overwritten in takeover)nfs.v2.enable on (value might be overwritten in takeover)nfs.v3.enable on (value might be overwritten in takeover)nfs.v4.acl.enable off (value might be overwritten in takeover)nfs.v4.enable off (value might be overwritten in takeover)nfs.v4.id.allow_numerics onnfs.v4.id.domainnfs.v4.read_delegation off (value might be overwritten in takeover)nfs.v4.write_delegation off (value might be overwritten in takeover)nfs.vstorage.enable off (value might be overwritten in takeover)nfs.webnfs.enable offnfs.webnfs.rootdir XXXnfs.webnfs.rootdir.set off

8.2. Démarrage du service NFSUne fois la licence NFS activée sur un Contrôleur, il suffit pour activer ce service d’utiliser lacommande suivante :

nfs on

8.3. Arrêt du service NFSPour arrêter le service NFS sur un Contrôleur, utilisez la commande suivante :

nfs off

8.4. Accès client sous UnixLes clients Unix accéderont à ces partages NFS en faisant références aux alias définis dans lesservices des résolutions de noms (DNS, …). Dans le cas où il n’y a pas de serveur DNS, les clientsUnix peuvent être déclarés dans le fichier /etc/hosts du contrôleur.

8.5. Définition des exports NFSLa configuration NFS est des plus classiques, la définition des exports se fait dans le fichier/etc/exports du contrôleur. La commande NetApp qui permet d’exporter un File System estexportfs.

Pour avoir plus de détails sur ce point, il suffit de consulter sur un contrôleur le résultat descommandes suivantes :

man exportfsman na_exportfs

Les lignes du fichier /etc/exports sont de la forme pathname -option[,option ]oupathname : chemin d’accès au fichier ou au répertoire qui doit être exportéoption : les options qui spécifient comment le fichier où le répertoire sera exporté

On peut spécifier les options dans l’un des formats suivants : actual=path anon=uid|name nosuid ro | ro=hostname[:hostname]...

Page 37: 15/12/2014 V1.1 F.POYER Ajout

rw | rw=hostname[:hostname]... root=hostname[:hostname]... sec=secflavor[:secflavor]...The supported security flavors are: sys, krb5, krb5i et krb5p

Un hostname est décrit sour la forme suivante[-][machine name|netgroup|machine IP|subnet|DNS domain]Le caractère « - » permet d’interdire l’accès a un hostname spécifique.

Explication des règles d’interprétation pour l’utilisation des options –ro et –rw :Les options ro et rw, interagissent. La configuration de ces options doit se faire de manière précise.-rw est le parametre par défaut si -ro, -ro=, -rw, et -rw= ne sont pas présents. Si seulement -rw= estprésent, ro n’est pas le parametre par défaut pour tous les autres hosts. La position des options –rw,-rw=, -ro et –ro= dans la ligne n’a pas d’importance.

Les options configurées de la façon suivante sont incorrectes :-ro,ro=-rw,rw=-ro=A,rw=A-ro=A,rw=-A-ro=-A,rw=AL’option –ro est prioritaire sur –rwL’option –ro= est prioritaire sur –rwL’option –rw= est prioritaire sur –roL’option –ro= est prioritaire sur –rw=Un nom de host spécifique donné dans l’options –ro= ou –rw= est prioritaire sur un type d’accèsdéfini par groupe.

Manipulation des exports NFSLes exports NFS d’un contrôleur sont gérés de manière standard à l’aide du fichier /etc/exportsaccessible par NFS depuis une station d’administration et sont activés par la commande

exportfsIls peuvent aussi être gérés à l’aide de la ligne de commande ou de Oncommand System Manager.

La commande de gestion des exports NFS est la suivante :exportfs [ -p] [ -o options ] [ pathname ]

Liste des options : -p : met à jour le fichier /etc/exports et rend persistent les changements indiqués. -o options : indique les options de partage. pathname : le chemin auquel s’applique la commande. De nombreuses autres options sont utilisables avec la commande exportfs. Merci de vous

reporter à la documentation DOT pour de plus amples renseignements. Pour retirer un export, aller dans le sous-menu NFS _ Manage Exports, cocher les exports à

supprimer puis cliquer sur Delete.

8.6. Sécurité des volumes ou qtrees exportés

Page 38: 15/12/2014 V1.1 F.POYER Ajout

Le type des sécurités d’accés sont gérés au niveau du volume ou du qtree. On dispose de trois typesunix, ntfs, mixed.

8.6.1. Type de sécurité appliqué aux QTree et aux volumesLa commande de gestion de la sécurité est la suivante :qtree security nom_qtree [unix|ntfs|mixed]

Pour changer la sécurité d’un qTree, appliquer la procédure suivante (dans l’exemple, le qTreeqtreetest passe d’une sécurité unix à ntfs) :Vérifier la sécurité actuelle du qTree avec un qtree security ou qtree status

lpnpamelatmp1> qtree security /vol/volwindows/vol/volwindows/ has ntfs security style and oplocks are enabled.

lpnpamelatmp1> qtree statusVolume Tree Style Oplocks Status-------- -------- ----- -------- ---------vol0 unix enabled normalvolwindows ntfs enabled normalvolwindows administration ntfs enabled normalvolwindows electronique ntfs enabled normalvolwindows informatique ntfs enabled normalvolwindows mecanique ntfs enabled normalvolwindows projetscommuns ntfs enabled normalvolwindows recherche ntfs enabled normalvolwindows sgeneraux ntfs enabled normalvolunix unix enabled normalvolunix home unix enabled normaltest ntfs enabled normaltest5 ntfs enabled normal

8.6.2. Modifier la sécurité.san2-ctrl1du*> qtree security /vol/volFC_test/nfs/vol/volFC_test/nfs has unix security style and oplocks are enabled.san2-ctrl1du*>Vérifier la sécurité du qTree après le changement.san2-ctrl1du*> qtree security /vol/volFC_test/nfs ntfsWed Mar 18 09:36:25 CET [san2-ctrl1du: wafl.quota.sec.change:notice]: security style for/vol/volFC_test/nfs changed from unix to ntfs

9. La configuration du protocole CIFS

Page 39: 15/12/2014 V1.1 F.POYER Ajout

9.1. Options de configuration du protocole CIFS9.1.1. En ligne de commande

Le service de fichiers CIFS est activé par une licence, puis configuré à l’aide de la commande « cifs setup ».Le service CIFS a été paramétré pour rejoindre le domaine Active Directory sur les 2 contrôleursdu site TTR.

9.1.2. Depuis OnCommand System ManagerAller dans configuration – protocols – CIFS puis cliquer le bouton setup

9.2. Démarrage et arrêt du protocole CIFSUne fois la licence CIFS activée sur un Contrôleur, puis l’exécution du « cifs setup », il suffit pour démarrer ce service d’utiliser la commande suivante :

cifs restart

Pour arrêter le service CIFS sur un Contrôleur, utilisez la commande suivante :cifs terminate

Attention par défaut, le temps de fin de session CIFS est de 5 minutes, durant lequel une fenêtre d’affichage apparaît sur les postes clients à intervalle d’une minute, leur indiquant la fin de la session dans les x minutes (seulement si le ‘win popup’ est correctement configuré sur ces postesclients) ; pour ne pas attendre ces 5 minutes, il faut spécifier l’option ‘-t 0’.

Pour connaître l’état du service CIFS, on dispose de la commande :cifs shares

Cette commande permet d’afficher les partages créés sur le contrôleur.

Depuis l’interface graphique, cliquer sur start / stop

9.3. Définition du partage CIFSAfin de rendre accessible les ressources aux clients, il est nécessaire de les partager.

Page 40: 15/12/2014 V1.1 F.POYER Ajout

9.3.1. En ligne de commandeLa commande qui permet de créer un partage est la suivante :

cifs shares –add sharename /vol/volname/qtreename

9.3.2. Depuis OnCommand System ManagerAller dans storage – shares puis cliquer sur create, sélectionner ensuite l’agrégat, puis le volume, puis le qtree à partager

L’administration de ce volume s’effectuera à l’aide de 3 outils d’un poste Windows : La MMC gestion de l’ordinateur, qui permettra de créer les différents partages. L’explorateur Windows qui permettra de gérer les droits NTFS dans les différentes

arborescences. L’outil OnCommand System Manager via le bouton edit

Les permissions sur le partage peuvent être gérées par un poste d’administration Windows ou à l’aide de la commande « cifs access ».

cifs access <share> [-g] <user|group> <rights>cifs access -delete <share> [-g] <user|group>rights can be Unix-style combinations of r w x - or NT-style "No Access", "Read", "Change", and"Full Control"

10.La configuration de Vscan

Page 41: 15/12/2014 V1.1 F.POYER Ajout

L’activation et la désactivation s’effectue à l’aide de la commande :vscan on | off

Ensuite il faut indiquer au contrôleur, l’adresse IP du serveur anti-virus, à l’aide de la commande :vscan scanners adr_ip

Pour afficher la configuration et les statistiques sur le nombre de fichiers scannés, utiliser la commande :

vscan

11.La gestion physique du stockage

Page 42: 15/12/2014 V1.1 F.POYER Ajout

11.1. PrésentationTrois types de disques supportés :

FC (Fiber Channel). SATA. SAS.

Le système de stockage NetApp supporte seulement des disques qualifiés par NetApp. Si vous essayez d’utiliser un disque non qualifié, le système attendra un délai de 72 heures pour que vous remplaciez le disque avant d’arrêter le système.

Un disque est repéré pour les tiroirs fibre par un nombre qui est une combinaison Loop_ID.device_ID. Le Loop_ID est le numéro d’adaptateur utilisé sur le contrôleur (par exemple 3a). Le device_ID est le résultat de : (numéro ID tiroir * 16) + emplacement dans le tiroir. L’emplacement commence par 0 (à gauche du tiroir).

Un disque peut être un : Un disque de données. Un disque de spare. Un disque de parité utilisé par le RAID 4 ou RAID-DP. Un disque de double parité utilisé par le RAID-DP. Un disque partner (c'est-à-dire géré par l’autre contrôleur). Un disque sans propriétaire.

NetApp supporte deux types de RAID : RAID 4. RAID-DP.

En fonction du type de RAID choisi et du type de disque utilisé, le RAID group Size sera le suivant :

RAID 4 :NetApp plate forme Minimum

group sizeMaximumgroup size

Defaultgroup size

Storage system with SATA disk 2 7 7Storage system with FC/SAS disk 2 14 8

RAID-DP : NetApp plate forme Minimum

group sizeMaximumgroup size

Defaultgroup size

Storage system with SATA disk 3 16 14Storage system with FC/SAS disk 3 28 16

Les commandes suivantes permettent d’afficher des informations sur la configuration :Sysconfig –d et storage show disk permettent d’afficher des informations sur les disques.Sysconfig –r permet d’afficher des informations sur la configuration RAID.

Un disque de spare devra absolument être réservé (NetApp recommande 2) ; par défaut un disque inutilisé devient disque de spare.Le disque de spare remplacera automatiquement un disque en panne sans intervention humaine.

Page 43: 15/12/2014 V1.1 F.POYER Ajout

Pour gagner du temps lors de l’utilisation du disque de spare, il est fortement conseillé de passer la commande suivante sur le ou les disques de spare :

disk zero sparesLa commande disk permet d’effectuer un certain nombre de tâches au niveau des disques.

Pour assigner un disque à un contrôleur, utiliser la commande disk assign ‘id du disque’.

La commande disk show –n permet d’afficher les disques non assignés à un contrôleur.

11.2. Les agrégatsUn agrégat représente le stockage physique :

Il est constitué d’un ou plusieurs RAID groups. Un RAID groups est constitué d’un ou plusieurs disques de données.

Lorsqu’un agrégat est créé, automatiquement de l’espace est alloué par le système : 10% pour le système de fichiers (WAFL) de la baie. 5% pour les snapshot.

Un agrégat contiendra un ou plusieurs volumes.

La commande permettant de créer un agrégat est la suivante :aggr create

Exemples :Aggr create mon_agregat 24 : crée un agrégat appelé mon_agregat avec 24 disks en utilisant les paramètres par défaut (raid-dp, un raid-group de 16 disques et un second de 8 disques donc 4 disques de parité).Aggr create mon_agregat –r 28 24 : crée un agrégat appelé mon_agregat avec 24 disks en utilisant les paramètres (raid-dp, définition d’un raid group de 28 disques, 2 disques de parité).

A partir de la version Data Ontap 8.0, il est possible de gérer des agrégats 32 bits (taille jusqu’à 16 To) et 64 bits. Il suffit lors de la création de l’aggrégat de préciser à l’aide de l’argument –B 32|64.

Pour ajouter un disque à un agrégat existant, utiliser la commande suivante :aggr add ‘aggrname’ –d ’disk id’

La commande permettant de supprimer un agrégat est la suivante :aggr destroy

Avant de supprimer l’agrégat, il sera nécessaire de le mettre offline en utilisant la commande :aggr offline

Par défaut 5% de l’espace est réservé aux snapshot.La commande qui permet d’arrêter les snapshot est la suivante :

aggr options ‘aggrname’ nosnap on

La commande qui permet de ne plus avoir d’espace réservé pour les snapshot est la suivante :snap reserve –A ‘aggrname’ 0

La commande aggr show_space affiche des informations sur l’espace disque.

Page 44: 15/12/2014 V1.1 F.POYER Ajout

Pour modifier le raidsize d’un agrégat, taper la commande suivante :aggr options ‘aggrname’ raidsize 28 (pour un maximum de 28 disques)

Ces options sont disponibles depuis l’interface graphique dans storage – aggregate

11.3. Configuration finaleSur le site de Toulouse, un seul agrégat est utilisé sur chaque contrôleur.

La configuration du contrôleur 1 est la suivante :

La configuration du contrôleur 2 est la suivante :

Page 45: 15/12/2014 V1.1 F.POYER Ajout

12.La gestion logique du stockage

Page 46: 15/12/2014 V1.1 F.POYER Ajout

12.1. Les volumesLe contrôleur contient un volume racine qui a été créé quand le système a été initialisé ; le nom par défaut est /vol/vol0. Ce volume contient le dossier /etc qui est utilisé au démarrage du contrôleur.

Les volumes sont accessibles via les protocoles supportés (FCP, ISCSI, NFS, CIFS…).

La commande permettant la gestion des volumes en ligne de commandes est vol.

La création d’un volume s’effectue à l’aide de la commande suivante :vol create nom_vol nom_aggr taille (20g par exemple)

La destruction d’un volume s’effectue en 2 étapes ; il est nécessaire de passer le volume offline avant de pouvoir le détruire :

vol offline nom_volvol destroy nom_vol

Par défaut 20% de l’espace est réservé aux snapshot.La commande qui permet d’arrêter les snapshot est la suivante :

vol options ‘volname’ nosnap on

La commande qui permet de ne plus avoir d’espace réservé pour les snapshot est la suivante :snap reserve ‘volname’ 0

12.2. Les QtreesUn Qtree est un répertoire spécial créé à la racine du volume.Il permet deux choses :

Partitionner les données à l’intérieur du volume. Gérer les quotas.

Il peut être nécessaire de créer des Qtrees lors d’utilisation de différents produits NetApp (par exemple Snapvault).Dans la configuration actuelle, il n’est pas nécessaire de créer de Qtrees mais nous suivront les préconisations NetApp.

La création d’un Qtree s’effectue avec la commande suivante :qtree create /vol/nom_vol/nom_qtree

Pour supprimer un qtree, il est nécessaire de passer la console en mode avancé, puis de détruire le qtree ; les commandes à effectuer sont les suivantes :

priv set advancedqtree delete /vol/nom_vol/nom_qtree

priv set admin

Pour chaque qtree, nous préciserons si c’est pour une utilisation de type Unix (NFS) ou NTFS (CIFS) ; cela s’effectue à l’aide de la commande :

qtree security /vol/volname/qtreename unix|ntfs|mixed

Ces options sont disponibles depuis l’interface graphique OnCommand System Manager dans storage - qtree

Page 47: 15/12/2014 V1.1 F.POYER Ajout

12.3. Les LUN’sUne LUN peut être créée dans un volume ou un Qtree.Afin de connaître la taille maximale que l’on peut donner à une LUN dans un volume ou un Qtree, il existe une commande :

lun maxsize /vol/nom_vol ou /vol/nom_vol/nom_qtree

La commande qui permet de créer une LUN est la suivante :lun create –s size –t ostype /vol/nom_vol/nom_qtree/nom_lun

oùsize correspondra à la taille en précisant m (Mo), g (Go) ou t (To); par exemple 20gostype correspondra au système d’exploitation ayant accès à cette LUN ; ostype peut avoir les valeurs suivantes :

Solaris, Solaris_efi, hpux, aix, linux, netware, vmware, openvms, xen, windows, windows_gpt, windows_2008 ou hyper_v.

La commande lun show permet d’afficher les informations sur les LUN.

La destruction d’une LUN s’effectue en 2 étapes ; il est nécessaire de passer la LUN offline avant de pouvoir le détruire :

lun offline /vol/nom_vol/nom_qtree/nom_lunlun destroy /vol/nom_vol/nom_qtree/nom_lun

Ces options sont disponibles depuis l’interface graphique OnCommand System Manager dans storage – LUNs

12.4. Les IgroupAfin de pouvoir donner accès à la LUN à un ou plusieurs serveurs, il est nécessaire de créer un igroup.Un igroup contiendra soit des iqn (protocole ISCSI) ou des WWPN (protocole FCP).

Page 48: 15/12/2014 V1.1 F.POYER Ajout

La commande qui permet de créer un igroup est la suivante :igroup create {–i | -f} –t ostype nom_igroup node, node…

où i indiquera l’utilisation d’un igroup ISCSIf indiquera l’utilisation d’un igroup FCPostype indiquera le type d’OS : solaris, windows, hpux, aix, linux, netware, vmwarenode correspondra à un iqn ou un WWPN

La commande igroup show affiche les informations concernant les igroup.

Il est possible de configurer les iGoup depuis l’interface graphique dans storage – LUNs dans l’onglet initiator groups

Une fois les LUN créées, et les igroup renseignés, la dernière étape consiste à mapper la LUN à l’igroup afin de donner accès à celle-ci au serveur.

La commande qui permet de faire cela est la suivante :lun map /vol/nom_vol/nom_qtree/nom_lun nom_igroup lun_id

Pour vérifier le mappage, taper la commande lun show –m.

Pour supprimer le mappage d’une LUN, utiliser la commande lun unmap.

Depuis l’interface graphique, sélectionner un LUN puis cliquer sur edit et aller dans l’onglet initiator groups

Page 49: 15/12/2014 V1.1 F.POYER Ajout

13.La gestion des Quotas

Page 50: 15/12/2014 V1.1 F.POYER Ajout

L’administration des quotas s’effectue via la commande ‘quota’. Un quota peut être posé sur un qtree, un utilisateur ou sur un groupe.

La commande quota dispose des options suivantes :

Le démarrage des quotas s’effectue à l’aide de la commande suivante :quota on ‘volname’

Les quotas sont activés sur le volume passé en option en se basant sur les entrées du fichier /etc/quotas. La modification du fichier /etc/quotas ne prendront effet que lors d’un ‘quota on’ ou un‘quota resize’.

La configuration des quotas est inscrite dans le fichier /etc/quotas ; une ligne sera de la formequota_target type disk files thold sdisk sfileOùquota_target : définit à quelle entité se rapport l’entée type. Par exemple si l’entrée type sur la

même ligne définit les utilisateurs, l’entrée target devra définir le nom de l’utilisateur.type : définit le type auquel s’applique le quota. Les types sont ‘windows users’ ou ‘unix

users’, ‘unix group’ ou ‘qtree’.disk : définit la limite hard de l’espace disque alloué.files : définit la limite hard du nombre de fichiers.thold : définit le niveau d’alerte à partir duquel sera généré un message d’attention.sdisk : définit la limite soft pour l’occupation disque. Le dépassement de cette limite

génère un message d’avertissement.sfile : définit une limite soft pour le nombre de fichiers.

Exemple de quotas :Dans l’exemple ci-dessous, un quota utilisateur est défini au niveau de la racine du volume et sur unqtree de ce volume. Si un utilisateur atteint la limite autorisé en écrivant à la racine du volume, il ne pourra pas écrire dans le qtree :* user@/vol/vol1 500m 30k 400m - -

L’exemple ci-dessous définit un quota disque de 1 Go pour le groupe ‘groupe1’ pour le volume export :groupe1 group@/vol/export 1g - - - -

L’exemple ci-dessous définit des quotas pour chaque qtree inclus dans le volume vol1. Les limites hard sont de 10 Go pour l’espace disque et d’un million pour le nombre de fichiers. Des messages d’avertissement seront affichés pour un espace occupé de 7 Go ou lorsque le nombre de 500000 fichiers sera atteint :* tree@/vol/vol1 10g 1m 7g - 500k

L’arrêt des quotas s’effectue à l’aide de la commande :

Page 51: 15/12/2014 V1.1 F.POYER Ajout

quota off

La reconfiguration des quotas s’effectue à l’aide de la commande :quota resize ‘volname’

La commande ‘quota resize’ a pour effet de prendre en compte les modifications du fichier /etc/quota pour le volume passé en option. La commande ‘quota resize’ n’entraine pas un rescan du système de fichiers pour recalculer les quotas.

Pour afficher l’état des quotas, utiliser la commande suivante :quota status

Pour afficher un rapport d’utilisation, utiliser la commande suivante :quota report

La gestion des quotas peut être effectué depuis l’interface graphique dans storage – quotas

14.La gestion des utilisateurs

14.1. La commande useradmin

Page 52: 15/12/2014 V1.1 F.POYER Ajout

Pour manipuler les comptes d’un contrôleur, on dispose de la commande ‘useradmin’ utilisable avec les syntaxes suivantes :

useradmin user add ‘login_name’ useradmin user delete ‘login_name’ useradmin user modify ‘login_name’ useradmin user list

La commande permet de gérer aussi les groupes, les rôles :

Les rôles permettent d’attribuer des droits d’administration sur toute ou une partie des fonctionsdu contrôleur.

Un groupe contient un ou plusieurs rôles.

Page 53: 15/12/2014 V1.1 F.POYER Ajout

14.2. Lister les comptes existantPour lister les comptes existants sur un contrôleur, utiliser la commande :

useradmin user list

Pour lister les groupes existants sur un contrôleur, utiliser la commande :useradmin group list

Pour lister les rôles existants sur un contrôleur, utiliser la commande :useradmin role list

Page 54: 15/12/2014 V1.1 F.POYER Ajout

La gestion des utilisateurs peut être effectuée depuis l’interface graphique dans configuration – local users and groups

14.3. Changer le mot de passe d’un utilisateurIl est possible de modifier le mot de passe d’un utilisateur à l’aide de la commande ‘passwd’. Ilest alors demandé de spécifier :

Le login du compte à modifier. L’ancien mot de passe. Le nouveau mot de passe à préciser à 2 reprises.

Sélectionner l’utilisateur puis cliquer sur set password dans l’interface graphique

En cas de modification du mot de passe temporairement, il faut modifier l’optionsecurity.passwd.rules.history et passer le paramètre à 0 sinon le système mémorise les 6derniers mots de passe et empêchera l’utilisation d’un mot de passe déjà enregistré dans samémoire.

15.La gestion des Snapshots

Pour vérifier la taille des snapshots, utiliser la commande suivante :snap list

Page 55: 15/12/2014 V1.1 F.POYER Ajout

Pour supprimer un snapshot, utiliser la commande suivante :snap delete ‘vol_name’ ‘snapshot_name’

Pour créer un snapshot, utiliser la commande suivante :snap create ‘vol_name’ ‘snapshot_name’

Pour vérifier la taille réservée des snapshots, utiliser la commande suivante :snap reserve

Pour modifier la taille réservée d’un snapshot, utiliser la commande suivante :snap reserve ‘vol_name’ ‘pourcentage’

Pour vérifier les heures de création des snapshots, utiliser la commande suivante :snap sched

Pour définir les heures de création des snapshots, utiliser la commande suivante :snap sched weeks days hours@list

Le champ weeks définit le nombre de snapshots hebdomadaires conserves. Ces snapshots sont créésle dimanche à 0h.

Le champ days définit le nombre de snapshots quotidiens conservés. Ces snapshots sont créés tous les jours à 0h.

Le champ hours définit le nombre de snapshots horaires conservés. Ces snapshots sont créés aux heures définies par list.

Il est très important de surveiller l’espace consommé par les snapshots pour éviter de saturer un volume et de bloquer les écritures.

Depuis l’interface graphique, aller dans storage – volume puis sélectionner un volume et cliquer sur le bouton snapshot copies

16.La configuration de la déduplication

La déduplication est une fonction permettant de réduire l’espace occupé sur un volume flexible.Le processus de déduplication fonctionne en arrière-plan avec une priorité basse et n’empêche pas le système d’effectuer d’autres opérations en même temps. La vitesse de déduplication dépend de nombreux facteurs (type de système, charge, nombre de disques…), en moyenne 100 Mo/s.

Page 56: 15/12/2014 V1.1 F.POYER Ajout

Le volume système ne peut pas être dédupliqué.

16.1. Configuration de la fonction A_SISLa fonction doit être activée par une licence (a_sis) et dépend d’une autre fonctionnalité « nearstore_option » soumise à licence.

Le nombre de processus de déduplication maximum est de 8 par contrôleur en même temps. Si plus de 8, les suivantes sont mises en attente.L’option qui permet de modifier le nombre de processus est la suivante :sis.max_vfiler_active_ops 8

16.2. Activation et désactivation de la fonction A_SISLe démarrage s’effectue en activant la déduplication sur le volume souhaité, par la commande suivante :

sis on /vol/‘volname’

Pour arrêter le service sur un volume, utiliser la commande suivante :sis off /vol/’volname’

Pour afficher l’état du service sur l’ensemble des volumes, taper la commande :sis status

16.3. Démarrage et arrêt de la déduplicationPour démarrer la déduplication sur un volume, taper la commande suivante :

sis start –s /vol/’volname’

Pour arrêter la déduplication sur un volume, taper la commande suivante :sis stop /vol/’volname’

16.4. Planification de la déduplicationLa tâche de déduplication peut être planifiée à heure fixe, avec la commande suivante :

sis config –s ’planning’ /vol/’volname’Où planning sera de la forme [hour_list]@[day_list] par exemple 23@sun-fri.

Pour vérifier les planifications, taper la commande sis config.

Depuis l’interface graphique, il faut éditer un volume pour accéder aux paramètres de déduplication appelé storage efficiency

Page 57: 15/12/2014 V1.1 F.POYER Ajout

Toujours dans la vue volume en sélectionnant un volume dé dupliqué, il est possible de voir l’espace sauvegardé dans l’onglet du bas storage efficiency

17.La vérification de l’état d’un contrôleur

A partir de l’outil System Manager, il est possible d’afficher des statistiques sous forme graphique de l’utilisation de chaque contrôleur (CPU, réseau, I/O disque…).

Page 58: 15/12/2014 V1.1 F.POYER Ajout

Ensuite il y a quelques commandes qui permettent de vérifier l’état du contrôleur : sysstat : permet d’avoir des informations sur l’utilisation

o du CPU,o du service NFS,o du service CIFS,o du service http,o des disques en lecture et écritureo …

ifstat : permet d’avoir des informations concernant les interfaces Ethernet.

netstat : permet d’avoir des informations sur la table de routage ainsi que le nombre de paquets reçu en lecture, en écriture ainsi que les paquets reçus avec erreur.

filestat : permet d’obtenir des statistiques sur l’usage des fichiers présents sur les volumes du contrôleur.

nfsstat : permet d’avoir des informations concernant la configuration NFS.

cifs stat : permet d’avoir des informations concernant la configuration CIFS.

sysconfig : permet de vérifier la configuration matérielle du contrôleur.

Page 59: 15/12/2014 V1.1 F.POYER Ajout

18.Multistore : Gestion des vFiler

18.1. Présentation de MultistoreMultistore permet de créer des machines virtuelles de stockage (vFiler – Virtual Filer) au sein d’un contrôleur NetApp physique (Filer).

Le vFiler fonctionne à la manière d’une machine virtuelle : c’est une entité virtualisée au sein du Filer.

Un vFiler possède les attributs suivants : un volume « root » pour le stockage des informations de configuration un nom propre un adressage IP propre

Un vFiler peut être intégré dans un domaine Active Directory différent d’un autre vFiler hébergé au sein du même contrôleur NetApp.

Un vFiler s’appuie évidemment sur les interfaces physiques, agrégations de liens ou VLAN du contrôleur NetApp physique (Filer).

Les protocoles de stockage supportés au sein d’un vFiler sont les suivants : CIFS NFS iSCSI FTP

18.2. Commandes vfilerLa commande pour interagir avec Multistore est la commande suivante :

vfiler

Page 60: 15/12/2014 V1.1 F.POYER Ajout

The following commands are available; for more informationtype "vfiler help <command>"add disallow migrate runallow dr move startcontext help remove statuscreate limit rename stopdestroy

vfiler help - Help for vfiler command. vfiler context - Set the vfiler context of the CLI. vfiler create - Create a new vfiler. vfiler rename - Rename an existing vfiler. vfiler destroy - Release vfiler resources. vfiler dr - Configure a vfiler for disaster recovery. vfiler add - Add resources to a vfiler. vfiler remove - Remove resources from a vfiler. vfiler migrate - Migrate a vfiler from a remote filer. vfiler move - Move resources between vfilers. vfiler start - Restart a stopped vfiler. vfiler stop - Stop a running vfiler. vfiler status - Provide status on vfiler configuration. vfiler run - Run a command on a vfiler. vfiler allow - Allow use of a protocol on a vfiler. vfiler disallow - Disallow use of a protocol on a vfiler. vfiler limit - Limit the number of vfilers that can be created.

Liste des options :

create : Créer un vfiler

destroy : Permet de détruire un viler et de libérer les ressources attribuées à celui-ci

rename : Renomme le vfiler

add: Ajoute des ressources à un vfiler (ip, volumes)

remove : Supprime une ressource d’un vfiler (ip, volume)

limit : Permet de changer le nombre maximum de vfiler sur un filer physique

move : Déplace un vfiler d’un contrôleur à un autre

start : Démarre un vfiler

stop : Arrête un vfiler

status : Affiche le status des vfiler

run : Permet de lancer une commande sur un vfiler sans entrer dans le contexte

allow : Active une fonctionnalité sur un vfiler (CIFS, NFS, iSCSI)

disallow : désactive une fonctionnalité

context : Permet de se connecter à un vfiler

dr : Configurer le vfiler en mode Disaster Recovery

Page 61: 15/12/2014 V1.1 F.POYER Ajout

migrate : Migre un vfiler d’un contrôleur NetApp physique à un autre (distant)

18.3. Création d’un vfilerCes commandes sont à effectuer sur le Filer physique.

La création d’un vFiler se fait en 3 étapes : Création d’au minimum 1 volume au préalable (celui qui hébergera la configuration du

vFiler) Création d’un IP Space (facultatif) Création du vFiler

La commande de création d’un vFiler est la suivante :

vfiler create vfilername [-n] [-s ipspace] -i ipaddr [-i ipaddr]... path [path ...]

L’IP Space est un espace d’IP qui permet au contrôleur NetApp de se repérer entre le routage de ses adresses IP et le routage des adresses IP du vFiler. La création est utile uniquement si la plage d’adresse IP du vFiler est différente du Filer NetApp.

Dans le contexte GMF, les vFiler utiliseront les mêmes plages IP que le Filer physique.

Exemple : création d’un vFiler VF_TEST avec comme volume root « vol_test » et adresse IP 1.1.1.1

NASSARA1> vfiler create VF_TEST -i 1.1.1.1 /vol/vol_testFri Nov 22 17:13:48 CET [NASSARA1:httpd.config.mime.missing:warning]: Fri Nov 22 17:13:49 CET [VF_TEST@NASSARA1:useradmin.added.deleted:info]: The role 'compliance' has been added.Fri Nov 22 17:13:50 CET [VF_TEST@NASSARA1:export.file.missing:warning]: Could not open '/etc/exports' for reading.The etc configuration directory for vfiler "VF_TEST" is /vol/vol_test/etc.

Setting up vfiler VF_TESTFri Nov 22 17:13:50 CET [VF_TEST@NASSARA1:cmds.vfiler.info:notice]: vFiler unit VF_TEST initialized.

Entrer l’adresse IP du vFiler :

Configure vfiler IP address 1.1.1.1? [y]: y

Enter l’interface support du vFiler :

Interface to assign this address to {e0b, e4b, e4c, e4d, c0a, c0b, e0M, ifgrp1}: ifgrp1

Entrer le masque de sous réseau

Netmask to use: [255.255.252.0]:

Entrer les informations sur l’hôte d’administration. En l’absence, tous les hôtes peuvent se connecter sur le vFiler

The administration host is given root access to the filer's /etc files for system administration. To allow /etc root access to all NFS clients enter RETURN below.Please enter the name or IP address of the administration host:

Activer la résolution DNS

Page 62: 15/12/2014 V1.1 F.POYER Ajout

Do you want to run DNS resolver? [n]: y

Entrer le nom de domaine DNS

Please enter DNS domain name []: test.test

Entrer les informations DNS

You may enter up to 3 nameserversPlease enter the IP address for first nameserver []: 3.3.3.3Do you want another nameserver? [n]: n

Activer ou désactiver le client NIS

Do you want to run NIS client? [n]:

Les informations sur l’interface support s’affichent

ifgrp1: flags=0x22f4c863<UP,BROADCAST,RUNNING,MULTICAST,TCPCKSUM> mtu 1500 inet 56.45.122.130 netmask 0xfffffc00 broadcast 56.45.123.255 inet 56.45.122.134 netmask 0xfffffc00 broadcast 56.45.123.255 partner ifgrp1 (not in use) ether 02:a0:98:40:d6:22 (Enabled interface groups) nfo enabled

Entrer le mot de passe « root »du vFiler :

Default password for root on vfiler VF_TEST is "".New password:Fri Nov 22 17:14:24 CET [VF_TEST@NASSARA1:useradmin.added.deleted:info]: Theuser 'root' has been added.

New password:Retype new password:Fri Nov 22 17:14:33 CET [VF_TEST@NASSARA1:passwd.changed:info]: passwd for user 'root' changed.Do you want to setup CIFS? [y]: nFri Nov 22 17:14:39 CET [NASSARA1:nbt.nbns.registrationComplete:info]: NBT: All CIFS name registrations have completed for the local server.

18.4. Statut des vfilerCes commandes sont à effectuer sur le Filer physique.L’affichage du statut des vFiler s’effectue avec la commande suivante :

vfiler status

Exemple : affichage du statut des vFiler de NASSARA1

NASSARA1> vfiler statusvfiler0 runningNASLEV01-VFILER01 stopped, DR backupNASSAR01-VFILER01 runningVF_TEST running

Note : le vfiler0 est le Filer NetApp physique.

18.5. Arrêt / démarrage d’un vfilerCes commandes sont à effectuer sur le Filer physique.L’arrêt d’un vFiler s’effectue avec la commande suivante :

vfiler stop

Le démarrage d’un vFiler s’effectue avec la commande suivante :

vfiler start

Page 63: 15/12/2014 V1.1 F.POYER Ajout

Exemples :Arrêt du vFiler VF_TEST

NASSARA1> vfiler stop VF_TESTVF_TEST stoppedNASSARA1> Fri Nov 22 17:21:43 CET [NASSARA1:vf.stopped:warning]: vfiler: 'VF_TEST'; stopped

Démarrage du vFiler VF_TEST

NASSARA1> vfiler start VF_TESTVF_TEST running

18.6. Protocoles autorisés / interditsCes commandes sont à effectuer sur le Filer physique.La commande suivante permet d’autoriser des protocoles :

vfiler allow vfilertemplate [proto=cifs] [proto=nfs] [proto=rsh][proto=iscsi] [proto=ftp] [proto=http] [proto=ssh]

Par défaut, tous les protocoles supportés sont autorisés

La commande suivante permet d’interdire un protocole :

vfiler disallow vfilertemplate [proto=cifs] [proto=nfs] [proto=rsh][proto=iscsi] [proto=http] [proto=ftp] [proto=ssh]

Exemples :Interdiction du protocole RSH sur le vFiler VF_TEST

NASSARA1> vfiler disallow VF_TEST proto=rsh

Autorisation du protocole RSH sur le vFiler VF_TEST

NASSARA1> vfiler allow VF_TEST proto=rsh

18.7. Connexion à un vfilerLa connexion à un vFiler s’effectue de deux manières :

Connexion sur le Filer puis connexion sur le vFiler (vfiler context) Connexion directe sur le vFiler

18.7.1. Connexion via le filerPour se connecter depuis le Filer physique, la commande est la suivante :

vfiler context vfilername

Exemple : connexion au vFiler VF_TEST depuis le Filer physique NASSARA1 :

NASSARA1> vfiler context VF_TESTVF_TEST@NASSARA1> Fri Nov 22 17:25:32 CET [VF_TEST@NASSARA1:cmds.vfiler.console.switch:notice]: Console context was switched to a vFiler(tm) unit VF_TEST.

VF_TEST@NASSARA1>

Note : le prompt a changé, nous avons bien « VF_TEST@NASSARA1 » pour indiquer que nous sommes bien dans un contexte « vFiler ».

Pour revenir sur le Filer, effectuer la commande suivante :

Page 64: 15/12/2014 V1.1 F.POYER Ajout

vfiler context vfiler0

Exemple : depuis le vFiler VF_TEST, revenir sur le Filer :

VF_TEST@NASSARA1> vfiler context vfiler0NASSARA1> Fri Nov 22 17:29:05 CET [NASSARA1:cmds.vfiler.console.switch:notice]: Console context was switched to a vFiler(tm) unit vfiler0.

NASSARA1>

18.7.2. Connexion directe sur un vfilerPour se connecter directement sur un vFiler, il faut que le protocole de connexion RSH ou SSH soit autorisé. Il suffit simplement d’un client RSH ou SSH pour s’y connecter.

Page 65: 15/12/2014 V1.1 F.POYER Ajout

19.Bascule PRA

19.1. Vérification et bascule

Dans un premier temps il faut vérifier l’état des vfiler, sur PAMELA :

lpnpamelactrl> vfiler status -rvfiler0 running ipspace: default-ipspace IP address: 134.158.152.43 [vif1] IP address: 192.168.6.43 [e0M] Path: / [/etc] UUID: 00000000-0000-0000-0000-000000000000

vfiler_pamela running ipspace: default-ipspace IP address: 134.158.152.100 [vif1] Path: /vol/vol0_vfiler_pamela [/etc] Path: /vol/vol_pamela_windows Path: /vol/vol_pamela_unix UUID: 6c74836e-843b-11e4-841c-123478563412lpnpamelactrl> vfiler stop vfiler_pamelavfiler_pamela stoppedlpnpamelactrl> Mon Jan 5 09:57:09 CET [lpnpamelactrl:vf.stopped:warning]: vfiler: 'vfiler_pamela'; stopped

Puis sur PAMELA3 :

lpnpamela3> vfiler statusvfiler0 runningvfiler_pamela stopped, DR backupvfiler_pamela2 stopped, DR backuplpnpamela3> vfiler status -rvfiler0 running ipspace: default-ipspace IP address: 134.158.152.140 [vif1] IP address: 192.168.6.140 [e0M] Path: / [/etc] UUID: 00000000-0000-0000-0000-000000000000

vfiler_pamela stopped, DR backup ipspace: default-ipspace IP address: 134.158.152.100 [unconfigured] Path: /vol/vol0_vfiler_pamela [/etc] Path: /vol/vol_pamela_windows Path: /vol/vol_pamela_unix UUID: 39f0a67f-3178-4c2c-a974-b4dd38b1a202

vfiler_pamela2 stopped, DR backup ipspace: default-ipspace IP address: 134.158.152.42 [unconfigured] Path: /vol/vol0_vfiler_pamela2 [/etc] Path: /vol/vol_pamela2_virt Path: /vol/vol_pamela2_unix UUID: 7c5b4213-f545-416c-81cc-fa44665bbec0

La première étape consiste à casser la réplication entre les deux sites et rendre le vfiler accessiblesur PAMELA3.

Page 66: 15/12/2014 V1.1 F.POYER Ajout

Cette étape est réalisée par la commande vfiler dr activate SUR LA DESTINATION soitPAMELA3

vfiler dr activate vfiler_pamela@lpnpamelactrl

lpnpamela3> vfiler dr activate vfiler_pamela@lpnpamelactrlMon Jan 5 09:59:04 CET [lpnpamela3:wafl.scan.ownblocks.done:info]: Completed block ownership calculation on volume vol0_vfiler_pamela. The scanner took 0 ms. option cifs.W2K_password_change_within: Invalid value 3600h.Use only digits between 1 to 6 with/without hMon Jan 5 09:59:20 CET [vfiler_pamela@lpnpamela3:cifs.startup.local.succeeded:info]: CIFS: CIFS local server is running. CIFS local server is running.Mon Jan 5 09:59:21 CET [lpnpamela3:httpd.config.mime.missing:warning]: /etc/httpd.mimetypes.sample file is missing. Mon Jan 5 09:59:21 CET [vfiler_pamela@lpnpamela3:httpd.config.mime.missing:warning]: /etc/httpd.mimetypes file is missing. Mon Jan 5 09:59:21 CET [vfiler_pamela@lpnpamela3:httpd.config.mime.missing:warning]: /etc/httpd.mimetypes.sample file is missing. Mon Jan 5 09:59:22 CET [vfiler_pamela@lpnpamela3:mountd.export.actual.vs.v4:warning]: (Line: 3) Not exporting for v4 because export /vol/volunix/home has an -actual=/vol/vol_pamela_unix/home, and the export path is a multicomponent.

Vfiler vfiler_pamela activated.vif1: flags=0x22f4c863<UP,BROADCAST,RUNNING,MULTICAST,TCPCKSUM> mtu 1500 inet 134.158.152.140 netmask 0xfffffc00 broadcast 134.158.155.255 ether 02:a0:98:7b:60:34 (Enabled interface groups)lpnpamela3> Mon Jan 5 09:59:22 CET [lpnpamela3:cmds.vfiler.dr.activated:info]: Disaster recovery backup vFiler unit: 'vfiler_pamela' of the vFiler unit at remote storage system:'lpnpamelactrl' was activated. Mon Jan 5 09:59:26 CET [vfiler_pamela@lpnpamela3:NwkThd_00:warning]: Client 134.158.155.217 (xid 2318157822) is trying to access an unexported mount (fileid 100, snapid 0, generation 1972895 and flags 0x0 on volume 0x54ce595f [No volume name available])Mon Jan 5 09:59:44 CET [vfiler_pamela@lpnpamela3:nbt.nbns.registrationComplete:info]: NBT: All CIFS name registrations have completed for the local server. Mon Jan 5 10:00:00 CET [lpnpamela3:kern.uptime.filer:info]: 10:00am up 20 days, 19:03 2615 NFS ops, 43 CIFS ops, 0 HTTP ops, 0 FCP ops, 0 iSCSI ops Mon Jan 5 10:00:07 CET [lpnpamela3:cf.takeover.disabled:error]: HA mode, but takeover ofpartner is disabled: partner identification not accessible or invalid. Mon Jan 5 10:00:07 CET [lpnpamela3:cf.ic.hourlyNicDownTime:warning]: HA interconnect: Adapter link #0 has been down for 29943 minutes.

Attention, en cas de perte de la résolution DNS, il faudra remplacer le nom du contrôleur parson adresse IP

Le vfiler est à présent activé sur pamela3 qui est la baie de disques de backup.

Si le partage est en cours d’utilisation, il est possible que le processus qui accédait à la ressourcebloque le démontage sur les machines clientes (comme un process SSH). Dans ce cas il faut tuer leprocessus ce qui forcera la déconnexion de la ressource et permettra de remonter le partage. Au pire,un redémarrage de la machine cliente corrigera le problème automatiquement.

Les réplications snapmirror sont arrêtées (broken-off)

19.2. Inversion de réplication

Page 67: 15/12/2014 V1.1 F.POYER Ajout

La réplication doit toujours être effectuée depuis la DESTINATION. De fait, en fonction du sens de réplication souhaité, la commande vfiler dr resync doit être effectuée :

Sur PAMELA pour un sens PAMELA3 PAMELA

Sur PAMELA3 pour un sens PAMELA PAMELA3

Dans notre cas, la bascule a été PAMELA PAMELA3, PAMELA3 est donc en production, avant de revenir à l’état initial, il faut donc inverser le sens de réplication en lançant la commande vfiler dr resync depuis PAMELA pour avoir une synchronisation PAMELA3 PAMELA.

La commande de resyncronisation est la suivante :

vfiler dr resync -c secure <vfiler>@<filer>

lpnpamelactrl> vfiler dr resync -c secure vfiler_pamela@lpnpamela3 lpnpamela3's Administrative login: rootlpnpamela3's Administrative password:

CIFS local server on vFiler vfiler_pamela is shutting down...

Mon Jan 5 12:11:35 CET [vfiler_pamela@lpnpamelactrl:rc:notice]: IP address 134.158.152.100 is removed from interface "vif1"CIFS local server on vfiler vfiler_pamela has shut down...Quotas are being turned off for vfiler "vfiler_pamela" on volume vol_pamela_windowsQuotas are being turned off for vfiler "vfiler_pamela" on volume vol_pamela_unixConfiguring SnapMirror to mirror vfiler vfiler_pamela's storage units from remote filer lpnpamela3.Starting snapmirror initialize commands. Itcould take a very long time when the source ordestination filers are involved in manysimultaneous transfers. The console will not beavailable until all initialize commands arestarted successfully. Please use the"snapmirror status" command on the sourcefiler to monitor the progress.

/etc/snapmirror.conf: line 2 destination filer "lpnpamelatmp1" does not match hostname "lpnpamelactrl", ignoring line/etc/snapmirror.conf: line 3 destination filer "lpnpamelatmp1" does not match hostname "lpnpamelactrl", ignoring line/etc/snapmirror.conf: line 4 destination filer "lpnpamelatmp1" does not match hostname "lpnpamelactrl", ignoring lineMon Jan 5 12:11:40 CET [lpnpamelactrl:snapmirror.dst.resync.info:notice]: SnapMirror resync of vol0_vfiler_pamela to lpnpamela3:vol0_vfiler_pamela is using lpnpamela3(0536913688)_vol0_vfiler_pamela.9966 as the base snapshot. Mon Jan 5 12:11:40 CET [lpnpamelactrl:vFiler.storageUnit.off:warning]: vFiler vfiler_pamela: storage unit /vol/vol0_vfiler_pamela now offline. Mon Jan 5 12:11:41 CET [lpnpamelactrl:wafl.snaprestore.revert:info]: Reverting volume vol0_vfiler_pamela to a previous snapshot. Mon Jan 5 12:11:41 CET [lpnpamelactrl:vFiler.storageUnit.On:notice]: vFiler vfiler_pamela: storage unit /vol/vol0_vfiler_pamela now online. Mon Jan 5 12:11:42 CET [lpnpamelactrl:replication.dst.resync.success:notice]: SnapMirrorresync of vol0_vfiler_pamela to lpnpamela3:vol0_vfiler_pamela was successful. Revert to resync base snapshot was successful.Mon Jan 5 12:11:45 CET [lpnpamelactrl:snapmirror.dst.resync.info:notice]: SnapMirror resync of vol_pamela_windows to lpnpamela3:vol_pamela_windows is using lpnpamela3(0536913688)_vol_pamela_windows.9723 as the base snapshot. Mon Jan 5 12:11:45 CET [lpnpamelactrl:vFiler.storageUnit.off:warning]: vFiler vfiler_pamela: storage unit /vol/vol_pamela_windows now offline. Mon Jan 5 12:11:47 CET [lpnpamelactrl:wafl.snaprestore.revert:info]: Reverting volume

Page 68: 15/12/2014 V1.1 F.POYER Ajout

vol_pamela_windows to a previous snapshot. Mon Jan 5 12:11:50 CET [lpnpamelactrl:vFiler.storageUnit.On:notice]: vFiler vfiler_pamela: storage unit /vol/vol_pamela_windows now online. /etc/snapmirror.conf: line 2 destination filer "lpnpamelatmp1" does not match hostname "lpnpamelactrl", ignoring line/etc/snapmirror.conf: line 3 destination filer "lpnpamelatmp1" does not match hostname "lpnpamelactrl", ignoring line/etc/snapmirror.conf: line 4 destination filer "lpnpamelatmp1" does not match hostname "lpnpamelactrl", ignoring lineMon Jan 5 12:11:50 CET [lpnpamelactrl:replication.dst.resync.success:notice]: SnapMirrorresync of vol_pamela_windows to lpnpamela3:vol_pamela_windows was successful. Revert to resync base snapshot was successful.Mon Jan 5 12:11:54 CET [lpnpamelactrl:snapmirror.dst.resync.info:notice]: SnapMirror resync of vol_pamela_unix to lpnpamela3:vol_pamela_unix is using lpnpamela3(0536913688)_vol_pamela_unix.9503 as the base snapshot. Mon Jan 5 12:11:54 CET [lpnpamelactrl:vFiler.storageUnit.off:warning]: vFiler vfiler_pamela: storage unit /vol/vol_pamela_unix now offline. Mon Jan 5 12:11:56 CET [lpnpamelactrl:wafl.snaprestore.revert:info]: Reverting volume vol_pamela_unix to a previous snapshot. Mon Jan 5 12:11:59 CET [lpnpamelactrl:vFiler.storageUnit.On:notice]: vFiler vfiler_pamela: storage unit /vol/vol_pamela_unix now online. Mon Jan 5 12:11:59 CET [lpnpamelactrl:replication.dst.resync.success:notice]: SnapMirrorresync of vol_pamela_unix to lpnpamela3:vol_pamela_unix was successful. Revert to resync base snapshot was successful.SnapMirror transfer initiated for vfiler storage units.lpnpamelactrl> Mon Jan 5 12:12:23 CET [lpnpamelactrl:nbt.NetBIOSName.nameConflictIF:error]: NBT: NetBIOS conflict on name LPNPAMELA 0 with 134.158.152.100. Unable to register this name. Mon Jan 5 12:12:24 CET [lpnpamelactrl:nbt.NetBIOSName.nameConflictIF:error]: NBT: NetBIOS conflict on name LPNPAMELA 3 with 134.158.152.100. Unable to register this name. Mon Jan 5 12:12:25 CET [lpnpamelactrl:nbt.NetBIOSName.nameConflictIF:error]: NBT: NetBIOS conflict on name LPNPAMELA 20 with 134.158.152.100. Unable to register thisname. Mon Jan 5 12:12:34 CET [lpnpamelactrl:raid.disk.offline:notice]: Marking Disk /aggr0/plex0/rg0/0a.00.5 Shelf 0 Bay 5 [NETAPP X306_HMARK02TSSM NA01] S/N [YFHPTDVC] offline. Mon Jan 5 12:12:34 CET [lpnpamelactrl:bdfu.selected:info]: Disk 0a.00.5 [NETAPP X306_HMARK02TSSM NA01] S/N [YFHPTDVC] selected for background disk firmware update. Mon Jan 5 12:12:34 CET [lpnpamelactrl:dfu.firmwareDownloading:info]: Now downloading firmware file /etc/disk_fw/X306_HMARK02TSSM.NA04.LOD on 1 disk(s) of plex [Pool0]...

lpnpamelactrl> /etc/snapmirror.conf: line 2 destination filer "lpnpamelatmp1" does not match hostname "lpnpamelactrl", ignoring line/etc/snapmirror.conf: line 3 destination filer "lpnpamelatmp1" does not match hostname "lpnpamelactrl", ignoring line/etc/snapmirror.conf: line 4 destination filer "lpnpamelatmp1" does not match hostname "lpnpamelactrl", ignoring lineMon Jan 5 12:13:07 CET [lpnpamelactrl:raid.disk.online:notice]: Onlining Disk /aggr0/plex0/rg0/0a.00.5 Shelf 0 Bay 5 [NETAPP X306_HMARK02TSSM NA01] S/N [YFHPTDVC].

1 Nettoyage de la configuration snapmirror

Suite aux allers-retours entre les contrôleurs, les relations snapmirror ne se suppriment pascorrectement. Il faut alors nettoyer les relations avec la commande

Snapmirror release

Les snapmirror « releasable » sont affichés avec la commande

Snapmirror destination

Page 69: 15/12/2014 V1.1 F.POYER Ajout

Attention, dans certains cas, les bascules ne nettoient pas les relations snapmirrorcorrectement. Dans ce cas il faut vérifier que les précédents snapshots ne sont plus utilisés etdonc supprimé de la liste des snapshots des volumes. Si ces snapshots sont toujours présents, ilfaut les supprimer et la configuration des relations se mettra à jour correctement toute seule.

19.3. Vérification des quotas

Il est possible en cas de bascule que les quotas ne démarrent pas, il faut vérifier l’activation desquotas avec la commande quota status

vfiler run vfiler_pamela quota status

19.4. Retour à l’état initial

En cas de retour à l’état initial, il faut faire la procédure inverse, activer le vfiler sur PAMELA avecla commande vfiler dr activate sur PAMELA, puis inverser la réplication depuis PAMELA3 avecla commande vfiler dr resync.

19.5. Nettoyage de la configuration snapmirror

Suite aux allers-retours entre les contrôleurs, les relations snapmirror ne se suppriment pascorrectement. Il faut alors nettoyer les relations avec la commande

Snapmirror release

Les snapmirror « releasable » sont affichés avec la commande

Snapmirror destination

Attention, dans certains cas, les bascules ne nettoient pas les relations snapmirrorcorrectement. Dans ce cas il faut vérifier que les précédents snapshots ne sont plus utilisés etdonc supprimé de la liste des snapshots des volumes. Si ces snapshots sont toujours présents, ilfaut les supprimer et la configuration des relations se mettra à jour correctement toute seule.

Page 70: 15/12/2014 V1.1 F.POYER Ajout

20.Ouverture d’un incident

Depuis le site web http://support.netapp.com dans la page d’accueil aller dans tech assistance enbas de la page puis cliquer sur open a case

Faire une recherche de la baie via numéro de série, hostname ou encore system ID

Ou encore

Sélectionner le système en cliquant sur select à gauche

Page 71: 15/12/2014 V1.1 F.POYER Ajout

Renseigner les champs afin de caractériser le type de problème et valider en cliquant sur GO

Il est possible de contacter le support directement par téléphone

HOTLINE 00-800-44-638-277

Attention, il faut se munir des IDs / SN ou hostname des contrôleurs, en ligne de commande, taper la commande sysconfig pour afficher ces informations. Par exemple :

lpnpamela2> sysconfig NetApp Release 8.1.2 7-Mode: Tue Oct 30 19:56:51 PDT 2012 System ID: 1887322454 (lpnpamela2); partner ID: 1887315681 (lpnpamelatmp1) System Serial Number: 200000610174 (lpnpamela2)