Installer GFS2 I CentOS 6.5

In databehandling, Global File System 2 eller GFS2 er en delt disk filsystem for Linux-PC-klynger. GFS2 skiller seg fra distribuerte filsystemer (slik som AFS, Coda, Intermezzo, eller GlusterFS) fordi GFS2 gjør at alle noder å ha direkte samtidig tilgang til den samme delte blokklagring. I tillegg kan GFS eller GFS2 også brukes som et lokalt filsystem. GFS har ingen frakoblet driftsmodus, og ingen klient eller server roller. Alle noder i en GFS klynge funksjon som jevnaldrende. Ved hjelp av GFS i en klynge krever maskinvare for å gi tilgang til delt lagring, og en lås manager for å kontrollere tilgangen til lagring. Låsen leder opererer som en egen modul: dermed GFS og GFS2 kan bruke Distributed Lock Manager (DLM) til klase konfigurasjoner og "nolock" lock manager for lokale filsystemer. Eldre versjoner av GFS også støtte GULM, en serverbasert lås manager som implementerer redundans via failover
Her er min testing miljø:
Virtualbox.

  • To CentOS 6.5 (64 bit) (node1 - node2 ).

    Conga administrasjon og ledelse CentOS 6.5 (64 bit) (node3).

    Delt disk mellom node1 og node2 /dev /sdb /.
    Lag /etc /verter på 2 noder som dette:
     vi /etc/hosts
    192.168.1.130 node1192.168.1.131 node2192.168.1.132 node3 (Management Console) Installer dette på node1 og node2 
    < pre> [root @ node1 ~] # yum groupinstall "iSCSI Storage Client" "High Availability" "Resilient Storage"
     [root @ node2 ~] # yum groupinstall "iSCSI Storage Client" "High Availability" "Resilient Storage" Install i Node3 (management node): 
     [root @ node3 ~] # yum groupinstall "High Availability Management" "High Availability" Format en GFS2 partisjon 
    Forklaring: Formatering filsystem: GFS2Locking Protokoll: lock_dlmCluster Navn: unixmencluster1FileSystem Navn: GFSJournal: 2Partition: /dev /sdb
    node1 og to deler en disk /dev /sdb
     [root @ node1 ~] # mkfs.gfs2 -p lock_dlm -t unixmencluster1. GFS j 2 /dev /sdbThis vil ødelegge alle data på /dev/sdb.It ser ut til å inneholde: data 
     Er du sikker på at du vil fortsette? [y /n] yDevice: /dev /sdbBlocksize: 4096Device Størrelse 1.00 GB (262144 blokker) Filesystem Size: 1,00 GB (262142 blokker) tidsskrifter: 2Resource grupper: 4Locking Protokoll: "lock_dlm" Lock Tabell: "unixmencluster1: GFS" UUID: ef9eda0d-a3da-b62d-f694-d738f5787285And, etter 
     [root @ node2 ~] # mkfs.gfs2 -p lock_dlm -t unixmencluster1: GFS j 2 /dev /sdbThis vil ødelegge alle data på /dev /sdb synes .Det å inneholde: Linux GFS2 Filesystem (block 4096, lockproto lock_dlm) 
     Er du sikker på at du vil fortsette? [y /n] y 
     Enhet: /dev /sdbBlocksize: 4096Device Størrelse 1.00 GB (262144 blokker) Filesystem Size: 1,00 GB (262142 blokker) tidsskrifter: 2Resource grupper: 4Locking Protokoll: "lock_dlm" Lock Tabell: "unixmencluster1: GFS "UUID: af45a3c0-da10-97b1-7ade-cb935778da781- lage passord for ricci bruker på begge maskinene node1 og node2 
    ricci er en agent som kjører på en maskin eller klyngenode som skal administreres. Det er skrevet i C for fart, etter
     [root @ node1 ~] # passwd ricciChanging passord for bruker ricci.New passord: BAD PASSORD: det er for shortBAD passord er altfor simpleRetype nytt passord: passwd: all autentisering tokens er oppdatert [root @ node1 ~] #Og 
     [root @ node2 ~] # passwd ricciChanging passord for bruker ricci.New passord. BAD PASSORD: det er for shortBAD passord er altfor simpleRetype nytt passord: passwd. alle autentiseringstokener oppdatert hell [root @ node2 ~] # 2 starter Ricci tjenester 
     chkconfig ricci på [root @ node1 ~] # /etc/init.d/ricci startStarting systemmelding buss: [OK] Starte oddjobd: [OK] genererer SSL-sertifikater ... doneGenerating NSS database ... doneStarting ricci: [OK] [root @ node1 ~] #Og 
     chkconfig ricci på 
     [root @ node2 ~] # /etc/init.d/ricci startStarting systemmelding buss: [OK] Starte oddjobd: [OK] genererer SSL-sertifikater ... doneGenerating NSS database ... doneStarting ricci: [OK] [root @ node2 ~] # 3 på Start Conga Tjenester (node3) 
     [root @ node3 ~] # /etc/init.d/luci startStart luci ... [OK] Pek nettleseren til https: //node3: 8084 (eller tilsvarende) for å få tilgang luci [root @ node3 ~] # 3-1 Stop The Network Manager og starte Cluster Manager 
     tjeneste Network stopp /etc /init.d /cman starte 4- Pålogging til Luci Console 
    Logg inn med root bruker og root-passordet:
    https: //node3: 8084
    deretter under mamager Clusters > Opprett største nettstedene Sett Clustername du opprettet før i formateringen, nodenavn eller vertsnavn, passord for og Ricci bruker:
    Klikk Opprett Cluster
    etter dette nodene skal. være levende. hvis ikke kan du slutte nettverket manager og start v cman tjenesten
    5- Konfigurer quorum
    Under Konfigurer >.; Qdisk
    6- Konfigurer Domain:
    Failover Domain > legge
    7- Lag Resources
    Lag henhold node1 og node GFS partisjonen:
     [root @ node1 ~] # mkdir /GFS 
     [root @ node2 ~] # mkdir /GFSgo å Ressources > Legg til > GFS2 
    8- Lag Sevice gruppe
    Service Group > Legg største nettstedene Legg GFS2 ressurser:
    Vent noen minutter, da vil du se noe som dette:.
    Sjekk status for Cluster og mount

    Dette er et lite eksempel på Vitualbox med en delt disk.

    Cheers! Anmeldelser