, edb, den globale fil system 2 eller gfs2 er et fælles disk fil system til linux - klynger.gfs2 adskiller sig fra udsendt fil systemer (f.eks. afs, gang, intermezzo, eller glusterfs), fordi gfs2 giver alle knudepunkter for at have direkte samtidig adgang til de samme fælles luftrumsblok oplagring.desuden, garantifonde eller gfs2 kan også anvendes som en lokal filesystem.statistik over offentlige finanser har ikke afbrudt drift, og ingen klient eller server roller.alle knuder i gfs - kompleks funktion som ligemænd.ved hjælp af statistik over offentlige finanser i en klynge, kræver hardware til at give adgang til de fælles oplagring, og en lås, chef for at kontrollere adgangen til oplagring.låsen manager fungerer som et separat modul: statistik over offentlige finanser og dermed gfs2 kan bruge distribueret lås manager (dlm) klynge konfigurationer og &" nolock ”. lås manager for lokale filesystems.ældre versioner af statistik over offentlige finanser også støtte gulm, en server baseret lås manager, der gennemfører afskedigelser, via failover. her er min testmiljø:, virtualbox:,, to centos 6,5 (64 - bit) (node1 – node2). skal administration og forvaltning centos 6,5 (64 - bit) (node3). fælles disk mellem node1 og node2 /dev /sdb /.,, den /etc /værter ved 2 knudepunkter sådan, vi /etc /værter, 192.168.1.130 node1 192.168.1.131 node2 192.168.1.132 node3 (forvaltning konsol), indsætte det på node1 og node2 [root @ node1 ~]yum groupinstall "iscsi oplagring klient" "tilgængelighed" "ukuelig oplagring" [root @ node2 ~]yum groupinstall "iscsi oplagring klient" "tilgængelighed" "ukuelig oplagring", installere i node3 (management node): [root @ node3~]yum groupinstall "high availability forvaltning", "høj tilgængelighed, format, en gfs2 deling, forklaring:, formatering filesystem: gfs2 låser protokol: lock_dlm, klynge navn: unixmencluster1, filesystem navn: statistik over offentlige finanser, journal: 2, deling: /dev /sdb, node1 og 2 er at dele en diskette /dev /sdb., [root @ node1 ~]mkfs.gfs2 - p lock_dlm - t unixmencluster1: gfs - j 2 /dev /sdb dette vil ødelægge alle data om /dev /sdb.det ser ud til at indeholde: data, er du sikker på, du ønsker at gå?[j /n. y anordning: /dev /sdb blocksize: 4096 anordning størrelse 1 gb (262144 blokke) filesystem størrelse: 1 gb (262142 blokke) tidsskrifter: 2 ressource grupper: 4 - protokol: "lock_dlm" lås tabel: "unixmencluster1: statistik over offentlige finanser" uuid: ef9eda0d-a3da-b62d-f694-d738f5787285 og [root @ node2 ~]mkfs.gfs2 - p lock_dlm - t unixmencluster1: gfs - j 2 /dev /sdb dette vil ødelægge alle data om /dev /sdb.det ser ud til at indeholde: linux gfs2 filesystem (blocksize 4096, lockproto lock_dlm), er du sikker på, du ønsker at gå?[j /n. y, anordning: /dev /sdb blocksize: 4096 anordning størrelse 1 gb (262144 blokke) filesystem størrelse: 1 gb (262142 blokke) tidsskrifter: 2 ressource grupper: 4 - protokol: "lock_dlm" lås tabel: "unixmencluster1: statistik over offentlige finanser" uuid: af45a3c0-da10-97b1-7ade-cb935778da78,1 - gøre kodeord for ricci bruger på begge maskiner node1 og node2 ricci, er en agent, der kører på en maskine eller kompleks knude skal indgives.det er skrevet i c for hastighed,, [root @ node1 ~]passwd ricci ændrer kodeord for brugeren ricci.nye kodeord: dårlig kodeord: det er for kort dårligt kodeord: er for simpel skrive nye kodeord: passwd: flere møntefterligninger ajourført med succes.[root @ node1 ~]og [root @ node2 ~] passwd ricci ændrer kodeord for brugeren ricci.nye kodeord: dårlig kodeord: det er for kort dårligt kodeord: er for simpel skrive nye kodeord: passwd: flere møntefterligninger ajourført med succes.[root @ node2 ~] #, 2 - start ricci tjenesteydelser, chkconfig ricci [root @ node1 ~]/etc /init.d/ricci begynder ved systemmeddelelse bus: [ okay ] begynder oddjobd: [ okay ] af ssl - certifikater. gjort skaber nss database... gjort ved ricci - [ okay ] [root @ node1 ~] #, og chkconfig ricci, [root @ node2 ~]/etc /init.d/ricci begynder ved systemmeddelelse bus: [ okay ] begynder oddjobd: [ okay ] af ssl - certifikater. gjort skaber nss database... gjort ved ricci: [ okay ] [root @ node2 ~] #, 3 - start conga - tjenester (node3), [root @ node3 ~]/etc /init.d/luci start start luci... [ ok ] punkt din webbrowser til https: //node3:8084 (eller tilsvarende) adgang til luci [root @ node3 ~] #, 3 - 1 - netadministratoren og start klynge manager, service networkmanager stop /etc /init.d/cman igen, 4 - login til luci konsol, ind med rod, bruger og rod adgangskode: https: //node3:8084,,, -en under mamager klynger > skabe,,, før clustername du skabte, før i formatering, knudepunkt og vært navn, kodeord, og ricci bruger:,,, klik skabe klynge.,,, efter denne knudepunkterne skal være levende.hvis ikke, så stop netadministratoren og genstarte v cman tjeneste.,,, 5 - konfigurere beslutningsdygtighed under konfigurere > qdisk,,, 6 - konfigurere domæne:, failover område > der tilsættes,,, 7 - skabe ressourcer, skabe under node1 og node gfs):, [root @ node1 ~]mkdir /statistik over offentlige finanser, [root @ node2 ~]mkdir /garantifonde, gå til midler > tilføje > gfs2,,,, 8 - skabe sevice gruppe -, service - gruppe > tilføje, tilsættes gfs2 ressourcer:,,, vent lidt, så skal du se noget lignende:,,, tjek status af klyngebomber og mount.,,, det er et lille eksempel på vitualbox med 1 fælles disk. skål!,