atstaeff
Anmeldungsdatum: 8. Juli 2014
Beiträge: Zähle...
|
So wie zu erwarten habe ich nachdem ich nun DRBD und corosync/openais ans laufen bekommen habe meine Probleme mit Pacemaker. Ich versuche eine Ressource anzulegen. Aber irgendwie will es nicht so richtig. crm(live)configure# primitive failover_ip ocf: heartbeat:IPaddr2 params ip="131.246.151.222" cidr_netmask="16" op monitor interval="3s"
lrmadmin[1593]: 2014/07/23_13:13:15 ERROR: Not enough parameters.
ERROR: bad resource type specification ocf:
ERROR: syntax in primitive: ocf: heartbeat:IPaddr2 params ip=131.246.151.222 cidr_netmask=16 op monitor interval=3s
crm(live)configure# primitive failover_ip ocf: heartbeat:IPaddr2 params ip="131.246.151.228" cidr_netmask="16" op monitor interval="3s"
lrmadmin[1595]: 2014/07/23_13:13:47 ERROR: Not enough parameters.
ERROR: bad resource type specification ocf:
ERROR: syntax in primitive: ocf: heartbeat:IPaddr2 params ip=131.246.151.228 cidr_netmask=16 op monitor interval=3s
crm(live)configure# show
Ich weiß nicht so ganz was ich als IP angeben soll. Ich habe pro Rechner nur eine Netzwerkkarte. Die IP von Node1 ist 131.246.151.222 und die von Node2 lautet 131.246.151.228 Das Ziel ist es mysql hochverfügbar zu machen.
|
hoerianer
Anmeldungsdatum: 14. August 2012
Beiträge: 3146
Wohnort: Bodensee badische Seite ;-)
|
Hey ☺ zunächst mal nach was für einer Vorlage oder Anleitung arbeitest Du denn überhaupt? es scheint ja grad gar nichts zu klappen 😉 Zu den IP Adressen, da ist es so, dass jeder Clusterknoten eine feste IP Adresse hat. Und dann nimmst Du quasi eine x-beliebige freie IP Adresse, die dann dem jeweiligen, aktiven Clusterknoten zugeschoben wird. Der ist dann praktisch über seine reguläre in /etc/network/interfaces eingetragene IP zu erreichen und über die - ich sag mal virtuelle IP Adresse. und genau diese IP Adresse wird dann eben hin und her geschalten.
|
atstaeff
(Themenstarter)
Anmeldungsdatum: 8. Juli 2014
Beiträge: 25
|
hoerianer schrieb: Hey ☺ zunächst mal nach was für einer Vorlage oder Anleitung arbeitest Du denn überhaupt? es scheint ja grad gar nichts zu klappen 😉 Zu den IP Adressen, da ist es so, dass jeder Clusterknoten eine feste IP Adresse hat. Und dann nimmst Du quasi eine x-beliebige freie IP Adresse, die dann dem jeweiligen, aktiven Clusterknoten zugeschoben wird. Der ist dann praktisch über seine reguläre in /etc/network/interfaces eingetragene IP zu erreichen und über die - ich sag mal virtuelle IP Adresse. und genau diese IP Adresse wird dann eben hin und her geschalten.
Erstmal schon mal im Voraus Vielen Dank. 👍 Ich arbeite mit folgender Anleitung
| http://wiki.debianforum.de/HA_Cluster_erstellen
|
Wie meinst du das mit x-beliebiger IP. Jeder Node hat doch eine feste IP. Kann ich jetzt einfach sagen zusätzlich erhällst du die IP XXXXXX. Kollidiert das dann nicht?! Und wozu brauch ich diese zusätzliche IP?
|
hoerianer
Anmeldungsdatum: 14. August 2012
Beiträge: 3146
Wohnort: Bodensee badische Seite ;-)
|
atstaeff schrieb: Erstmal schon mal im Voraus Vielen Dank. 👍
Gerne doch.
Ich arbeite mit folgender Anleitung
| http://wiki.debianforum.de/HA_Cluster_erstellen
|
Besorg Dir mal das Buch Linux Hochverfügbarkeit von Galileo Computing 😉
Wie meinst du das mit x-beliebiger IP. Jeder Node hat doch eine feste IP. Kann ich jetzt einfach sagen zusätzlich erhällst du die IP XXXXXX.
Vielleicht wird es an folgendem beispiel klar: Zum Beispiel hast Du das Netz 192.168.178.1 bis 192.168.178.255. Node-1 hat 192.168.178.1 Node-2 hat 192.168.178.2 Diese IP Adressen sind per /etc/network/interfaces ja festgelegt. Jetzt nimmst Du eine freie IP aus dem Netzwerk wie z.B. 192.168.178.200 und trägst diese dann als Ressource im crm ein. Diese IP wird dann hin und hergeschalten, je nachdem welcher Node aktiv ist. Und dann trägst Du noch in der hosts jeweils alle drei IP Adressen ein. Und so kannst Du quasi der Adresse 192.168.178.200 einen neuen Namen zuweisen. So hast Du Node-1 mit 192.168.178.1, Node-2 mit 192.168.178.2 und HA-Node mit 192.168.178.200 (wobei der name HA-Node durch jeden namen ersetzt werden kann).
Kollidiert das dann nicht?!
Nein womit denn? Solange kein anderer rechner im netz diese IP hat tut es.
Und wozu brauch ich diese zusätzliche IP?
na Du willst ja dein Hochverfügbares System immer ansprechen können. das kannst Du über diese IP. Dem Client fällt dann z.B. nicht mal auf, wenn die IP von einem Node auf den anderen umgeschaltet wird.
|
atstaeff
(Themenstarter)
Anmeldungsdatum: 8. Juli 2014
Beiträge: 25
|
hoerianer schrieb: atstaeff schrieb: Erstmal schon mal im Voraus Vielen Dank. 👍
Gerne doch.
Ich arbeite mit folgender Anleitung
| http://wiki.debianforum.de/HA_Cluster_erstellen
|
Besorg Dir mal das Buch Linux Hochverfügbarkeit von Galileo Computing 😉
Wie meinst du das mit x-beliebiger IP. Jeder Node hat doch eine feste IP. Kann ich jetzt einfach sagen zusätzlich erhällst du die IP XXXXXX.
Vielleicht wird es an folgendem beispiel klar: Zum Beispiel hast Du das Netz 192.168.178.1 bis 192.168.178.255. Node-1 hat 192.168.178.1 Node-2 hat 192.168.178.2 Diese IP Adressen sind per /etc/network/interfaces ja festgelegt. Jetzt nimmst Du eine freie IP aus dem Netzwerk wie z.B. 192.168.178.200 und trägst diese dann als Ressource im crm ein. Diese IP wird dann hin und hergeschalten, je nachdem welcher Node aktiv ist. Und dann trägst Du noch in der hosts jeweils alle drei IP Adressen ein. Und so kannst Du quasi der Adresse 192.168.178.200 einen neuen Namen zuweisen. So hast Du Node-1 mit 192.168.178.1, Node-2 mit 192.168.178.2 und HA-Node mit 192.168.178.200 (wobei der name HA-Node durch jeden namen ersetzt werden kann).
Kollidiert das dann nicht?!
Nein womit denn? Solange kein anderer rechner im netz diese IP hat tut es.
Und wozu brauch ich diese zusätzliche IP?
na Du willst ja dein Hochverfügbares System immer ansprechen können. das kannst Du über diese IP. Dem Client fällt dann z.B. nicht mal auf, wenn die IP von einem Node auf den anderen umgeschaltet wird.
Habs verstanden ☺ ... Beim DNS Server wird dann immer der Name aufgelöst und die IP 192.168.178.200 weitergeleitet. Und man kommt bei einem active/passive cluster dann immer beim active Node an. Das Buch hab ich 😀
|
hoerianer
Anmeldungsdatum: 14. August 2012
Beiträge: 3146
Wohnort: Bodensee badische Seite ;-)
|
atstaeff schrieb: Habs verstanden ☺
👍
... Beim DNS Server wird dann immer der Name aufgelöst und die IP 192.168.178.200 weitergeleitet.
Genau, da kann man das dann so eintragen.
Und man kommt bei einem active/passive cluster dann immer beim active Node an.
Genau, das nennt man dann auch Hochverfügbarkeit 😉
Das Buch hab ich 😀
Wenn das nur als Unterlage für den Monitor dient, nutzt es aber nciht viel 😉 Clusterbau aus dem O'Reilly Verlag ist auch noch zu empfehlen. Was genau willst Du eigentlich machen?
|
atstaeff
(Themenstarter)
Anmeldungsdatum: 8. Juli 2014
Beiträge: 25
|
hoerianer schrieb: atstaeff schrieb: Habs verstanden ☺
👍
... Beim DNS Server wird dann immer der Name aufgelöst und die IP 192.168.178.200 weitergeleitet.
Genau, da kann man das dann so eintragen.
Und man kommt bei einem active/passive cluster dann immer beim active Node an.
Genau, das nennt man dann auch Hochverfügbarkeit 😉
Das Buch hab ich 😀
Wenn das nur als Unterlage für den Monitor dient, nutzt es aber nciht viel 😉 Clusterbau aus dem O'Reilly Verlag ist auch noch zu empfehlen. Was genau willst Du eigentlich machen?
Ich wollte eigentlich nur meine mysql-DB von einem Webprojekt hochverfügbar machen. Das is eigentlich auch schon alles 😀 .... Und das O'Reilly Buch habe ich mir auch besorgt. Hab sogar mal drin gelesen 😉
|
hoerianer
Anmeldungsdatum: 14. August 2012
Beiträge: 3146
Wohnort: Bodensee badische Seite ;-)
|
atstaeff schrieb: Ich wollte eigentlich nur meine mysql-DB von einem Webprojekt hochverfügbar machen. Das is eigentlich auch schon alles 😀
Na dann..... viel Erfolg. DB ist etwas haarig. Apache geht ganz gut. ist aber alles machbar. und sonst einfach fragen 😉
|
atstaeff
(Themenstarter)
Anmeldungsdatum: 8. Juli 2014
Beiträge: 25
|
hoerianer schrieb: atstaeff schrieb: Ich wollte eigentlich nur meine mysql-DB von einem Webprojekt hochverfügbar machen. Das is eigentlich auch schon alles 😀
Na dann..... viel Erfolg. DB ist etwas haarig. Apache geht ganz gut. ist aber alles machbar. und sonst einfach fragen 😉
Nachdem ich einw enig in den Büchern geblättert habe, bin ich ein bisschen weitergekommen. So hab mir eine DNS und eine failover IP eingerichtet. Und diese auch richtig in Pacemaker integriert. Hierzu habe ich in crm configure folgendes eingetippt primitive failover_ip ocf:heartbeat:IPaddr2 params ip="131.246.151.229" cidr_netmask="26" monitor interval="3s" Anschließend habe ich apache2, mysql, php5 und phpmyadmin installiert. Klappt auch wunderbar.
Daraufhin wollte ich mit dem Befehl mysql in Pacemaker als Resource einbinden
primitive p_mysql1 ocf:heartbeat:mysql \
params binary="/usr/sbin/mysqld" \
datadir="/var/lib/mysql1" \
pid="/var/run/mysqld/mysql1.pid" \
socket="/var/run/mysqld/mysql1.sock" \
log="/var/run/mysqld/mysql1.log" \
additional_parameters="--bind-address="131.246.151.229" \
op start timeout="120" \
op stop timeout="120" \
op monitor depth="0" timeout="30" interval="10"
Auch wenns noch nicht funktioniert, habe ich noch eine Frage:
Muss ich das Verzeichnis in dem die mysql-DB liegen nicht in die von DRBD angelegte Resource verschieben? Um einen Datenaustausch zwischen den Nodes zu gewährleisten. So verstehe ich es aus dem Buch. Vielen Dank für Eure Unterstützung! ☺
|
hoerianer
Anmeldungsdatum: 14. August 2012
Beiträge: 3146
Wohnort: Bodensee badische Seite ;-)
|
atstaeff schrieb: Muss ich das Verzeichnis in dem die mysql-DB liegen nicht in die von DRBD angelegte Resource verschieben?
Genau. Damit wird sichergestellt, dass immer in die gleichen Datenbanken geschrieben wird. Ich hatte das immer so gelöst, dass z.B. bei Apache oder auch mySQL die Datenverzeichnisse auf dem DRDB Bereich liegen und die Dienste an sich auf den jeweiligen Nodes bleiben. dazu muss man aber die Konfiguration der Dienste (z.B. Apache, mySQL) auf beiden Systemen identisch haben. Dann wirst Du wahrscheinlich auch schon gemerkt haben, dass die Dienste nur per Pacemaker gestartet oder gestoppt werden dürfen. dazu die init skripte bereinigen. Und folgende Infos möchte ich Dir noch geben: DRBD ist hier das Maß aller Dinge. Und leider entwickelt DRDB mitunter ein Eigenleben. Darum ist es wichtig, dass sich alle Dienste und Services in Abhängigkeit von DRDB verhalten. Das bedeutet, es darf nur der Node primary sein, auf dem auch DRDB den primary Status hat. Und weiter macht es zum Beispiel keinen Sinn, wenn Apache gestartet wird, bevor DRDB läuft und /var/www auf dem DRDB Plattenbereich liegen hat. Genauso muss zuerst die IP Adresse geschalten sein, bevor Apache die IP Adresse nutzen kann. Du verstehst was ich meine? Und dann sollte man nicht versuchen, den Primery Node einfach per sudo init 0 herunterfahren. Das kann zur Folge haben, dass man sich den ganzen Cluster zerschiesst, da init einfach die laufenden Prozesse beendet. Pacemaker sollte aber schon wissen, welcher Dienst läuft und ihn eben sauber beenden. Es reicht föllig aus, wenn man sich um dieses Problem kümmern muss, wenn der Ernstfall eintritt 😉 Ebenso wichtig, wenn man einen Node angehalten hat und er startet wieder, darf er unter keinen Umständen sofort und von sich aus den primary Status an sich reissen. Das führt unter Umständen zu Datenverlust weil er einen älteren datenbestand als der andere Node hat, der bis zu diesem Zeitpunkt primary war. Pacemaker war so wie ich es kenne so eingestellt, dass der letzte Status wiederhergestellt wird, wenn ein Node startet. Also wenn Du das System anhalten musst, stoppe zuerst Pacemaker bzw. schalte per crm den Node auf secondary und fahre ihn dann herunter. Hoffe das hilft Dir ein wenig.
Vielen Dank für Eure Unterstützung! ☺
Gerne.
|
atstaeff
(Themenstarter)
Anmeldungsdatum: 8. Juli 2014
Beiträge: 25
|
hoerianer schrieb: Zum Beispiel hast Du das Netz 192.168.178.1 bis 192.168.178.255. Node-1 hat 192.168.178.1 Node-2 hat 192.168.178.2 Diese IP Adressen sind per /etc/network/interfaces ja festgelegt. Jetzt nimmst Du eine freie IP aus dem Netzwerk wie z.B. 192.168.178.200 und trägst diese dann als Ressource im crm ein. Diese IP wird dann hin und hergeschalten, je nachdem welcher Node aktiv ist. Und dann trägst Du noch in der hosts jeweils alle drei IP Adressen ein. Und so kannst Du quasi der Adresse 192.168.178.200 einen neuen Namen zuweisen. So hast Du Node-1 mit 192.168.178.1, Node-2 mit 192.168.178.2 und HA-Node mit 192.168.178.200 (wobei der name HA-Node durch jeden namen ersetzt werden kann).
Morgen ☺ Hab wieder ne Frage ☺ : Das mit der Failover IP happert am Verständnis noch einwenig. Ich habe gelesen ich müsste die failover IP lediglich in der /etc/host eintragen. Dort steht Sie doch nur, falls der DNS Server nicht erreichbar ist? Damit die Nodes den String selbständig in die dazugehörige IP auflösen können oder täusche ich mich?
So ich müsste ja dann aus Verständnis gründen, wie oben geschrieben, eine virtuelles Netzwerk in /etc/network/interface anlegen, was durch pacemaker gestartet wird? Wenn beide virtuellen Netzwerke nämlich ständig laufen kollidiert es doch, da beide unter der gleichen IP erreichbar sind. Versteh ich das so richtig?
|
hoerianer
Anmeldungsdatum: 14. August 2012
Beiträge: 3146
Wohnort: Bodensee badische Seite ;-)
|
atstaeff schrieb: Morgen ☺
Is Samstag, da wird mein Motorrad abgeholt....... 😉
Das mit der Failover IP happert am Verständnis noch einwenig.
Hmmmm.... und das ist eigentlich gerade das einfachste an der Sache.
Ich habe gelesen ich müsste die failover IP lediglich in der /etc/host eintragen. Dort steht Sie doch nur, falls der DNS Server nicht erreichbar ist? Damit die Nodes den
String selbständig in die dazugehörige IP auflösen können oder täusche ich mich?
Also, nur in der hosts eintragen bringt für Pacemaker mal nichts. Es geht darum, dass diese Adresse hin- und hergeschalten werden kann, somit muss die per crm als Ressource eingetragen werden. /etc/hosts und/oder DNS sind doch nur dafür da, dass IP Adressen zu Computernamen werden bzw. und umgekehrt. In die hosts trägt man es auf den beiden Nodes nur ein, damit die nicht erst über DNS abfragen müssen und auch nur deshalb, dass man mit dem Computernamen arbeiten kann. Der Eintrag ist für die Clients, damit man - wenn man schon DHCP nutzt, nicht noch an jedem Client sagen muss was ist das für ein neuer Server.
So ich müsste ja dann aus Verständnis gründen, wie oben geschrieben, eine virtuelles Netzwerk in /etc/network/interface anlegen, was durch pacemaker gestartet wird?
Nein. Machs einfach so wie in den Büchern beschrieben 😉 Du legst ja eine Ressource per an, die die IP Adresse schalten lässt. dazu gibt man ja einen OCF-Agenten an, das sollte IPaddr2 sein. Und genau dieser OCF-Agent übernimmt das dann alles, da muss man sich nciht weiter drum kümmern. Ist auch im Buch "Linux Hochverfügbarkeit" auf Seite 244 beschrieben.
Wenn beide virtuellen Netzwerke nämlich ständig laufen kollidiert es doch, da beide unter der gleichen IP erreichbar sind. Versteh ich das so richtig?
Du hast da einen Denkfehler. Du hast zwei Server - also zwei Stück Hardware, die über die gleiche IP Adresse ansprechbar sein sollen, je nachdem welcher der beiden Stücke Hardware den Status primary zugewiesen bekommt. Also muss man doch "nur" eine einzige IP Adresse entweder zu dem einen Server (Node) oder zu dem anderen Server (Node) schalten. Das übernimmt Pacemaker in vollem Umfang. Und diese IP Adresse steht halt nur in der /etc/hosts auf beiden Systemen, damit man ggf. auch mit dem Rechnernamen arbeiten kann und nicht immer die IP eingeben muss.
|
atstaeff
(Themenstarter)
Anmeldungsdatum: 8. Juli 2014
Beiträge: 25
|
Hallöchen ... es scheint soweit zu laufen 😀 ... habs hinbekommen. Die Failover_IP –→ eingerichtet und funktioniert. Das Documentroot-Verzeichnis von apache2 geändert. Diese liegt nun in "/ha_daten/htdocs". "ha_daten" ist die Resource die ich in DRBD angelegt habe. Läuft also auch. Wenn ich die Failover_IP im Browser aufrufe wird auch alles im Browser angezeigt. Zwischendurch hatte ich schon einen Split-Brain vom vielen herumprobieren 😀. Ein Problem habe ich da aber doch noch. Ich glaube ich habe in Pacemaker irgendetwas falsch konfiguriert. DRBD syncronisiert nämlich nicht mehr. Damit meine ich, dass im Primary-Node die DRBD-Resource "ha_daten" wie folgt aussieht: Es existiert ein Ordner "htdocs" mit einer Datei "index.html".
Im Secondary-Node wird diese aber nicht angezeigt :/. Wenn ich den Node mit folgendem Befehl neustarte:
sudo reboot und anschließend im Primary Node den Befehl:
sudo watch cat /proc/drbd
angebe, sehe ich dass sich die Nodes syncronisieren. Allerdings verschwindet im Primary Node der ganze Inhalt von meiner Resource "ha_daten".
Wenn ich den Primary-Node mit
sudo reboot
neustarte, bleiben beide Nodes Secondary und UPtoDate.
Komische Sache :/. Habe keinen Plan woran das liegen könnte. PS.: Bei mir regnet es in strömen: perfekter PC-Tag 👍
|
hoerianer
Anmeldungsdatum: 14. August 2012
Beiträge: 3146
Wohnort: Bodensee badische Seite ;-)
|
atstaeff schrieb: Zwischendurch hatte ich schon einen Split-Brain vom vielen herumprobieren 😀.
Kommt mir bekannt vor 😉
Ein Problem habe ich da aber doch noch. Ich glaube ich habe in Pacemaker irgendetwas falsch konfiguriert. DRBD syncronisiert nämlich nicht mehr. Damit meine ich, dass im
Primary-Node die DRBD-Resource "ha_daten" wie folgt aussieht: Es existiert ein Ordner "htdocs" mit einer Datei "index.html".
Im Secondary-Node wird diese aber nicht angezeigt :/.
Dir ist aber schon klar, dass der Plattenbereich, der mit DRBD synchronisiert wird, nur am primary Node sichtbar ist und man darauf zugreifen kann? Du hast mit DRBD kein System, dass so eine Art von rsync macht und man auch auf den secondary Node zugreifen kann. Stell Dir den DRBD Plattenbereich wie eine externe Festplatte vor, die an den primary Node angeschlosen wird. Und obwohl der zweite Node, also secondary den Plattenplatz physisch auch hat, kann man damit erst was anfangen, wenn der Node von secondary zu primary wechselt. Wenn ich den Node mit folgendem Befehl neustarte: sudo reboot und anschließend im Primary Node den Befehl:
sudo watch cat /proc/drbd
angebe, sehe ich dass sich die Nodes syncronisieren. Allerdings verschwindet im Primary Node der ganze Inhalt von meiner Resource "ha_daten".
Wenn ich den Primary-Node mit
sudo reboot
neustarte, bleiben beide Nodes Secondary und UPtoDate.
Komische Sache :/. Habe keinen Plan woran das liegen könnte.
Ich erwähnte weiter oben, dass man das System genau so zerlegen kann, wenn man das System einfach mal so rebootet ☹ Man kann die Nodes so schön per crm schalten udn dabei zuschauen, was passiert. Von daher ........... 😕 Und dass nun beide Systeme so geschalten sind, deutet wieder auf Split-brain 😉 Du solltest darauf achten, dass auch wirklich der Node mit Pacemaker primary ist, der auch bei DRBD primary ist. das kann man auch recht schön überwachen. ich mache dazu immer fünf oder mehr Konsolen auf, schalte mich jeweils auf beide Nodes und beobachte was DRBD macht (Zustand auf jedem System), lasse auf beiden den crm Monitor laufen - auch auf beiden Systemen und schalte dann jeweils die Systeme im crm auf primary, secondary oder halte sie an usw. PS.: Bei mir regnet es in strömen: perfekter PC-Tag 👍
Hier hat es 28° - wobei ich noch nicht im Pool war, das Motorrad wurde vom Händler nach der Inspektion zurück gebracht, ide letzten Bilder wurden gemacht, morgen wird sie abgeholt ☹ Dafür ist die Kohle schon da - also auch irgendwie ein bischen perfekt.
|
atstaeff
(Themenstarter)
Anmeldungsdatum: 8. Juli 2014
Beiträge: 25
|
hoerianer schrieb: Ich erwähnte weiter oben, dass man das System genau so zerlegen kann, wenn man das System einfach mal so rebootet ☹ Man kann die Nodes so schön per crm schalten udn dabei zuschauen, was passiert. Von daher ........... 😕
Und dass nun beide Systeme so geschalten sind, deutet wieder auf Split-brain 😉 Du solltest darauf achten, dass auch wirklich der Node mit Pacemaker primary ist, der auch bei DRBD primary ist. das kann man auch recht schön überwachen. ich mache dazu immer fünf oder mehr Konsolen auf, schalte mich jeweils auf beide Nodes und beobachte was DRBD macht (Zustand auf jedem System), lasse auf beiden den crm Monitor laufen - auch auf beiden Systemen und schalte dann jeweils die Systeme im crm auf primary, secondary oder halte sie an usw.
Ja das hab ich auch verstanden, aber sollte nicht der Secondary Node diesen Zustnd merken und automatisch zum Primary werden? Hab es laut "cat /proc/drbd auch wieder Primary/Secondary & UPtoDate/UPtoDate aber wenn ich jetzt per "crm node standby" und "crm node online" den Status der Nodes "wechsel" sind die DRBD-Resourcen kann nicht syncronisiert. Hast du ne Idee woran das liegen könnte? Every 2,0s: cat /proc/drbd Fri Jul 25 21:36:24 2014
version: 8.4.3 (api:1/proto:86-101)
srcversion: 5CF35A4122BF8D21CC12AE2
0: cs:Connected ro:Secondary/Primary ds:UpToDate/UpToDate C r-----
ns:0 nr:0 dw:0 dr:0 al:0 bm:0 lo:0 pe:0 ua:0 ap:0 ep:1 wo:f oos:0
root@dnslab-01:/# crm status
============
Last updated: Fri Jul 25 21:35:21 2014
Last change: Fri Jul 25 21:28:22 2014 via crm_attribute on dnslab-02
Stack: openais
Current DC: dnslab-02 - partition with quorum
Version: 1.1.6-9971ebba4494012a93c03b40a2c58ec0eb60f50c
2 Nodes configured, 2 expected votes
2 Resources configured.
============
Online: [ dnslab-01 dnslab-02 ]
Service_IP (ocf::heartbeat:IPaddr2): Started dnslab-01
Failed actions:
drbd_monitor_0 (node=dnslab-02, call=8, rc=6, status=complete): not configured
drbd_monitor_0 (node=dnslab-01, call=8, rc=6, status=complete): not configured Dieses "not configured" irritiert mich auch ein wenig. Das klingt nicht gut 😀
|