NixBlix
Anmeldungsdatum: 12. Januar 2015
Beiträge: 218
|
Hallo Leute, ich habe dank euch nun bereits über eine ziemlich lange Zeit (bestimmt schon 2 Jahre) einen Bind9-DNS-Server in unserer Firma am laufen. Dieser hat den MS-Server komplett abgelöst. Dieser Server läuft als VM und macht zuverlässig was er soll (DHCP, DNS und NTP). Dem Letzt hatten wir aber einen Ausfall bei der Wirts-Maschine und das Netzwerk ist komplett lahmgelegt worden. Kein DHCP und kein DNS mehr. Nun möchte ich erst einmal das DNS-Problem angehen und im Anschluss mir eine Lösung für einen 'Backup'-DHCP-Server überlegen. Ich installiere also einen zweiten DNS und muss nun entscheiden wie ich diesen nutzen soll. Dafür bräuchte ich Hilfe von erfahrenen Administratoren die so etwas bereits am laufen haben.
Hier meine Ideen: 1. Erstelle ich nun einen Slave-DNS-Server und stelle ihn parallel ins Netz und verteile diesen als 2. DNS Server an die Clients? Wenn ja: was passiert mit dem Slave-DNS-Server wenn der Master ausgefallen ist? Solange kein neuer Client ins Netz kommt sicherlich erst einmal nichts. Aber sobald DHCP einen neuen mit IP-Adresse bestückt, versucht dieser beim Master-DNS zu aktualisieren (ist so bereits konfiguriert und läuft schon sehr lange gut). Wenn dieser nicht da ist bekommt es der Slave ja auch nicht mit. Diese Konstellation hat wohl nur dann Sinn wenn ich die Lasten an DNS-Anfragen verteilen möchte und somit die Slaves befragen lasse statt des Masters. Dient dieses Szenario auch als abischernde Maßnahme um einem Serverausfall entgegen zu treten? 2. Erstelle ich einen weiteren Master-DNS-Server und lasse per crontab regelmäßig die Konfigurationsdateien/Zonendateien des jetzigen kopieren damit dieser, im Notfall, alleine laufen kann? Einen Ausfall-DHCP konfiguriere ich dann so damit dieser ebenfalls die DHCP-Konfiguration des aktuellen DHCP-Server kopiert und das dieser den zweiten Master-DNS-Server aktualisieren kann sobald dessen DHCP-Dienst läuft (was dann manuell (oder durch irgendeine Prüfautomatik) eingeschaltet wird sobald der erste Server down ist? Somit hätte ich ja gewährleistet das ich wirklich ein Backup habe von einem DNS-Server der im Notfall auch wieder ewig laufen könnte? 3. Ich erstelle einen DNS-Server mit gleicher Konfiguration und gleicher IP-Adresse, nehme ihn aber aus dem Netzwerk. Die Bind-Konfigurationsdaten werden ausgelagert und per crontab aktuell gehalten (z.B. vom jetzigen DNS-Server) oder von beiden Servern ausgelagert und jeweils darauf verwiesen (ein Fileserver o.ä. im Netzwerk). Wenn Server 1 ausfällt, wird Server 2 gestartet und übernimmt den Job als ob nichts passiert ist. Sozusagen unterm Arsch den Server getauscht? Mehr Ideen habe ich nicht. Vielleicht erzählt mir wer wie das richtig geht oder sagt mir welche die richtige Methode von den o.g. ist?
Ich möchte nicht mehr zu Hause angerufen werden mit der Meldung die ganze Firma würde stehen weil unser DNS und DHCP-Server nicht mehr laufen. Das ist sehr stressig.. vor allem im Urlaub ☹ Ich bedanke mich schon einmal im Voraus für eure Hilfe oder zumindest für das Lesen bis hierher.
|
encbladexp
Ehemaliger
Anmeldungsdatum: 16. Februar 2007
Beiträge: 17447
|
NixBlix schrieb: 1. Erstelle ich nun einen Slave-DNS-Server und stelle ihn parallel ins Netz und verteile diesen als 2. DNS Server an die Clients?
Ja.
Wenn ja: was passiert mit dem Slave-DNS-Server wenn der Master ausgefallen ist?
Nichts, der bekommt keine Updates mehr weil der Master weg ist. Clients fragen den halt an und alles ist gut. Im Idealfall baust du dir sogar eine HA IP per VRRP, dann ändert sich nichtmal die IP für die Clients 😉
Dient dieses Szenario auch als abischernde Maßnahme um einem Serverausfall entgegen zu treten?
Ja, das dein DNS nicht mehr aktualisiert wird wenn der Master nicht mehr läuft ist ein anderes Problem. Das ist aber auch egal, weil dynamisches DNS mit DHCP Updates nicht für Produktionskritische Dinge genutzt werden sollte.
…des jetzigen kopieren damit dieser, im Notfall, alleine laufen kann?
Warum? Ein Slave DNS Server braucht nur die Info welche Zonen er Slave ist, und welcher Server der Master ist. Fällt der Master dauerhaft aus hast du ein Backup, wenn du kein Backup hast kannst du den Slave zum Master delegieren die alte IP dazuschieben und alles ist gut. Aber wenn du kein Backup hast wäre das auch peinlich, ein Bind Nameserver bestehe aus 2 Ordnern und einem installierten Paket. Dazu kommt das ein Ausfall vom Master nicht die Regel sein sollte. tl;dr: Nutze die normalen Mechanismen welche DHCP + DNS bietet und erfinde das Rad nicht neu. Das Redundanzkonzept bei beiden Diensten ist durchgespielt und erprobt. mfg Stefan
|
NixBlix
(Themenstarter)
Anmeldungsdatum: 12. Januar 2015
Beiträge: 218
|
encbladexp schrieb: NixBlix schrieb: Wenn ja: was passiert mit dem Slave-DNS-Server wenn der Master ausgefallen ist?
Nichts, der bekommt keine Updates mehr weil der Master weg ist. Clients fragen den halt an und alles ist gut. Im Idealfall baust du dir sogar eine HA IP per VRRP, dann ändert sich nichtmal die IP für die Clients 😉
HA IP ist dieses High available IP Address? Ich kämpfe ich eigentlich mit den Basics, da ist an so ein 'Hexenwerk' noch nicht zu denken... ich hoffe aber irgendwann mal da hin kommen zu können ☺
Dient dieses Szenario auch als abischernde Maßnahme um einem Serverausfall entgegen zu treten?
Ja, das dein DNS nicht mehr aktualisiert wird wenn der Master nicht mehr läuft ist ein anderes Problem. Das ist aber auch egal, weil dynamisches DNS mit DHCP Updates nicht für Produktionskritische Dinge genutzt werden sollte.
Wie meinst du das? Eine Firma die abhängig ist von seinem Computernetzwerk ist doch 'produktionskritisch'? Oder wie wird das gemeint? DNS und DHCP braucht man doch in so einem großen Netzwerk...
…des jetzigen kopieren damit dieser, im Notfall, alleine laufen kann?
Warum? Ein Slave DNS Server braucht nur die Info welche Zonen er Slave ist, und welcher Server der Master ist. Fällt der Master dauerhaft aus hast du ein Backup, wenn du kein Backup hast kannst du den Slave zum Master delegieren die alte IP dazuschieben und alles ist gut. Aber wenn du kein Backup hast wäre das auch peinlich, ein Bind Nameserver bestehe aus 2 Ordnern und einem installierten Paket. Dazu kommt das ein Ausfall vom Master nicht die Regel sein sollte.
Wenn ich den Slave zum Master delegiere, wäre das ja nur die halbe Wahrheit. Das ddns muss ja auch klappen. Also muss ich die gleiche Keys und Berechtigungen vergeben damit der DHCP, beim updaten, idealerweise gar nicht merkt daß es ein anderes DNS-Server ist. Um das genau zu erfragen und wie ich das am besten umsetze, wende ich mich ja an euch alle hier.
tl;dr: Nutze die normalen Mechanismen welche DHCP + DNS bietet und erfinde das Rad nicht neu. Das Redundanzkonzept bei beiden Diensten ist durchgespielt und erprobt. mfg Stefan
Danke dir Stefan. Das ist ja auch genau das was ich wissen wollte. Das will ich machen:
Einen neuen Slave-DNS welcher angebunden ist an dem jetzigen Master-DNS + die gleichen DDNS Einstellungen mit exakt den selben Keys nutzen damit der DHCP im Notfall auf den DNS aktualisieren kann sobald ich diesen zum Master delegiert habe und die IP Adresse geändert habe. Bis hierhin bin ich doch richtig, oder? Wie ich den Server aufsetze und wie ich ihn zum Slave mache, werde ich hoffentlich austüfteln können. Notfalls frage ich bei konkreten Dinge einfach hier nach.
Aber vorsichtshalber will ich das mit dem DDNS nochmals vorab nachfragen: soweit ich mich noch erinnern konnte, musste ich keys generieren und diese auf dem DNS und dem DHCP ablegen damit der DHCP authentifiziert wird und updates durchführen darf, richtig? Wenn ich dieses dupliziere und einfach auf dem Slave-DNS ablege und einbinde, würde das doch reichen für den Notfall daß dieser zum Master deligiert wird und die IP adresse des jetzigen Master-DNS bekommen würde, oder? Wo werden nochmals die Keys auf dem DNS-Server hinterlegt?
|
NixBlix
(Themenstarter)
Anmeldungsdatum: 12. Januar 2015
Beiträge: 218
|
Ich vergleiche und passe gerade die Dateien im /etc/bind des Slave-DNS mit dem des Master an und bin bis zur vorletzten Daten angekommen: rndc.key Ich habe die bind.keys angeglichen, soll ich dies bei dieser Datei nun auch tun oder ist dies ein individueller Key des Servers für 'wer weis schon was'? Um es nochmals in das Gedächtnis zu rufen: ich möchte den Slave-DNS mit ein paar Befehlen zum Master deligieren können so daß dieser auch per ddns aktualisiert werden kann. Also muss ich ja auch die keys dazu angleichen, richtig?
|
NixBlix
(Themenstarter)
Anmeldungsdatum: 12. Januar 2015
Beiträge: 218
|
Ich habe nun den Slave-DNS eingerichtet. Natürlich weiß ich nicht ob das mit dem DHCP klappen würde wenn ich diesen zum Master machen würde und die gleiche IP geben würde. Aber als Slave-DNS funktioniert er erstmal gut wie es scheint.
Ich habe nicht gewusst wie ich einen Zonen-Transfer erzwingen kann ausser daß ich den Dienst am Master und am Slave einmal restartet habe. Aber dann waren plötzlich alle Zonen übertragen und nslookup auf dem Slave ging problemlos. Die Zonendaten scheinen aber in einem komischen Format vorzuliegen. Ich kann diese nicht in UltraEdit aufmachen und darin in reiner Textform suchen und mit das anschauen. Auf dem Master-DNS ist das aber so. Irgendwer einen Tipp wie ich den Zonentransfer zwingen kann die entsprechenden Zonendateien in Textform abzuspeichern statt binär o.ä.?
|
encbladexp
Ehemaliger
Anmeldungsdatum: 16. Februar 2007
Beiträge: 17447
|
NixBlix schrieb: HA IP ist dieses High available IP Address?
Ja.
Eine Firma die abhängig ist von seinem Computernetzwerk ist doch 'produktionskritisch'? Oder wie wird das gemeint? DNS und DHCP braucht man doch in so einem großen Netzwerk...
Aber eben kein DynDNS, es ist wichtig die Server zu erreichen damit Dienste funktionieren. Aber ob der depperte Client jetzt richtig im DNS ist oder nicht juckt niemanden wirklich. Suche die Probleme die zu Ausfallzeiten wie in "Niemand kann mehr Arbeiten" führen, nicht die "Ich weiß die IP vom Chef PC mal 2h nicht".
Bis hierhin bin ich doch richtig, oder?
Du betreibt mMn zu viel Aufwand für eine Funktion die beim Ausfall von 1-2h keinen Schaden verursacht.
… würde das doch reichen für den Notfall daß dieser zum Master deligiert wird und die IP adresse des jetzigen Master-DNS bekommen würde, oder?
Und was passiert wenn dein alter Master wieder kommt? Was passiert wenn du einen Split im Netzwerk hast, und dir dann einen Split Brain baust? NixBlix schrieb: Ich habe nicht gewusst wie ich einen Zonen-Transfer erzwingen kann ausser daß ich den Dienst am Master und am Slave einmal restartet habe. Aber dann waren plötzlich alle Zonen übertragen und nslookup auf dem Slave ging problemlos.
Du solltest dir mal Gedanken über die Themen AXFR und IXFR machen.
Die Zonendaten scheinen aber in einem komischen Format vorzuliegen.
Man kann die Zonendateien auch konvertieren, aber das ist egal. Du sollst die auch nicht mit UltraEdit (grusel) bearbeiten, sondern nsupdate oder sonstwas dafür nehmen. An das aktuelle Zonenfile kommst du per dig @localhost domain.tld AXFR ganz gut ran, egal in welchem Format es gerade auf dem Server liegt. Abgesehen davon kennt rndc eine sync Option. mfg Stefan
|
NixBlix
(Themenstarter)
Anmeldungsdatum: 12. Januar 2015
Beiträge: 218
|
encbladexp schrieb: NixBlix schrieb: Eine Firma die abhängig ist von seinem Computernetzwerk ist doch 'produktionskritisch'? Oder wie wird das gemeint? DNS und DHCP braucht man doch in so einem großen Netzwerk...
Aber eben kein DynDNS, es ist wichtig die Server zu erreichen damit Dienste funktionieren. Aber ob der depperte Client jetzt richtig im DNS ist oder nicht juckt niemanden wirklich. Suche die Probleme die zu Ausfallzeiten wie in "Niemand kann mehr Arbeiten" führen, nicht die "Ich weiß die IP vom Chef PC mal 2h nicht".
a) Die Dienste in der MS AD werden auch über den DNS-Server angesprochen. Wenn der ausfällt, fällt unser komplette Firma aus. Dies ist zuletzt passiert als ich im Urlaub war und mein Kollege unüberlegt die Wirst-Betriebsmaschine der VM heruntergefahren hat. Ich musste mich aus dem Urlaub per VPN und Putty einloggen um alles wieder gerade zu biegen. Ausfall war trotzdem ~2-3 h
b) Und wenn die Leases abgelaufen waren, hat kein Client mehr funktioniert weil keine IP-Adresse aus unserem Netzwerk bekommen vom DHCP-Server welcher ebenfalls auf dieser Maschine läuft (bzw. 1. DNS + DHCP → Ubuntu Server) und somit unbrauchbar.
Jetzt habe ich ja einen 2. DNS Server welcher per DHCP auch verteilt wird als Secondary DNS Server und somit den Fall a) abdeckt.
Jetzt muss ich mir einen Failover für den DHCP überlegen um Fall b) abzufangen. Dazu werde ich aber einen entsprechenden Thread aufmachen wenn ich keinen entsprechenden finden sollte.
Bis hierhin bin ich doch richtig, oder?
Du betreibt mMn zu viel Aufwand für eine Funktion die beim Ausfall von 1-2h keinen Schaden verursacht.
Siehe oben: bei uns ist sofort das Netzwerk ausgefallen. Irgendwie scheint doch alles vom DNS abzuhängen. Und wenn der nicht tut, tut die Domäne nicht mehr (AD-Dienste tragen sich auch in dem DNS ein und werden so 'aufgelöst' auf anfrage → Dienste gehen nicht mehr).
Fehlender DHCP kommt dann auch noch hinzu und ich kann nichts mehr machen ausser meine IP-Adresse fix vergeben um wenigstens an die Server heranzukommen (bzw. meine Workstation hat immer eine fixe IP).
… würde das doch reichen für den Notfall daß dieser zum Master deligiert wird und die IP adresse des jetzigen Master-DNS bekommen würde, oder?
Und was passiert wenn dein alter Master wieder kommt? Was passiert wenn du einen Split im Netzwerk hast, und dir dann einen Split Brain baust?
Der kommt ja nicht von alleine sondern wenn ich ihn neu starte. Somit habe ich es in der Hand...
Aber da habt ihr Recht: der 2nd DNS Server soll nur vorübergehend die Arbeit sicherstellen und gut ist. Und alles andere wäre zu viel Aufwand für nichts.
Das einzige ist: wenn der 1st DNS-Server kaputt geht, dauert es halt länger bis der wieder eingerichtet ist. Und ob ich dann noch alles auf die Reihe bekomme mit DDNS & Co. wird sich herausstellen. Mitdenken und Vorleistungen bringen ist nicht immer schlecht. Wenn der SuperGAU dann mal eintrit, geht man entspannter an die Sache ran. Aber ok, jetzt erstmal die Basics erledigen und dann kann ich immern och so ein Luxus betreiben... NixBlix schrieb: Ich habe nicht gewusst wie ich einen Zonen-Transfer erzwingen kann ausser daß ich den Dienst am Master und am Slave einmal restartet habe. Aber dann waren plötzlich alle Zonen übertragen und nslookup auf dem Slave ging problemlos.
Du solltest dir mal Gedanken über die Themen AXFR und IXFR machen.
Die Zonendaten scheinen aber in einem komischen Format vorzuliegen.
Man kann die Zonendateien auch konvertieren, aber das ist egal. Du sollst die auch nicht mit UltraEdit (grusel) bearbeiten, sondern nsupdate oder sonstwas dafür nehmen. An das aktuelle Zonenfile kommst du per dig @localhost domain.tld AXFR ganz gut ran, egal in welchem Format es gerade auf dem Server liegt. Abgesehen davon kennt rndc eine sync Option. mfg Stefan
Leider weiß ich nicht wirklich von was du da redest mit dem AXFR und dem IXFR.
Aber wenn du damit das AXFR in Verbindung mit "dig @localhost Domain.tld AXFR" meinst, hat das auf dem 18.04 LTS geklappt, auf dem 16.04 LTS aber nicht nicht →
;(2 Servers found)
;; global options: +cmd
; Transfer failed. Beim 18.04 LTS, also bei dem 2nd DNS auf welchem ich per UltraEdit kein Text sehen kann weil binär o.ä. (wird per Samba-Share freigegeben und ich kann es mit meinem UE ansehen), klappt dies.
Beim ersten und älteren DNS Server klappt dies nicht mit o.g. Fehlermeldung.
|
encbladexp
Ehemaliger
Anmeldungsdatum: 16. Februar 2007
Beiträge: 17447
|
NixBlix schrieb: a) Die Dienste in der MS AD werden auch über den DNS-Server angesprochen. Wenn der ausfällt, fällt unser komplette Firma aus. Dies ist zuletzt passiert als ich im Urlaub war und mein Kollege unüberlegt die Wirst-Betriebsmaschine der VM heruntergefahren hat. Ich musste mich aus dem Urlaub per VPN und Putty einloggen um alles wieder gerade zu biegen. Ausfall war trotzdem ~2-3 h
Jetzt kommen wir von einem zum anderen. Windows sucht bestimmte DNS Records für seinen Login etc pp, das geht auch von nem Slave Nameserver. Dazu kann Windows AD prima clustern, auch von Dingen wie DHCP/DNS. Wenn man eh eine MS Umgebung hat wird das auch gerne genommen, ein Slave davon für den Notfall reicht aus.
Dazu werde ich aber einen entsprechenden Thread aufmachen wenn ich keinen entsprechenden finden sollte.
Was ist dein DHCP Server? Das Windows Ding, oder ein Standard dhcpd vom ISC?
Irgendwie scheint doch alles vom DNS abzuhängen.
Ja, aber Slave DNS ist kein großes Thema und ein gelöstes Problem. Wichtige Serverdienste sind auch statisch im DNS hinterlegt, und nicht per DynDNS. Und wenn der nicht tut, tut die Domäne nicht mehr (AD-Dienste tragen sich auch in dem DNS ein und werden so 'aufgelöst' auf anfrage → Dienste gehen nicht mehr).
Der kommt ja nicht von alleine sondern wenn ich ihn neu starte. Somit habe ich es in der Hand...
Hast du eben nicht, wenn du im Urlaub bist drückt jemand den Knopf und schon passiert komische Magie.
Aber da habt ihr Recht: der 2nd DNS Server soll nur vorübergehend die Arbeit sicherstellen und gut ist. Und alles andere wäre zu viel Aufwand für nichts.
Eben, der greift eh erst nach einem Client Timeout. Ohne primary DNS und HA IP wirds dann auch träge 😉
Das einzige ist: wenn der 1st DNS-Server kaputt geht, dauert es halt länger bis der wieder eingerichtet ist.
Backup, Restore. Dauert keine 10 Minuten, das sind nur 2 Ordner (Konfiguration, Laufzeitdateien). Das kann auch temporär eine andere Kiste machen die eh läuft, braucht ja nur die andere IP + Dienst/Config.
Leider weiß ich nicht wirklich von was du da redest mit dem AXFR und dem IXFR.
AXFR ist der komplette Transfer einer Zone, IXFR der inkrementelle Transfer für Updates zwischen DNS Servern.
Aber wenn du damit das AXFR in Verbindung mit "dig @localhost Domain.tld AXFR" meinst, hat das auf dem 18.04 LTS geklappt, auf dem 16.04 LTS aber nicht nicht.
Das geht auf beiden Versionen, ich nutze das seit Ubuntu 12.04 oder so 😉 Eventuell erlaubt diene Konfiguration keine Zone Transfers von Localhost aus.
Beim 18.04 LTS, also bei dem 2nd DNS auf welchem ich per UltraEdit kein Text sehen kann weil binär o.ä. (wird per Samba-Share freigegeben und ich kann es mit meinem UE ansehen), klappt dies.
Dazu habe ich dir Befehle geschrieben, unabhängig davon hast du mit einem Editor nicht an den Zone Files von einem DNS Slave rumzufummeln. mfg Stefan
|
misterunknown
Ehemalige
Anmeldungsdatum: 28. Oktober 2009
Beiträge: 4403
Wohnort: Sachsen
|
Kleine Ergänzung: Hier wird auch erklärt, wie man einen Failover-DHCP-Server betreibt. Haben wir schon seit 2 Jahren erfolgreich im Einsatz.
|
BillMaier
Supporter
Anmeldungsdatum: 4. Dezember 2008
Beiträge: 6473
|
encbladexp schrieb: NixBlix schrieb: HA IP ist dieses High available IP Address?
Ja.
und mit keepalived auf weniger als einer Bildschirmseite konfiguriert: https://tecadmin.net/setup-ip-failover-on-ubuntu-with-keepalived/
|
misterunknown
Ehemalige
Anmeldungsdatum: 28. Oktober 2009
Beiträge: 4403
Wohnort: Sachsen
|
BillMaier schrieb: und mit keepalived auf weniger als einer Bildschirmseite konfiguriert: https://tecadmin.net/setup-ip-failover-on-ubuntu-with-keepalived/
Das stimmt, ich würde aber weder DNS noch DHCP über eine HA-IP mit keepalive abbilden, da die Dienste ja schon eine Hochverfügbarkeit bieten (Master-Slave bei DNS, bzw. Failover mit DHCP).
|
NixBlix
(Themenstarter)
Anmeldungsdatum: 12. Januar 2015
Beiträge: 218
|
Ich möchte mich bei euch für dieses und die anderen Themen, bei denen ihr alle mir immer gut und kompetent weiter geholfen habt, herzlich bedanken! Es hat alles wunderbar geklappt und ich möchte, sollte jemand anderes vor gleichen Probleme stehen, kurz erklären was ich gemacht habe und wie es am Ende funktioniert hat: DNS mit Bind9 - Service: 1. Server → Master 2. Server → Slave (angebunden an Server 1 / Master) Die Daten werden intern synchron gehalten. Sprich: Bind9-Service kümmert sich um das übertragen der Daten vom Master auf den Slave automatisch sofern alles richtig eingestellt ist (Achten auf die Serial-Nummer in der Zonendatei im Header). DHCP mit isc-dhcp-server - Service: 1. Server → primärer DHCP-Server (wird in der dhcpd.conf mit einem failover-Konfigurationsblock ausgestattet und dort als primary konfiguriert) 2. Server → sekundärer DHCP-Server (wird als Failover 'peer' konfiguriert → wenn Server 1 ausfällt, übernimmt Server 2 den Job. Also 'secondary' Server) (Stichwort: DHCP Failover. Loadbalancing würde auch gehen, wollte ich aber nicht. Somit den split-Wert = 255 (sieht man dann beim Konfigurieren des Primären Failover-Blockes)) Die Daten werden NICHT synchronisert vom Service selber. Man muss dies dann manuell machen oder selber eine Automatik erstellen.
Ich habe eine Automatik mit dem Dateiüberwachungstool 'incron' erstellt + täglich (Mo - Fr 18 Uhr) 'cronjob' , welche die Lease-Datei (sind separat und werden in die dhcpd.conf an entsprechender Stelle eingebunden / included) von primary auf den secondary DHCP übertragen. cronjob: Dies geschieht mit sshpass und scp vom primary auf den secondary. incron: Dateiüberwachung auf dhcp.conf (beide Server) → wenn Änderungen dann Service neu starten Dateiüberwachung auf IP-Lease-Datei (beide Server) → wenn Änderungen dann Service neu starten Dateiüberwachung auf IP-Lease-Datei (nur Primary DHCP-Server) → wenn Änderungen dann IP-Lease-Datei von primary- auf secondary-Server kopieren (siehe cronjob) Da incrontab nur ein Befehl ausführen und nur einmal eine Datei überwachen kann → Dienst neu starten + Daten kopieren (bei Änderungen auf der IP-Lease-Datei) in eine Batch-Datei auslagern. So, das Thema kann jetzt von mir aus als gelöst betrachtet und abgeschlossen werden. Nachtrag:
incron kann, bei mir zumindest, keine Mount-Points überwachen bzw. er registriert nichts bei Änderungen. Somit nutzt es nichts auf dem secondary den /etc/dhcp/-Pfad des primary einzubinden und dort dann die IP-Lease-Datei zu überwachen o. ä.!
|
BillMaier
Supporter
Anmeldungsdatum: 4. Dezember 2008
Beiträge: 6473
|
Schön! Kleiner Hinweis noch zur möglichen Optimierung: NixBlix schrieb: Dies geschieht mit sshpass und scp vom primary auf den secondary.
Das würde ich dann wohl eher mit Authentifizierung-ueber-Public-Keys machen.
incron:
Vielleicht wäre systemd/Path Units eine Alternative für dich. (ich kenne es aber nur aus der Theorie, keine Erfahrung) Schön dass es alles geklappt hat. Viele Grüße BillMaier
|
NixBlix
(Themenstarter)
Anmeldungsdatum: 12. Januar 2015
Beiträge: 218
|
BillMaier schrieb: Schön! Kleiner Hinweis noch zur möglichen Optimierung: NixBlix schrieb: Dies geschieht mit sshpass und scp vom primary auf den secondary.
Das würde ich dann wohl eher mit Authentifizierung-ueber-Public-Keys machen.
Das habe ich versucht und ganz gute Anleitungen gefunden die ich abgearbeitet habe.
Die Keys wurden auch, nach ein wenig 'basteln', erfolgreich auf den Gegenpart (z.B. vom secondary auf den primary Server) übertragen. Aber ich musste mich nach wie vor immer mit einem Passwort authentifizieren!
Der Inhalt des Public-Keys, am Client generiert, landet in der 'authorized_keys' in '/home/adminuser/.ssh/'. Natürlich auch als adminuser und dessen login am Client erstellt! Jedoch unter 'erhöter Berechtigung' (→ sudo -s).
Mehr kann ich nicht tun da ich wirklich noch unsicher unter Linux agiere. Ich bin sozusagen noch blutiger Neuling in der Welt von Linux...
Daher habe ich mich erstmal für die Variante sshpass & scp entschieden. incron:
Vielleicht wäre systemd/Path Units eine Alternative für dich. (ich kenne es aber nur aus der Theorie, keine Erfahrung)
Gibt es gravierende Vorteile oder der Gleichen? Mich würde am meisten interessieren ob es irgendwas gibt welches auch gemountete Verzeichnisse überwachen kann oder Samba-Sahres o.ä.?
Ansonsten: incron läuft ganz gut, ist sehr einfach einzurichten und die Überwachungen zu erstellen ist ähnlich zur crontab nur viel einfacher...
Schön dass es alles geklappt hat. Viele Grüße BillMaier
Danke dir für deinen Hinweis und deine Hilfe!
|
encbladexp
Ehemaliger
Anmeldungsdatum: 16. Februar 2007
Beiträge: 17447
|
Samba oder NFS Shared stellen kein inotify() bereit, weshalb die Überwachung hier nicht funktioniert. Aber wenn es nur eine Datei ist: rsync oder Synthing kümmern sich gerne darum 😉 mfg Stefan
|