[Done aaand Done] Routing Problem bzw. Heartbeat Problem

viruz86

Enthusiast
Thread Starter
Mitglied seit
15.12.2008
Beiträge
244
Hi,

ich hoffe mal hier sitzen ein paar fähige Netzwerkler ;) Kenn mich im Thema Routing und Routingtabellen nicht wirklich gut aus und bräucht da mal Hilfe.

Habe gerade einen MySQL Cluster aufgesetzt :

2x Debian Linux
je 2x NICs in verschiedenen Netzen
eth0: 10.0.50.X (Adresse ins restliche Netz)
ehh2: 192.168.2.X (Hartbeatadresse)

Das Cluster hat die Virutelle IP 192.168.2.3.

Ich müsste es jetzt so bewerkstelligen, dass alle Rechner im 10.0.50.X Netz die Virutelle Cluster IP 192.168.2.3 pingen können. Hab wie gesagt keinen Plan von Routing bräuchte deshalb ein wenig hilfe.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Der Router dürfte eigentlich egal sein. Wenn ich das richtig verstanden habe, dann ist das doch ein Server mit 2 Netzwerkkarten in verschiedenen Netzen. Daraus folgt, dass der Server selber routen muss. Also einfach einen Routing Dienst installieren. Das reicht allein aber noch nicht aus. Das Standardgateway muss von dem nun neuen Router in Kenntnis gesetzt werden. Genau da kommt dann die Routingtabelle ins spiel. Die müsste man manuell oder mit einem Routing Protokoll anpassen.
 
Laut der Beschreibung vom TE, hätte ich es eher auf dem Router gelöst, damit alle Rechner in das neue Netz kommen.
 
Na dann soll er sich mal entscheiden bzw etwas mehr Informationen rausrücken. Ich ging davon aus er hat garkeinen Router bzw wenn dann keinen der zwischen den beiden besagten Netzen routet.
 
Ich habe das Setup des Clusters noch nicht verstanden. Warum ist die virtuelle IP aus dem 192er Netz?

Mirko
 
imho ist schon die Ausgangskonfiguration falsch. Ein Heartbeatnetz ist normalerweise nur für die Kommunikation der Knoten untereinander gedacht, die Clients haben da nichts zu suchen.
Leg deine Clusteradresse mal ins normale (10.0.50.x) Netz, dann brauchst du auch nichts routen.
 
erstmal vielen dank für die Antworten. So siehts bei mir momentan aus:

2x Debian Linux mit MYSQL DRBD und Heartbeat
jeweil 3 Nics

eth0: 10.0.50.X (Adresse ins restliche Netz)
eth1: 192.168.1.X (für DRBD)
ehh2: 192.168.2.X (für Hartbeatpackets)

ha.cnf
Code:
 logfacility     daemon     # This is deprecated
 keepalive 1                    # Interval between heartbeat (HB) packets.
 deadtime 10                   # How quickly HB determines a dead node.
 warntime 5                    # Time HB will issue a late HB.
 initdead 120                  # Time delay needed by HB to report a dead node.
 udpport 694                  # UDP port HB uses to communicate between nodes.
 bcast eth0                    # Which interface to use for HB packets.
 auto_failback off         # Auto promotion of primary node upon return to cluster.
 node    db1 # Node name 1.
 node    db2 # Node name 2.

 respawn hacluster /usr/lib/heartbeat/ipfail
 # Specifies which programs to run at startup

 use_logd yes                  # Use system logging.
 logfile /var/log/hb.log    # Heartbeat logfile.
 debugfile /var/log/heartbeat-debug.log # Debugging logfile.

haresources
Code:
db1 IPaddr::10.0.50.30 drbddisk::mysql Filesystem::/dev/drbd1::/mnt/mysql::ext3::defaults mysql

authkeys
Code:
auth 2
2 crc

Sieht die Config so aus, wird keine Heartbeatadresse vergeben. Gebe ich in der haresources aber eine IP aus 192.168.2.x ein, funzt die Geschichte einwandfrei.
 
Hi,

ich hoffe mal hier sitzen ein paar fähige Netzwerkler ;) Kenn mich im Thema Routing und Routingtabellen nicht wirklich gut aus und bräucht da mal Hilfe.

Habe gerade einen MySQL Cluster aufgesetzt :

2x Debian Linux
je 2x NICs in verschiedenen Netzen
eth0: 10.0.50.X (Adresse ins restliche Netz)
ehh2: 192.168.2.X (Hartbeatadresse)

Das Cluster hat die Virutelle IP 192.168.2.3.

Ich müsste es jetzt so bewerkstelligen, dass alle Rechner im 10.0.50.X Netz die Virutelle Cluster IP 192.168.2.3 pingen können. Hab wie gesagt keinen Plan von Routing bräuchte deshalb ein wenig hilfe.
Warum willst Du aus dem Heartbeat-Netz heraus? Das ist sehr untypisch...
 
ich will nicht unbedingt aus dem heartbeat-Netz heraus. Wenn er die Cluster IP 10.0.50.30 benutzen würde, dann hätte sich das Problem von selbst gelöst und routing ist nicht mehr notwendig. Da liegt aber genau mein Problem, die Adresse will er mir nicht geben.
Die einzige Adresse die er mir zuweisen kann ist eine aus dem Heartbeat Netz, dann funktioniert die Sache auch einwandfrei.

//Edit
Noch ein Auszug aus der Syslog wenns was hiflt
Code:
Feb 23 14:38:40 db1 heartbeat: [3559]: info: Enabling logging daemon 
Feb 23 14:38:40 db1 heartbeat: [3559]: info: logfile and debug file are those specified in logd config file (default /etc/logd.cf)
Feb 23 14:38:40 db1 heartbeat: [3559]: WARN: Core dumps could be lost if multiple dumps occur.
Feb 23 14:38:40 db1 heartbeat: [3559]: WARN: Consider setting non-default value in /proc/sys/kernel/core_pattern (or equivalent) for maximum supportability
Feb 23 14:38:40 db1 heartbeat: [3559]: WARN: Consider setting /proc/sys/kernel/core_uses_pid (or equivalent) to 1 for maximum supportability
Feb 23 14:38:40 db1 heartbeat: [3559]: info: Version 2 support: false
Feb 23 14:38:40 db1 heartbeat: [3559]: WARN: logd is enabled but logfile/debugfile/logfacility is still configured in ha.cf
Feb 23 14:38:40 db1 heartbeat: [3559]: info: **************************
Feb 23 14:38:40 db1 heartbeat: [3559]: info: Configuration validated. Starting heartbeat 2.1.3
Feb 23 14:38:40 db1 heartbeat: [3560]: info: heartbeat: version 2.1.3
Feb 23 14:38:40 db1 heartbeat: [3560]: WARN: change_logfile_ownership: failed to chown logfile: No such file or directory
Feb 23 14:38:40 db1 heartbeat: [3560]: WARN: change_logfile_ownership: failed to chown dbgfile: No such file or directory
Feb 23 14:38:40 db1 heartbeat: [3560]: info: Heartbeat generation: 1266931170
Feb 23 14:38:40 db1 heartbeat: [3560]: info: glib: UDP Broadcast heartbeat started on port 694 (694) interface eth2
Feb 23 14:38:40 db1 heartbeat: [3560]: info: glib: UDP Broadcast heartbeat closed on port 694 interface eth2 - Status: 1
Feb 23 14:38:40 db1 heartbeat: [3560]: info: G_main_add_TriggerHandler: Added signal manual handler
Feb 23 14:38:40 db1 heartbeat: [3560]: info: G_main_add_TriggerHandler: Added signal manual handler
Feb 23 14:38:40 db1 heartbeat: [3560]: info: G_main_add_SignalHandler: Added signal handler for signal 17
Feb 23 14:38:40 db1 heartbeat: [3560]: info: Local status now set to: 'up'
Feb 23 14:38:41 db1 heartbeat: [3560]: info: Link db1:eth2 up.
Feb 23 14:40:41 db1 heartbeat: [3560]: WARN: node db2: is dead
Feb 23 14:40:41 db1 heartbeat: [3560]: info: Comm_now_up(): updating status to active
Feb 23 14:40:41 db1 heartbeat: [3560]: info: Local status now set to: 'active'
Feb 23 14:40:41 db1 heartbeat: [3560]: info: Starting child client "/usr/lib/heartbeat/ipfail      " (109,117)
Feb 23 14:40:41 db1 heartbeat: [3560]: WARN: No STONITH device configured.
Feb 23 14:40:41 db1 heartbeat: [3560]: WARN: Shared disks are not protected.
Feb 23 14:40:41 db1 heartbeat: [3560]: info: Resources being acquired from db2.
Feb 23 14:40:41 db1 heartbeat: [3677]: info: Starting "/usr/lib/heartbeat/ipfail      " as uid 109  gid 117 (pid 3677)
Feb 23 14:40:41 db1 heartbeat: [3678]: debug: notify_world: setting SIGCHLD Handler to SIG_DFL
Feb 23 14:40:41 db1 ipfail: [3677]: debug: Signing in with heartbeat
Feb 23 14:40:41 db1 mach_down[3704]: [3744]: info: /usr/share/heartbeat/mach_down: nice_failback: foreign resources acquired
Feb 23 14:40:41 db1 heartbeat: [3560]: info: Initial resource acquisition complete (T_RESOURCES(us))
Feb 23 14:40:41 db1 heartbeat: [3560]: info: mach_down takeover complete.
Feb 23 14:40:41 db1 heartbeat: [3560]: debug: StartNextRemoteRscReq(): child count 1
Feb 23 14:40:41 db1 heartbeat: [3679]: info: Local Resource acquisition completed.
Feb 23 14:40:41 db1 heartbeat: [3560]: debug: StartNextRemoteRscReq(): child count 1
Feb 23 14:40:41 db1 heartbeat: [3797]: debug: notify_world: setting SIGCHLD Handler to SIG_DFL
Feb 23 14:40:51 db1 heartbeat: [3560]: info: Local Resource acquisition completed. (none)
Feb 23 14:40:51 db1 heartbeat: [3560]: info: local resource transition completed.
Feb 23 14:41:13 db1 heartbeat: [3560]: info: db1 wants to go standby [foreign]
Feb 23 14:41:23 db1 heartbeat: [3560]: WARN: No reply to standby request.  Standby request cancelled.
 
Zuletzt bearbeitet:
Hab die Kisten nochmal komplett zurückgesetzt und die Installation nochmal gemacht. Läuft auf anhieb ohne Probleme auch im anderen Netz.
Thx 4 Help
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh