Xen Live Migration ohne Cluster-Filesystem oder NFS

Im Xen-Domains im laufenden Betrieb auf einen anderen Host umzuziehen, ist eigentlich ein geshartes Filesystem notwendig (z.B. NFS, OCFS2 oder GFS). Mit Hilfe von DRBD kann man zumindest in einem 2 Cluster-Knoten darauf verzichten. Schicke Lösung, die sehr gut funktioniert. Mehr Infos siehe Link unten…

Systemvoraussetzungen

  • DRBD ab Version 8.0.6
  • Heartbeat ab Version 2.1.3 (aktuellstes Xen-OCF Script)
  • Xen 3.2 (evtl. reicht auch Version 3.0.3)

Links

Ubuntu 8.04 LTS mit DRBD und Xen – Pleiten, Pech und Pannen

Mein Plan war es mit dem neuen Ubuntu 8.04 LTS einen HA-Cluster auf Basis von Xen 3.2, DRBD v8 und Heartbeat 2.1.3 aufzusetzen. Theoretisch ein toller Plan, denn Ubuntu bringt alle notwendigen Pakete mit. Praktisch ist dieses Release aber ein einziger Blindgänger.

Hier die Einzelkritik:

Netzwerk in Xen-Domains

Der Xen-Kernel 2.6.24-16-xen hat den unschönen Bug, dass innerhalb der Xen-Domains kein Netz funktioniert:

DRBD mit Kernel 2.6.24

Ausserdem ist im Kernel 2.6.24 ein Bug drin, der in Verbindung mit DRBD 0.8.11 dafür sorgt, dass das Log voll mit Fehlermeldungen „drbd0: local disk flush failed with status -5“ ist.

Entweder man compiliert sich die neuste DRBD-Version 0.8.12 und benutzt die Optionen „no-diskflushes“ und „no-md-flushes“ oder baut sich gleich einen eigenen Kernel (2.6.25)

Shell

Ubuntu hat die Default-Shell auf /bin/dash umgestellt. Dumm nur, dass viele Heartbeat OCF-Skripte damit nicht mehr korrekt funktionieren. Jetzt kann man entweder in die Skripte „#!/bin/bash“ schreiben oder gleich /bin/sh mit /bin/bash verlinken.

Kernel Ooops

Der Xen-Kernel von Debian und Ubuntu scheint schon länger ein Problem auf SMP-Systemen zu haben.

Fazit

Wenn man mal einen Blick in den Bugtracker von Ubuntu vagt und die unzähligen weiteren Probleme sieht, dann muss man zugeben, dass das Release 8.04 ein schlechter Witz ist. Am 3.7.2008 soll der erste „ServicePack“ erscheinen. Kann ja nur besser werden…

Ubuntu 6.06.1 LTS an EMC Clariion CX3-40

Ubuntu 6.06.1 LTS an einer EMC Clariion CX3-40 zu betreiben ist eigentlich ganz einfach. Warum EMC Powerpath, wenn es auch die multipath-tools gibt (*ist natürlich nicht supported). Hier die notwendigen Configs:

Multipath Configuration /etc/multipath.conf

In der Blacklist sind alle Devicenamen aufgelistet, die von multipath nicht verwendet werden dürfen, z.B. die internen Systemdisks (/dev/sda … /dev/sdf):


blacklist {
        devnode "^(ram|raw|loop|fd|md|dm-|sr|scd|st)[0-9]*"
        devnode "^hd[a-z][[0-9]*]"
        devnode "^sd[a-g][[0-9]*]"
        devnode "^hda[0-9]*"
        devnode "^cciss!c[0-9]d[0-9]*[p[0-9]*]"
        devnode "sd[a-f]$"   // internal disks
}

Die CX3-40 meldet sich unter der Bezeichnung „DGC“:

devices {
   device {
      vendor                  "DGC"
      product                 "RAID 5"
      path_grouping_policy    group_by_prio
      prio_callout            "/sbin/mpath_prio_emc /dev/%n"
      getuid_callout          "/lib/udev/scsi_id -g -s /block/%n"
      path_checker            emc_clariion
      features                "1 queue_if_no_path"
      no_path_retry           300
      hardware_handler        "1 emc"
      failback                immediate
      product_blacklist       "LUNZ"
   }
}

multipaths {
    # Storage 1, LUN 21
    multipath {
         wwid 3600601642d93190004d1fe31xxxxxxxxx
         alias                   rr1-lun21
         path_grouping_policy    failover
         failback                immediate
    }
    # Storage 3, LUN 22
    multipath {
         wwid 3600601642b9319004da05984xxxxxxxx
         alias                   rr3-lun22
         path_grouping_policy    failover
         failback                immediate
    }
}

Links