usługi prawne, ochrona danych, bezpieczne systemy informatyczne

ich war hier: ProxmoxCephCluster

Version [4725]

Dies ist eine alte Version von ProxmoxCephCluster erstellt von WojciechLisiewicz am 2025-02-08 19:43:55.

 

Proxmox-Cluster mit Ceph

eine integrierte Lösung für Rechenzentrum ohne single Point of failure


A. Ziel
Ziel der Lösung ist
  • Cluster
  • Proxmox mit - am Ende - high availability für virtuelle Maschinen und Container
  • also es gibt keinen single point of failure
  • es werden nicht nur die VM und LXC beliebig verschiebbar, sondern auch weitere Komponenten per Software abgebildet:
    • das Netzwerk (SDN und damit Verschiebbarkeit eines Routers oder von Maschinen mit Verbindungen in das LAN, die DMZ oder sonstige verbundene Netzwerke)
    • Storage, also Speicherplatz für alle Maschinen und Daten, der sich von den Node´s unabhängig macht, was mit Ceph möglich ist
  • die gesamte Lösung wird nicht nur einmal für das gesamte Rechenzentrum umgesetzt, sondern für zwei, o dass mit einer einfachen Replikation unter Ceph praktisch die Rechenzentren als Duplikate füreinander dienen können - und bei Ausfall eines Clusters praktisch verzögerungsfreie Umschaltung auf den zweiten Cluster möglich ist

B. Prozedur kurz zusammengefasst:
Folgende Schritte werden hier zusammengefasst:
  • Auswahl, Dimensionierung und hardwareseitige Konzeption des Clusters
  • Installation Proxmox auf jedem Node

C. Auswahl / Konzeption Hardware
Folgendes beachten:
  • da Ceph allein schon Rechenleistung nimmt, sind leistungsfähige Nodes über kurz oder lang unersetzlich; bei 6 OSD braucht man schon 8 Kerne - also kleine Geräte mit 8 Kernen müssen sich noch im Betrieb bewähren und werden sicher nie allzu viele Maschinen beherbergen können;
  • Netzwerke müssen schnell und redundant sein; ich will es versuchen mit 2x 10 Gb und 4x 1 Gb je Node das Netzwerk (per SDN) umzusetzen;

D. Installation Proxmox auf den Nodes
Die Installation ist zunächst normal - einige Klippen sollte man aber beachten:

E. Netzwerk-Config
Ein Cluster hängt maßgeblich vom Netzwerk ab. Wir brauchen - gem. Doku von Proxmox - im Zweifel folgende, parallele Netzwerke in der Konfiguration:
  • sehr schnelles Netzwerk (25+ Gbps) => Ceph INTERNAL
  • schnelles Netzwerk (10+ Gpbs) => Ceph PUBLIC
  • mit Ceph PUBLIC kann auch verbunden werden virtual guest traffic und VM live-migration traffic
=> aber mit alternativer Lösung auch getrennt sinnvoll?
  • normales Netzwerk (1 Gbps) exklusiv für corosync (Kommunikation im Cluster);

1. Ceph INTERNAL

2. Ceph PUBLIC

3. virtual guest traffic

4. VM live-migration traffic

5. corosync traffic
Neben exklusiv und niedrige Latenz ist hier die Besonderheit, dass dieses über mehrere Netzwerke laufen kann! Also kann es so funktionieren:

    • Netzwerk corosync 1 = 10.10.1.0/24 über einen separaten Switch (keinerlei Verbindung mit anderen Netzwerken); immer über ersten NIC der gesteckten Netzwerkkarte
    • Netzwerk corosync 2 = 10.10.2.0/24 über den normalen Switch für ganzes Netzwerk auf anderem VLAN (?) als Management aber auf der Netzwerkkarte mit Management (Karte onboard)





Diese Seite wurde noch nicht kommentiert.
Valid XHTML  |  Valid CSS  |  Powered by WikkaWiki