Veeam back-up en archivering om te werken met Ceph | Kostenbesparend Ceph-opslagbeheer | Ambedded

Waarom en hoe de Ceph-opslagapplicatie te gebruiken als de repositories van Veeam-back-up en replicatie | Mars 400 - Ceph-opslag met hoge dichtheid

Waarom en hoe de Ceph-opslagapplicatie te gebruiken als de repositories van Veeam-back-up en replicatie

Veeam back-up en archivering om te werken met Ceph

Deze casestudy legt uit hoe de Mars 400 Ceph-opslagapplicatie kan worden gebruikt als back-uprepository voor Veeam-back-up en replicatie.
Ceph ondersteunt objectopslag, blokopslag en het POSIX-bestandssysteem allemaal in één cluster. Volgens de back-upvereisten kunnen klanten verschillende opslagprotocollen selecteren om aan de behoeften van verschillende opslagback-upstrategieën te voldoen.
 
In dit artikel gebruiken we Ceph blokopslag (Ceph RBD) en Ceph-bestandssysteem (Cephfs) als back-uprepositories en vergelijken we de duur van hun back-uptaken bij het maken van back-ups van virtuele machines vanuit Hyper-V en VMWare.


Back-upoplossingsarchitectuur door gebruik te maken van Veeam en Ceph

De architectuur van het maken van back-ups van virtuele machines op VMWare en Hyper-V is vergelijkbaar. Veeam maakt gebruik van dataverplaatsers om gegevens over te brengen van bronhosts naar back-uprepositories. De dataverplaatsers worden uitgevoerd op de proxyserver en de repositoryserver. Om Ceph te gebruiken als de backend-opslag van een back-uprepository, kunt u RBD of CephFS koppelen aan een fysieke server of virtuele machine met Linux als de repositoryserver.

Als de proxy- en repository-servers virtuele machines zijn binnen de hypervisor-cluster, kunt u profiteren van netwerkloos, snel datatransport tussen de VM-schijf, de proxyserver en de repositoryserver. De beste configuratie van een groot hypervisor-cluster is om één proxyserver-VM en één repositoryserver-VM op elke VMWare-host te implementeren. Anders kunt u één back-up proxy-VM implementeren op elke VMWare-host en één off-host repository-host om de werklast van uw productie-VMWare te verminderen.

Er zijn drie manieren om de Ambedded Ceph-appliance te gebruiken als opslagplaatsen voor Veeam Backup and Replication.CephFS en RBD blokapparaten kunnen worden gebruikt als de on-premises back-upopslagplaats.De S3-objectopslag kan worden gebruikt als capaciteitslaag voor een externe locatie.

Voor informatie over het instellen van het Ceph RBD blokapparaat en het CephFS bestandssysteem als de back-upopslag van Veeam voor het back-uppen van virtuele machines en bestanden, kunt u de details vinden in de whitepaper aan het einde van deze pagina.


Veeam proxy- en repository-servers zijn virtuele machines binnen de hypervisor-cluster, met Mars 400 ceph-opslag om RBD en cephfs te bieden
een grote hypervisor-cluster is om één proxy-server-VM en één repository-server-VM op elke VMWare-host te implementeren, om back-upgegevens op te slaan in ceph RBD of cephfs

Testomgeving

ceph cluster

  • Drie Mars 400 met 3x monitoren, 20 OSD's, en 1x MDS (metadata server)
  • Elke Ceph daemon draait op een dual-core Arm A72 microserver
  • Besturingssysteem: CentOS 7
  • Ceph software: Nautilus 14.2.9 Arm64
  • Netwerk: 4x 10Gb netwerk per Mars 400 

Veeam Backup & Replicatie 10, Versie: 10.0.1.4854

Veeam Backup Server

  • CPU: Intel Xeon E5-2630 2.3GHz DUAL
  • DRAM: 64GB
  • Netwerk: 2x 10Gb sfp+ verbinding
  • Schijf: 1TB voor het systeem, 256GB SATA3 SSD voor volume
  • Windows Server 2019

 Veeam Proxy Server

  • Colloceren met Veeam Backup Server

 Opslagserver

  • Virtuele Machine

◇  CPU: 4 kernen 2.3GHz

◇  DRAM: 8GB

◇  Netwerk: brug

◇  Schijf: 50GB virtuele schijf

◇  Besturingssysteem: CentOS 7.8.2003

  • Baremetal Server

◇  Processor: Intel Xeon X5650 2.67GHz DUAL

◇  DRAM: 48GB

◇  Netwerk: 2-poort 10Gb sfp+ verbinding

◇  Schijf: 1TB voor het systeem

◇  Besturingssysteem: CentOS 7.6.1810

Hyper-V Gastheer

◇  CPU: Intel Xeon E5-2630 2.3GHz DUAL

◇  DRAM: 64GB

Netwerk: 2-poort 10Gb sfp+ bonding

Schijf: 1TB voor systeem

◇  Windows Server 2019

VMWare Host

◇  CPU: Intel Xeon E5-2630 2.3GHz DUAL

◇  DRAM: 64GB

Netwerk: 2-poort 10Gb sfp+ bonding

Schijf: 1TB voor systeem

◇  ESXi 6.5

Netwerk: 10GbE-switch

Benchmark op verschillende configuraties

Om de back-upprestaties van verschillende back-uprepositories te benchmarken, hebben we tests opgezet met verschillende back-uprepositories en drie back-upbronnen.

De back-upbronnen die we voor de tests gebruiken, zijn een volume op basis van een SATA SSD op een server, een Windows VM van Hyper-V en een CentOS 7 VM en een Windows VM van VMWare.

(1) Back-up van een volume op een SSD-schijf

Tabel 1. Back-up van een volume van een server met een SATA SSD.

Schijfgrootte (verwerkte gegevens)237,9 GB
Gegevens gelezen van de bron200,1 GB
Gegevens Overgedragen naar Ceph na Deduplicatie en Compressie69.7GB
Deduplicatie1.3X
Compressie2.7X


Tabel 2.

Back-up
Opslagplaats
Duur
(sec)
Bron
(%)
Proxy
(%)
Netwerk
(%)
Doelwit
(%)
Verwerking
Snelheid (MB/s)
Gemiddelde
Data Schrijven
Snelheid (MB/s)
Linux VM,
RBD-replica 3
64683338421554110
Linux VM,
CephFS-replica 3
5219725315564137
Linux VM,
RBD, EC
64582348324554111
Linux VM,
CephFS, EC
5369726274564133
Linux Server,
RBD, EC
5269721163561136

Opmerking: De gemiddelde gegevensschrijfsnelheden worden berekend door de overgedragen gegevens te delen door de duur. Deze snelheden vertegenwoordigen de workloads van de Ceph-cluster in deze back-uptaken.

(2)Maak een back-up van een Windows 10-VM op Hyper-V op HDD

In deze benchmark maken we een back-up van een Hyper-V-instantie die is opgeslagen op een SATA-harde schijf. De verwerkingssnelheden van deze taken bereiken de bovengrens van de HDD-bandbreedte. We kunnen ook vinden dat de bottleneck zich bevindt bij de bron omdat hun belastingen gedurende 99% van de taakduur druk bezig zijn. Ceph-cluster, het doel, de werklast van de Veeam-back-uptaken is licht. Ceph-cluster is slechts druk bezig gedurende 6% tot 1% van de werktijd.

Vergeleken met de vorige benchmark is de verwerkingssnelheid van de VM-back-up veel lager dan die van de SSD-back-up.Dit komt voornamelijk doordat de VM-gegevens worden opgeslagen op een harde schijf.

Tabel 3.

Schijfgrootte (HDD)127GB
Gegevens gelezen van bron37.9GB
Gegevens overgedragen naar Ceph na
Deduplicatie en Compressie
21,4GB
Deduplicatie3,3X
Compressie1,8X


Tabel 4. Maak een back-up van een virtuele machine-image op een SATA3 HDD

Back-up
Opslagplaats
Duur
(sec)
Bron
(%)
Proxy
(%)
Netwerk
(%)
Doelwit
(%)
Verwerking
Snelheid (MB/s)
Gemiddelde
Data Schrijven
Snelheid (MB/s)
Linux VM,
RBD-volume, EC
3639973614560
Linux VM,
CephFS-volume,
EC
3779972114258.1
Linux Server,
RBD-volume, EC
3759962214058.4

Opmerking: De gemiddelde gegevensschrijfsnelheden worden berekend door de overgedragen gegevens te delen door de duur. Deze snelheden vertegenwoordigen de workloads van de Ceph-cluster in deze back-uptaken.

(3)Back-up virtuele machines op ESXi op HDD

Deze test maakt een back-up van een CentOS 7 en een Windows 10 virtuele machines die draaien op een HDD van een VMWare ESXi 6.5 host naar een repository ondersteund door een Ceph RBD met 4+2 erasure code bescherming.

Tabel 5.

BronCentOS VMWindows 10 VM
Schijfgrootte (HDD)40GB32GB
Gegevens gelezen van bron1,8GB12,9GB
Gegevens overgedragen naar Ceph na
Deduplicatie en Compressie
966MB7,7GB
Deduplicatie22,1X2,5X
Compressie1.9X1.7X


Tabel 6.

Back-up
Bron
Duur
(sec)
Bron
(%)
Proxy
(%)
Netwerk
(%)
Doelwit
(%)
Verwerking
Snelheid (MB/s)
Gemiddelde
Data Schrijven
Snelheid (MB/s)
CentOS 7122991050888
Windows 102449911519332

Opmerking: De gemiddelde gegevensschrijfsnelheden worden berekend door de overgedragen gegevens te delen door de duur. Deze snelheden vertegenwoordigen de workloads van de Ceph-cluster in deze back-uptaken.

Conclusies

Volgens de testresultaten hebben Ceph RBD en CephFS een vergelijkbare prestatie. Dit komt overeen met onze ervaring met betrekking tot de benchmark van RBD en CephFS-prestaties. Bij het vergelijken van de kenmerken van CephFS en RBD, hebben ze beide hun voor- en nadelen. Als je meerdere repository servers wilt implementeren, moet je een RBD-image maken voor elke back-up repository server, omdat je Ceph RBD slechts op één host kunt mounten. In vergelijking met CephFS is het gebruik van RBD eenvoudiger omdat het geen metadata-servers nodig heeft. Bij het aanmaken moeten we de RBD-capaciteitsgrootte toewijzen, dus je moet de capaciteit vergroten wanneer je meer ruimte nodig hebt.

Als u CephFS als het repository gebruikt, moet u ten minste één metadata server (MDS) implementeren in de Ceph cluster. We hebben ook een standby metadata server nodig voor hoge beschikbaarheid. In vergelijking met Ceph RBD, hoeft u het bestandssysteem geen quotum te geven. U kunt dus CephFS behandelen als een onbeperkte opslagpool.

In deze demonstratie van het gebruiksscenario maken onze tests alleen een back-up van één virtuele machine in elke back-uptaak. Volgens de bovenstaande testrapporten weten we dat de gemiddelde gegevensschrijfsnelheid verband houdt met de verwerkingssnelheid en de efficiëntie van gegevensdeduplicatie en compressie. Een snellere bron schijf verkort de duur van de back-uptaak en resulteert in een snellere verwerkingssnelheid. Afhankelijk van de infrastructuur van gebruikers kunnen ze meerdere gelijktijdige taken implementeren om verschillende objecten tegelijkertijd te back-uppen. Ceph-opslag presteert zeer goed bij het ondersteunen van meerdere gelijktijdige taken.

Een 20x HDD OSD Ceph-cluster, aangedreven door 3x Ambedded Mars 400, kan een geaggregeerde schrijfdoorvoer bieden tot 700MB/s aan de 4+2 erasure code pool. Het implementeren van meerdere huidige back-uptaken heeft als voordeel dat de algehele back-upduur wordt verminderd. De maximale prestatie van een Ceph-cluster is bijna lineair evenredig met het totale aantal schijfstations in het cluster.

In dit gebruiksscenario hebben we geen gebruik gemaakt van S3-objectopslag als back-uprepository. S3-objectopslag kan worden gebruikt als capaciteitstier in de Veeam Scale-Out back-uprepository en als doelarchiefrepository voor NAS-back-up. U kunt eenvoudig een RADOS-gateway instellen en objectopslaggebruikers maken met behulp van de Ambedded UVS-manager, de ceph-beheerwebinterface.

Downloaden
Gebruik Ceph als de repository voor Veeam Backup & Replication whitepaper
Gebruik Ceph als de repository voor Veeam Backup & Replication whitepaper

Hoe de Ceph RBD-blokapparaat en het CephFS-bestandssysteem in te stellen als de back-uprepository van Veeam voor het maken van back-ups van virtuele machines...

Downloaden
Gerelateerde Producten
Mars 400PRO Ceph opslagapparaat - Ceph Storage Appliance Mars 400 voorkant.
Mars 400PRO Ceph opslagapparaat
Mars 400PRO

Mars 400 Ceph Appliance is ontworpen om te voldoen aan de hoge capaciteitseisen voor cloud-native gegevensopslag. Het maakt gebruik van HDD om te profiteren...

Details

Veeam back-up en archivering om te werken met Ceph | ARM-microserver Ceph-opslagoplossingen | Ambedded

Gevestigd in Taiwan sinds 2013, Ambedded Technology Co., LTD. is een leverancier van block- en objectopslagoplossingen. Hun belangrijkste gegevensopslagbeheer omvat Ceph-opslagtechnologie, integratie van ARM-servers, softwaregedefinieerde opslag, optimalisatie van bedrijfsopslag, kostenbesparingen voor Ceph-apparaten, opslagbeheersoftware en block- en objectopslagoplossingen. Ze bieden professionele Ceph-ondersteuning, schaalbare opslagsystemen met een hoge opslagefficiëntie in het datacenter.

Ambedded biedt geavanceerde Ceph-opslagoplossingen op ARM-microservers, op maat gemaakt voor B2B-kopers die hun bedrijfsopslagsystemen willen optimaliseren. Onze kant-en-klare Ceph-apparaten verminderen de totale eigendomskosten (TCO) en vereenvoudigen het beheer van opslag, waarbij ze blok-, bestandssysteem- en objectopslag ondersteunen in een geïntegreerd platform. Met een toewijding aan innovatie en klantenondersteuning is Ambedded uw vertrouwde partner voor schaalbare en efficiënte SUSE Enterprise Storage Appliance-oplossingen. Ervaar naadloze integratie en professionele ondersteuning om het volledige potentieel van Ceph-technologie in uw bedrijf te benutten.

'Ambedded' biedt klanten sinds 2013 schaalbare opslagsystemen en kosteneffectief beheer van Ceph-opslag. Met geavanceerde technologie en 20 jaar ervaring zorgt 'Ambedded' ervoor dat aan de behoeften van elke klant wordt voldaan.