VeeamバックアップとアーカイブをCephと連携させる | コスト効果の高いCephストレージ管理 | Ambedded

Veeam Backup & ReplicationのリポジトリとしてCephストレージアプライアンスを使用する方法とその理由 | Mars 400 - 高密度Cephストレージ

Veeam Backup & ReplicationのリポジトリとしてCephストレージアプライアンスを使用する方法とその理由

VeeamバックアップとアーカイブをCephと連携させる

このケーススタディでは、Mars 400 CephストレージアプライアンスをVeeamバックアップとレプリケーションのバックアップリポジトリとして使用する方法について説明しています。
Cephは、1つのクラスタでオブジェクトストレージ、ブロックストレージ、およびPOSIXファイルシステムをすべてサポートしています。バックアップの要件に応じて、顧客はさまざまなストレージバックアップ戦略のニーズをサポートするために異なるストレージプロトコルを選択できます。
 
この記事では、Cephブロックストレージ(Ceph RBD)とCephファイルシステム(Cephfs)をバックアップリポジトリとして使用し、Hyper-VおよびVMWareから仮想マシンのバックアップジョブの所要時間を比較します。


VeeamとCephを使用したバックアップソリューションアーキテクチャ

VMWareとHyper-V上の仮想マシンのバックアップのアーキテクチャは似ています。Veeamはデータムーバーを使用して、ソースホストからバックアップリポジトリへデータを転送します。データムーバーはプロキシサーバーとリポジトリサーバー上で実行されます。バックアップリポジトリのバックエンドストレージとしてCephを使用するには、Linux物理サーバーまたは仮想マシン上にRBDまたはCephFSをマウントしてリポジトリサーバーとして使用することができます。

プロキシサーバーとリポジトリサーバーがハイパーバイザクラスタ内の仮想マシンである場合、VMディスク、プロキシサーバー、およびリポジトリサーバー間でネットワークフリーの高速データ転送の利点を得ることができます。 大規模ハイパーバイザクラスタの最適な構成は、各VMWareホストに1つのプロキシサーバーVMと1つのリポジトリサーバーVMを展開することです。 それ以外の場合は、各VMWareホストに1つのバックアッププロキシVMを展開し、1つのオフホストリポジトリホストを展開して、プロダクションVMWareからのワークロードを削減することができます。

Veeam Backup and ReplicationのリポジトリとしてAmbedded Cephアプライアンスを使う方法は3つあります。CephFSRBDブロックデバイスはオンプレミスのバックアップリポジトリとして使用できます。S3オブジェクトストレージは、リモートロケーションの容量層として使用できます。

VeeamのバックアップリポジトリとしてCeph RBDブロックデバイスとCephFSファイルシステムを設定する方法については、このページの最後にあるホワイトペーパーで詳細を確認できます。


Veeamのプロキシサーバーとリポジトリサーバーは、ハイパーバイザークラスター内の仮想マシンであり、Mars 400のCephストレージを使用してRBDとcephfsを提供します。
大規模なハイパーバイザークラスターでは、各VMWareホストに1つのプロキシサーバーVMと1つのリポジトリサーバーVMを展開し、バックアップデータをceph RBDまたはcephfsに保存します。

テスト環境

cephクラスター

  • 3つのMars 400、3つのモニター、20のOSD、1つのMDS(メタデータサーバー)
  • 各CephデーモンはデュアルコアのArm A72マイクロサーバーで実行されます
  • オペレーティングシステム:CentOS 7
  • Cephソフトウェア:Nautilus 14.2.9 Arm64
  • ネットワーク:Mars 400ごとに4つの10Gbネットワーク 

Veeam Backup & Replication 10、バージョン:10.0.1.4854

Veeamバックアップサーバー

  • CPU: インテル ジーオン E5-2630 2.3GHz デュアル
  • DRAM: 64GB
  • ネットワーク: 2x 10Gb sfp+ ボンディング
  • ディスク: システム用に1TB、ボリューム用に256GB SATA3 SSD
  • Windows Server 2019

 Veeam プロキシサーバー

  • Veeam バックアップサーバーと共設

 リポジトリサーバー

  • 仮想マシン

◇ CPU: 4コア 2.3GHz

◇  DRAM:8GB

◇  ネットワーク:ブリッジ

◇  ディスク:50GBの仮想ディスク

◇  OS:CentOS 7.8.2003

  • ベアメタルサーバー

◇  CPU:Intel Xeon X5650 2.67GHz DUAL

◇  DRAM:48GB

◇  ネットワーク:2ポート 10Gb sfp+ ボンディング

◇  ディスク:システム用1TB

◇  OS:CentOS 7.6.1810

ハイパーバイザーホスト

◇  CPU: インテル Xeon E5-2630 2.3GHz デュアル

◇  DRAM: 64GB

◇  ネットワーク:2ポート 10Gb sfp+ ボンディング

◇  ディスク:システム用の1TB

◇  Windows Server 2019

VMWareホスト

◇  CPU: インテル Xeon E5-2630 2.3GHz デュアル

◇  DRAM: 64GB

◇  ネットワーク:2ポート 10Gb sfp+ ボンディング

◇  ディスク:システム用の1TB

◇  ESXi 6.5

ネットワーク:10GbEスイッチ

さまざまなセットアップでのベンチマーク

さまざまなバックアップリポジトリのバックアップパフォーマンスをベンチマークするために、異なるバックアップリポジトリと3つのバックアップソースでテストをセットアップしました。

テストに使用するバックアップソースは、サーバー上のSATA SSDベースのボリューム、Hyper-VのWindows VM、およびCentOS 7 VMとVMWareのWindows VMです。

(1)SSDドライブ上のボリュームのバックアップ

表1. SATA SSDを使用したサーバーからのボリュームのバックアップ

ディスクサイズ(処理データ)237.9GB
ソースからのデータ読み取り200.1GB
重複排除と圧縮後にCephにデータ転送されました69.7GB
重複排除1.3倍
圧縮2.7倍


表2.

バックアップ
リポジトリ
所要時間
(秒)
ソース
(%)
プロキシ
(%)
ネットワーク
(%)
ターゲット
(%)
処理
速度(MB/s)
平均
データ書き込み
速度(MB/s)
Linux VM,
RBD-レプリカ 3
64683338421554110
Linux VM,
CephFS-レプリカ 3
5219725315564137
Linux VM,
RBD、EC
64582348324554111
Linux VM,
CephFS、EC
5369726274564133
Linuxサーバー、
RBD、EC
5269721163561136

注意:平均データ書き込みレートは、転送されたデータを時間で割ったものです。これらのレートは、これらのバックアップジョブにおけるCephクラスタのワークロードを表しています。

(2)HDD上のHyper-V上のWindows 10 VMのバックアップ

このベンチマークでは、SATAハードドライブに保存されているHyper-Vインスタンスをバックアップします。 これらのジョブの処理速度はHDDの帯域幅の上限に達しています。 私たちはまた、ボトルネックがソースにあることも見つけることができます。なぜなら、ジョブのほとんどの時間で彼らの負荷が忙しいからです。 Cephクラスターは、Veeamバックアップジョブからのターゲットのワークロードが軽いです。 Cephクラスターは作業時間の6%から1%しか忙しくありません。

前回のベンチマークと比較して、VMバックアップの処理速度はSSDバックアップよりもはるかに低いです。これは主に、VMデータがハードドライブに保存されているためです。

テーブル3。

ディスクサイズ(HDD)127GB
ソースからのデータ読み取り37.9GB
データがCephに転送されました
デデュープリケーションと圧縮後
21.4GB
重複排除3.3X
圧縮1.8X


テーブル4. SATA3 HDD上の仮想マシンイメージのバックアップ

バックアップ
リポジトリ
所要時間
(秒)
ソース
(%)
プロキシ
(%)
ネットワーク
(%)
ターゲット
(%)
処理
速度(MB/s)
平均
データ書き込み
速度(MB/s)
Linux VM,
RBDボリューム、EC
3639973614560
Linux VM,
CephFSボリューム,
EC
3779972114258.1
Linuxサーバー、
RBDボリューム、EC
3759962214058.4

注意:平均データ書き込みレートは、転送されたデータを時間で割ったものです。これらのレートは、これらのバックアップジョブにおけるCephクラスタのワークロードを表しています。

(3)HDD上のESXiで仮想マシンのバックアップ

このテストは、VMWare ESXi 6.5ホストのHDD上で実行されているCentOS 7およびWindows 10仮想マシンを、4+2のエラーコード保護を備えたCeph RBDでバックアップリポジトリにバックアップします。

テーブル5.

ソースCentOS VMWindows 10 VM
ディスクサイズ(HDD)40GB32GB
ソースからのデータ読み取り1.8GB12.9GB
データがCephに転送されました
デデュープリケーションと圧縮後
966MB7.7GB
重複排除22.1倍2.5倍
圧縮1.9X1.7X


表6.

バックアップ
ソース
所要時間
(秒)
ソース
(%)
プロキシ
(%)
ネットワーク
(%)
ターゲット
(%)
処理
速度(MB/s)
平均
データ書き込み
速度(MB/s)
CentOS 7122991050888
Windows 102449911519332

注意:平均データ書き込みレートは、転送されたデータを時間で割ったものです。これらのレートは、これらのバックアップジョブにおけるCephクラスタのワークロードを表しています。

結論

テスト結果によると、Ceph RBDとCephFSは類似したパフォーマンスを持っています。 これは、RBDとCephFSのパフォーマンスのベンチマークに関する私たちの経験に合致しています。 CephFSとRBDの特徴を比較すると、それぞれに利点と欠点があります。 複数のリポジトリサーバーを展開する必要がある場合は、バックアップリポジトリサーバーごとにRBDイメージを作成する必要があります。Ceph RBDは1つのホストにしかマウントできません。 CephFSと比較して、RBDを使用するとメタデータサーバーが不要なため、よりシンプルです。 作成時にRBDの容量サイズを割り当てる必要があるため、スペースが不足した場合は容量をリサイズする必要があります。

CephFSをリポジトリとして使用する場合、Cephクラスタに少なくとも1つのメタデータサーバ(MDS)を展開する必要があります。高可用性のために、スタンバイメタデータサーバも必要です。Ceph RBDと比較して、ファイルシステムにクォータを設定する必要はありません。そのため、CephFSを無制限のストレージプールとして扱うことができます。

このユースケースのデモンストレーションでは、バックアップジョブごとに1つのVMのみをバックアップします。上記のテストレポートによれば、平均データ書き込み速度は処理速度とデータの重複排除および圧縮効率に関連しています。より速いソースディスクは、バックアップジョブの所要時間を短縮し、より速い処理速度をもたらします。ユーザーのインフラストラクチャに応じて、複数の同時ジョブを展開して異なるオブジェクトを同時にバックアップすることができます。Cephストレージは、複数の同時ジョブをサポートするのに非常に優れています。

3つのAmbedded Mars 400によって駆動される20x HDD OSD Cephクラスターは、4+2の消去符号プールに対して最大700MB/sの集約書き込みスループットを提供することができます。複数の現在のバックアップジョブを展開することで、全体のバックアップ時間を短縮する利点が得られます。Cephクラスターの最大パフォーマンスは、クラスター内のディスクドライブの総数にほぼ比例します。

このユースケースでは、バックアップリポジトリとしてS3オブジェクトストレージを使用してテストは行いませんでした。S3オブジェクトストレージは、Veeam Scale-Outバックアップリポジトリの容量ティアとして、およびNASバックアップのターゲットアーカイブリポジトリとして使用することができます。Ambedded UVSマネージャー、ceph管理Web GUIを使用して、簡単にRADOSゲートウェイをセットアップし、オブジェクトストレージユーザーを作成することができます。

ダウンロード
Veeam Backup & Replication のための Ceph をリポジトリとして使用するホワイトペーパー
Veeam Backup & Replication のための Ceph をリポジトリとして使用するホワイトペーパー

Ceph RBD ブロックデバイスと CephFS ファイルシステムを Veeam のバックアップリポジトリとして設定し、仮想マシンやファイルをバックアップする方法

ダウンロード
関連製品
Mars 400PRO Cephストレージアプライアンス - CephストレージアプライアンスMars 400の前面。
Mars 400PRO Cephストレージアプライアンス
Mars 400PRO

Mars 400 Cephアプライアンスは、高容量のクラウドネイティブデータストレージニーズに対応するよう設計されています。...

詳細

VeeamバックアップとアーカイブをCephと連携させる | ARMマイクロサーバーCephストレージソリューション | Ambedded

2013年以来、Ambedded Technology Co., LTD.は台湾に拠点を置き、ブロックおよびオブジェクトストレージのソリューションプロバイダーとして活動しています。彼らの主要なデータストレージ管理には、Cephストレージ技術、ARMサーバー統合、ソフトウェア定義ストレージ、エンタープライズストレージ最適化、Cephアプライアンスのコスト削減、ストレージ管理ソフトウェア、ブロックおよびオブジェクトストレージソリューションが含まれます。彼らはプロフェッショナルなCephサポートを提供し、データセンターで高いストレージ効率を持つスケーラブルなストレージシステムを提供しています。

Ambeddedは、ARMマイクロサーバー上で最先端のCephストレージソリューションを提供し、エンタープライズストレージシステムを最適化したいB2Bのバイヤーに対応しています。 私たちのキーターンのCephアプライアンスは、総所有コスト(TCO)を削減し、ストレージ管理を簡素化し、ブロック、ファイルシステム、オブジェクトストレージを統合プラットフォームでサポートします。 革新と顧客サポートへの取り組みを持つAmbeddedは、スケーラブルで効率的なSUSE Enterprise Storage Applianceソリューションの信頼できるパートナーです。 ビジネスでCephテクノロジーのフルポテンシャルを活用するために、シームレスな統合とプロフェッショナルなサポートを体験してください。

Ambeddedは2013年以来、スケーラブルなストレージシステムとコスト効果の高いCephストレージ管理をお客様に提供してきました。先進技術と20年の経験を持つAmbeddedは、お客様のニーズに応えることを保証します。