SlideShare a Scribd company logo
- 0 -
2015年11月
Cephベンチマーク結果
~ 仮想マシン イメージ格納領域としての性能~
アファーム・ビジネスパートナーズ株式会社
データソリューション・サービス事業部
川端 利海
- 1 -
はじめに
Copyright 2015 AFfirm Business Partners All Rights Reserved.
本書は、SDS(Software Defined Storage)製品の QuantaStor を用いて
Ceph Block Device(RBD)機能を実現させ、仮想マシン イメージ格納領域
としてのパフォーマンスを検証したものです。
仮想マシンとして、OSSのKVMを用いています。
本資料のお問い合わせ先
アファーム・ビジネスパートナーズ株式会社
データソリューション・サービス事業部 川端
TEL : 03-3583-7730(代表)
URL : http://affirmbp.com/
E-mail : toshimi_kawabata@affirmbp.com
- 2 -
1. 検証環境 ① ハードウェア/ソフトウェアの構成
Copyright 2015 AFfirm Business Partners All Rights Reserved.
検証で利用した環境は、以下の通りです。
検証環境 結果
Super Micro Computer製サーバ
Intel Xeon CPU E5-2670 v3 @ 2.30GHz * 2
16GB memory
HDD SEAGATE ST300MM0026 278.875GB SAS
SSD Intel DC S3500 300GB*2
ストレージ サーバ(Ceph)
ハードウェア
10Gbps, MTU 9,000ネットワーク
Ceph Cluster : QuantaStor v3.16.1 (Ceph 0.94 “Hammer”)
Benchmark Client : CentOS 7 3.10.0-229.14.1
KVM : 6.2
ソフトウェア
ディスクI/O ベンチマーク測定ツール「fio」を使用
テスト シナリオ
・ブロックサイズ 4KB、ファイルサイズ 2GB
・ランダム リード/ライト、シーケンシャル リード/ライト
・その他のfioパラメータ
-ioengine=libaio -direct=1 -numjobs=64 -runtime=20
ベンチマーク ツール
☆ Special Thanks ☆
ハードウェアご提供及び検証作業サポート:株式会社トゥモロー・ネット様
Super Micro Computer製サーバ
Intel Xeon CPU E5-2670 v3 @ 2.30GHz * 2
32GB memory
HDD SEAGATE ST300MM0026 278.875GB SAS
コンピュートノード サーバ
ハードウェア
- 3 - Copyright 2015 AFfirm Business Partners All Rights Reserved.
Ceph Technology Layers
Storage Volume#1 Storage Volume#2
KVM Supervisor
Guest OS#1
10Gbps
MTU 9,000
Storage Pool (Ceph)
1. 検証環境 ② システム構成
OSD#1 OSD#2 OSD#3
QuantaStor Server#1
Storage Pool (XFS)
QuantaStor
OS
HDD
Disk
SSD
Disk
Ceph
Journal
SSD
DiskTest Data
QuantaStor Server#2
Storage Pool (XFS)
QuantaStor
OS
HDD
Disk
SSD
Disk
Ceph
Journal
SSD
DiskTest Data
QuantaStor Server#3
Storage Pool (XFS)
QuantaStor
OS
HDD
Disk
SSD
Disk
Ceph
Journal
SSD
DiskTest Data
Guest OS#2 Guest OS#3 Guest OS#4 Guest OS#5 Guest OS#6 Guest OS#7 Guest OS#8 Guest OS#9 Guest OS#10
Compute Node
# fio -ioengine=libaio -direct=1 -filename=fio_testfile -rw=read -bs=4k -size=2G -numjobs=64 -runtime=20 -group_reporting -name=file1
# fio -ioengine=libaio -direct=1 -filename=fio_testfile -rw=write -bs=4k -size=2G-numjobs=64 -runtime=20 -group_reporting -name=file1
# fio -ioengine=libaio -direct=1 -filename=fio_testfile -rw=randread -bs=4k -size=2G -numjobs=64 -runtime=20 -group_reporting -name=file1
# fio -ioengine=libaio -direct=1 -filename=fio_testfile -rw=randwrite -bs=4k -size=2G -numjobs=64 -runtime=20 -group_reporting -name=file1
Guest OS内でfioを実行しながら、同時に起動させるGuest OSの数を追加し、パフォーマンスの変化を確認します。
同時に起動させるGuest OS内では、
ファイルのランダム リード/ライト処理を実行させる
検証環境 結果
- 4 -
2. 結果 - ① fio(ファイルシステム キャッシュ クリア)で計測したIOPS値
Copyright 2015 AFfirm Business Partners All Rights Reserved.
0
14,000
IOPS
1
Random
Read
13,000
12,000
11,000
10,000
9,000
8,000
7,000
6,000
5,000
4,000
3,000
2,000
1,000
15,000
Sequential
Write
Random
Write
Sequential
Read
2 3 4 5 6 7 8 9 10同時実行
VM数
■4k, sequential read
# fio -ioengine=libaio -direct=1 -filename=fio_test2g -rw=read -bs=4k -size=2G -numjobs=64 -runtime=20 -group_reporting -name=file1
■4k, sequential write
# fio -ioengine=libaio -direct=1 -filename=fio_test2g -rw=write -bs=4k -size=2G -numjobs=64 -runtime=20 -group_reporting -name=file1
■4k, random read
# fio -ioengine=libaio -direct=1 -filename=fio_test2g -rw=randread -bs=4k -size=2G -numjobs=64 -runtime=20 -group_reporting -name=file1
■4k, random write
# fio -ioengine=libaio -direct=1 -filename=fio_test2g -rw=randwrite -bs=4k -size=2G -numjobs=64 -runtime=20 -group_reporting -name=file1
※fioコマンドの前に毎回”echo 3 >/proc/sys/vm/drop_caches”を実行してキャッシュをクリアする
fioパラメータ
検証環境 結果
- 5 -
2. 結果 - ② fio(ファイルシステム キャッシュ クリア無)で計測したIOPS値
Copyright 2015 AFfirm Business Partners All Rights Reserved.
0IOPS
1
9,000
8,000
7,000
6,000
5,000
4,000
3,000
2,000
1,000
2 3 4 5 6 7 8 9 10同時実行
VM数
Random
Read
Random
Write ■4k, random read
# fio -offset_increment=1M -ioengine=libaio -direct=1 -filename=fio_test2g -rw=randread -bs=4K -size=1G -numjobs=64 -runtime=30 -group_reporting -name=file1 -startdelay=0
■4k, random write
# fio -offset_increment=1M -ioengine=libaio -direct=1 -filename=fio_test2g -rw=randwrite -bs=4K -size=1G -numjobs=64 -runtime=30 -group_reporting -name=file1 -startdelay=0
0IOPS
1
800
700
600
500
400
300
200
100
2 3 4 5 6 7 8 9 10同時実行
VM数
Sequential
Read
Sequential
Write
■1M, sequential read
# fio -offset_increment=1M -ioengine=libaio -direct=1 -filename=fio_test2g -rw=read -bs=1M -size=1G -numjobs=64 -runtime=30 -group_reporting -name=file1 -startdelay=0
■1M, sequential write
# fio -offset_increment=1M -ioengine=libaio -direct=1 -filename=fio_test2g -rw=write -bs=1M -size=1G -numjobs=64 -runtime=30 -group_reporting -name=file1 -startdelay=0
fioパラメータ
fioパラメータ
検証環境 結果
Sequential
Access
Random
Access

More Related Content

PDF
知っておくべきCephのIOアクセラレーション技術とその活用方法 - OpenStack最新情報セミナー 2015年9月
VirtualTech Japan Inc.
 
PDF
フルオープンソースでここまで出来る。OpenStackの構築と運用
Ikuo Kumagai
 
PDF
Openstack+Ceph設定ガイド
OSSラボ株式会社
 
PDF
141030ceph
OSSラボ株式会社
 
PDF
ソフトウェア・デファインドが再定義するストレージ -- OpenStackデファクト標準ストレージCeph - OpenStack最新情報セミナー 201...
VirtualTech Japan Inc.
 
PDF
LTO/オートローダー/仮想テープライブラリの基礎知識
MKT International Inc.
 
PDF
OpenStack Object Storage; Usage
irix_jp
 
PDF
openstack+cephインテグレーション
OSSラボ株式会社
 
知っておくべきCephのIOアクセラレーション技術とその活用方法 - OpenStack最新情報セミナー 2015年9月
VirtualTech Japan Inc.
 
フルオープンソースでここまで出来る。OpenStackの構築と運用
Ikuo Kumagai
 
Openstack+Ceph設定ガイド
OSSラボ株式会社
 
ソフトウェア・デファインドが再定義するストレージ -- OpenStackデファクト標準ストレージCeph - OpenStack最新情報セミナー 201...
VirtualTech Japan Inc.
 
LTO/オートローダー/仮想テープライブラリの基礎知識
MKT International Inc.
 
OpenStack Object Storage; Usage
irix_jp
 
openstack+cephインテグレーション
OSSラボ株式会社
 

What's hot (20)

PPTX
Ceph アーキテクチャ概説
Emma Haruka Iwao
 
ODP
「前回の COMSTAR ネタに刺激されてしまったので、オレも COMSTAR を使ってみた。」(仮)
Kazuyuki Sato
 
DOC
Cloud founryインストール手順
Kotaro Noyama
 
PDF
OpenStack Object Storage; Overview
irix_jp
 
PDF
OpenStack超入門シリーズ いまさら聞けないSwiftの使い方
Toru Makabe
 
PPTX
LagopusとAzureとIPsecとDPDK
ShuheiUda
 
PDF
COMSTARでiSCSI - OpenSolaris勉強会 2011.08
tokuhy
 
PDF
ceph acceleration and storage architecture
Yuki Kitajima
 
PPTX
分散ストレージ技術Cephの最新情報
Emma Haruka Iwao
 
PDF
10年効く分散ファイルシステム技術 GlusterFS & Red Hat Storage
Etsuji Nakai
 
PDF
How to use Ceph RBD as CloudStack Primary Storage
Kimihiko Kitase
 
PDF
GlusterFS Masakari Talks
Keisuke Takahashi
 
PPT
Ceph With Quanta Stor
Kazuki Mayama
 
PDF
OSC2011 Tokyo/Spring 自宅SAN友の会(前半)
Satoshi Shimazaki
 
PDF
CephとGluster次期バージョンでの新機能
Emma Haruka Iwao
 
PDF
OSC 2011 Hokkaido 自宅SAN友の会(後半)
Satoshi Shimazaki
 
PDF
CloudFoundry 2 on Apache CloudStack 4.2.1
Kotaro Noyama
 
PDF
Apache CloudStack 4.0 インストール(ver0.5)
Yasuhiro Arai
 
PPT
Sfstudy#2チーム5
Yasuhiro Arai
 
PDF
About OpenStack DBaas (trove)
Ikuo Kumagai
 
Ceph アーキテクチャ概説
Emma Haruka Iwao
 
「前回の COMSTAR ネタに刺激されてしまったので、オレも COMSTAR を使ってみた。」(仮)
Kazuyuki Sato
 
Cloud founryインストール手順
Kotaro Noyama
 
OpenStack Object Storage; Overview
irix_jp
 
OpenStack超入門シリーズ いまさら聞けないSwiftの使い方
Toru Makabe
 
LagopusとAzureとIPsecとDPDK
ShuheiUda
 
COMSTARでiSCSI - OpenSolaris勉強会 2011.08
tokuhy
 
ceph acceleration and storage architecture
Yuki Kitajima
 
分散ストレージ技術Cephの最新情報
Emma Haruka Iwao
 
10年効く分散ファイルシステム技術 GlusterFS & Red Hat Storage
Etsuji Nakai
 
How to use Ceph RBD as CloudStack Primary Storage
Kimihiko Kitase
 
GlusterFS Masakari Talks
Keisuke Takahashi
 
Ceph With Quanta Stor
Kazuki Mayama
 
OSC2011 Tokyo/Spring 自宅SAN友の会(前半)
Satoshi Shimazaki
 
CephとGluster次期バージョンでの新機能
Emma Haruka Iwao
 
OSC 2011 Hokkaido 自宅SAN友の会(後半)
Satoshi Shimazaki
 
CloudFoundry 2 on Apache CloudStack 4.2.1
Kotaro Noyama
 
Apache CloudStack 4.0 インストール(ver0.5)
Yasuhiro Arai
 
Sfstudy#2チーム5
Yasuhiro Arai
 
About OpenStack DBaas (trove)
Ikuo Kumagai
 
Ad

Similar to Cephベンチマーク kvm (20)

PDF
Ceph ベンチマーク
Toshimi Kawabata
 
PDF
Zabbix監視運用業務の自動化事例
OSSラボ株式会社
 
PDF
災害対策セミナー 「検証プロジェクト報告と事例紹介」
Masaru Hiroki
 
PDF
泥臭い運用から、プログラマブルインフラ構築(に行きたい)
Akihiro Kuwano
 
PDF
Ruby向け帳票ソリューション「ThinReports」の開発で知るOSSの威力
ThinReports
 
PDF
名古屋Ruby会議01 A3.製造業向け3Dデータ変換ソリューションにおけるRuby活用事例
Shigeru UCHIYAMA
 
PPTX
OSSで作るOpenStack監視システム
satsuki fukazu
 
PDF
Zabbixを使った効果的な運用管理の実現
Daisuke Ikeda
 
PDF
Openstack ceph 20171115 vtj
Takehiro Kudou
 
PPTX
OpenID ConnectとSCIMによるエンタープライズでのID連携活用に向けて
Takashi Yahata
 
PPTX
バージョンアップ対応を軽減するサービス:マスティフ
Toshiyuki Hirata
 
PDF
[Japan Tech summit 2017] CLD 007
Microsoft Tech Summit 2017
 
PDF
IETF94 M2M Authentication関連報告
Masaru Kurahayashi
 
PDF
[Japan Tech summit 2017] DEP 005
Microsoft Tech Summit 2017
 
PPTX
【STAC2017】テスト自動化システム 成長記
友隆 浅黄
 
PDF
NetApp Session at PEX Tokyo 2013
NetApp Japan
 
PDF
ゲームのインフラをAwsで実戦tips全て見せます
infinite_loop
 
PDF
クラウド環境向けZabbixカスタマイズ紹介(第5回Zabbix勉強会)
Daisuke Ikeda
 
PDF
Tech Summit 2017 CLD007 現場目線で Azure IaaS を解説
wintechq
 
PDF
System Center Operations Managerによる仮想環境の高度な管理
junichi anno
 
Ceph ベンチマーク
Toshimi Kawabata
 
Zabbix監視運用業務の自動化事例
OSSラボ株式会社
 
災害対策セミナー 「検証プロジェクト報告と事例紹介」
Masaru Hiroki
 
泥臭い運用から、プログラマブルインフラ構築(に行きたい)
Akihiro Kuwano
 
Ruby向け帳票ソリューション「ThinReports」の開発で知るOSSの威力
ThinReports
 
名古屋Ruby会議01 A3.製造業向け3Dデータ変換ソリューションにおけるRuby活用事例
Shigeru UCHIYAMA
 
OSSで作るOpenStack監視システム
satsuki fukazu
 
Zabbixを使った効果的な運用管理の実現
Daisuke Ikeda
 
Openstack ceph 20171115 vtj
Takehiro Kudou
 
OpenID ConnectとSCIMによるエンタープライズでのID連携活用に向けて
Takashi Yahata
 
バージョンアップ対応を軽減するサービス:マスティフ
Toshiyuki Hirata
 
[Japan Tech summit 2017] CLD 007
Microsoft Tech Summit 2017
 
IETF94 M2M Authentication関連報告
Masaru Kurahayashi
 
[Japan Tech summit 2017] DEP 005
Microsoft Tech Summit 2017
 
【STAC2017】テスト自動化システム 成長記
友隆 浅黄
 
NetApp Session at PEX Tokyo 2013
NetApp Japan
 
ゲームのインフラをAwsで実戦tips全て見せます
infinite_loop
 
クラウド環境向けZabbixカスタマイズ紹介(第5回Zabbix勉強会)
Daisuke Ikeda
 
Tech Summit 2017 CLD007 現場目線で Azure IaaS を解説
wintechq
 
System Center Operations Managerによる仮想環境の高度な管理
junichi anno
 
Ad

Cephベンチマーク kvm

  • 1. - 0 - 2015年11月 Cephベンチマーク結果 ~ 仮想マシン イメージ格納領域としての性能~ アファーム・ビジネスパートナーズ株式会社 データソリューション・サービス事業部 川端 利海
  • 2. - 1 - はじめに Copyright 2015 AFfirm Business Partners All Rights Reserved. 本書は、SDS(Software Defined Storage)製品の QuantaStor を用いて Ceph Block Device(RBD)機能を実現させ、仮想マシン イメージ格納領域 としてのパフォーマンスを検証したものです。 仮想マシンとして、OSSのKVMを用いています。 本資料のお問い合わせ先 アファーム・ビジネスパートナーズ株式会社 データソリューション・サービス事業部 川端 TEL : 03-3583-7730(代表) URL : http://affirmbp.com/ E-mail : [email protected]
  • 3. - 2 - 1. 検証環境 ① ハードウェア/ソフトウェアの構成 Copyright 2015 AFfirm Business Partners All Rights Reserved. 検証で利用した環境は、以下の通りです。 検証環境 結果 Super Micro Computer製サーバ Intel Xeon CPU E5-2670 v3 @ 2.30GHz * 2 16GB memory HDD SEAGATE ST300MM0026 278.875GB SAS SSD Intel DC S3500 300GB*2 ストレージ サーバ(Ceph) ハードウェア 10Gbps, MTU 9,000ネットワーク Ceph Cluster : QuantaStor v3.16.1 (Ceph 0.94 “Hammer”) Benchmark Client : CentOS 7 3.10.0-229.14.1 KVM : 6.2 ソフトウェア ディスクI/O ベンチマーク測定ツール「fio」を使用 テスト シナリオ ・ブロックサイズ 4KB、ファイルサイズ 2GB ・ランダム リード/ライト、シーケンシャル リード/ライト ・その他のfioパラメータ -ioengine=libaio -direct=1 -numjobs=64 -runtime=20 ベンチマーク ツール ☆ Special Thanks ☆ ハードウェアご提供及び検証作業サポート:株式会社トゥモロー・ネット様 Super Micro Computer製サーバ Intel Xeon CPU E5-2670 v3 @ 2.30GHz * 2 32GB memory HDD SEAGATE ST300MM0026 278.875GB SAS コンピュートノード サーバ ハードウェア
  • 4. - 3 - Copyright 2015 AFfirm Business Partners All Rights Reserved. Ceph Technology Layers Storage Volume#1 Storage Volume#2 KVM Supervisor Guest OS#1 10Gbps MTU 9,000 Storage Pool (Ceph) 1. 検証環境 ② システム構成 OSD#1 OSD#2 OSD#3 QuantaStor Server#1 Storage Pool (XFS) QuantaStor OS HDD Disk SSD Disk Ceph Journal SSD DiskTest Data QuantaStor Server#2 Storage Pool (XFS) QuantaStor OS HDD Disk SSD Disk Ceph Journal SSD DiskTest Data QuantaStor Server#3 Storage Pool (XFS) QuantaStor OS HDD Disk SSD Disk Ceph Journal SSD DiskTest Data Guest OS#2 Guest OS#3 Guest OS#4 Guest OS#5 Guest OS#6 Guest OS#7 Guest OS#8 Guest OS#9 Guest OS#10 Compute Node # fio -ioengine=libaio -direct=1 -filename=fio_testfile -rw=read -bs=4k -size=2G -numjobs=64 -runtime=20 -group_reporting -name=file1 # fio -ioengine=libaio -direct=1 -filename=fio_testfile -rw=write -bs=4k -size=2G-numjobs=64 -runtime=20 -group_reporting -name=file1 # fio -ioengine=libaio -direct=1 -filename=fio_testfile -rw=randread -bs=4k -size=2G -numjobs=64 -runtime=20 -group_reporting -name=file1 # fio -ioengine=libaio -direct=1 -filename=fio_testfile -rw=randwrite -bs=4k -size=2G -numjobs=64 -runtime=20 -group_reporting -name=file1 Guest OS内でfioを実行しながら、同時に起動させるGuest OSの数を追加し、パフォーマンスの変化を確認します。 同時に起動させるGuest OS内では、 ファイルのランダム リード/ライト処理を実行させる 検証環境 結果
  • 5. - 4 - 2. 結果 - ① fio(ファイルシステム キャッシュ クリア)で計測したIOPS値 Copyright 2015 AFfirm Business Partners All Rights Reserved. 0 14,000 IOPS 1 Random Read 13,000 12,000 11,000 10,000 9,000 8,000 7,000 6,000 5,000 4,000 3,000 2,000 1,000 15,000 Sequential Write Random Write Sequential Read 2 3 4 5 6 7 8 9 10同時実行 VM数 ■4k, sequential read # fio -ioengine=libaio -direct=1 -filename=fio_test2g -rw=read -bs=4k -size=2G -numjobs=64 -runtime=20 -group_reporting -name=file1 ■4k, sequential write # fio -ioengine=libaio -direct=1 -filename=fio_test2g -rw=write -bs=4k -size=2G -numjobs=64 -runtime=20 -group_reporting -name=file1 ■4k, random read # fio -ioengine=libaio -direct=1 -filename=fio_test2g -rw=randread -bs=4k -size=2G -numjobs=64 -runtime=20 -group_reporting -name=file1 ■4k, random write # fio -ioengine=libaio -direct=1 -filename=fio_test2g -rw=randwrite -bs=4k -size=2G -numjobs=64 -runtime=20 -group_reporting -name=file1 ※fioコマンドの前に毎回”echo 3 >/proc/sys/vm/drop_caches”を実行してキャッシュをクリアする fioパラメータ 検証環境 結果
  • 6. - 5 - 2. 結果 - ② fio(ファイルシステム キャッシュ クリア無)で計測したIOPS値 Copyright 2015 AFfirm Business Partners All Rights Reserved. 0IOPS 1 9,000 8,000 7,000 6,000 5,000 4,000 3,000 2,000 1,000 2 3 4 5 6 7 8 9 10同時実行 VM数 Random Read Random Write ■4k, random read # fio -offset_increment=1M -ioengine=libaio -direct=1 -filename=fio_test2g -rw=randread -bs=4K -size=1G -numjobs=64 -runtime=30 -group_reporting -name=file1 -startdelay=0 ■4k, random write # fio -offset_increment=1M -ioengine=libaio -direct=1 -filename=fio_test2g -rw=randwrite -bs=4K -size=1G -numjobs=64 -runtime=30 -group_reporting -name=file1 -startdelay=0 0IOPS 1 800 700 600 500 400 300 200 100 2 3 4 5 6 7 8 9 10同時実行 VM数 Sequential Read Sequential Write ■1M, sequential read # fio -offset_increment=1M -ioengine=libaio -direct=1 -filename=fio_test2g -rw=read -bs=1M -size=1G -numjobs=64 -runtime=30 -group_reporting -name=file1 -startdelay=0 ■1M, sequential write # fio -offset_increment=1M -ioengine=libaio -direct=1 -filename=fio_test2g -rw=write -bs=1M -size=1G -numjobs=64 -runtime=30 -group_reporting -name=file1 -startdelay=0 fioパラメータ fioパラメータ 検証環境 結果 Sequential Access Random Access