Ceph Object Store
oder: Wie speichert man terabyteweise Dokumente
Daniel Schneller
daniel.schneller@centerdevice.de
@dschneller
Wer sind wir?
@dschneller
@drivebytesting
Was machen wir?
Ceph Object Store
Wo kamen wir her?
Warum wollten wir
da weg?
Wohin wollten wir?
Und der Weg?
Ceph Grundlagen
“Unified, distributed storage system designed for
excellent performance, reliability and scalability”
Stark skalierbar
Commodity Hardware
Kein Single Point of Failure
Ceph Komponenten
OSD Daemons
Object Storage Device Daemons
CRUSH Algorithmus
Intelligente Objektverteilung ohne zentrale Metadaten
RADOS
Reliable Autonomous Distributed Object Store
Objekte
Data Pools
Sammelbecken für Objekte mit gleichen Anforderungen
Ceph Object Store
Placement Groups
Ceph Object Store
Ceph Object Store
Monitors
Erste Anlaufstelle für Clients
Hardware Setup
Storage Virtualization
Bare Metal Hardware
Compute Virtualization
Network Virtualization
Virtual Infrastructure
Application
Storage Virtualization
Bare Metal Hardware
Compute Virtualization
Network Virtualization
Virtual Infrastructure
Application
Ceph Object Store
Baseline Benchmarks
Erwartungen definieren
Storage
Disk I/O pro Node
Ceph Object Store
Ceph Object Store
Netzwerk
IEEE 802.3ad != IEEE 802.3ad
> cat /etc/network/interfaces
...
auto bond2
iface bond2 inet manual
bond-slaves p2p3 p2p4 # interfaces to bond
bond-mode 802.3ad # activate LACP
bond-miimon 100 # monitor link health
bond-xmit_hash_policy layer3+4 # use Layer 3+4 for link selection
pre-up ip link set dev bond2 mtu 9000 # set Jumbo Frames
auto vlan-ceph-clust
iface vlan-ceph-clust inet static
pre-up ip link add link bond2 name vlan-ceph-clust type vlan id 105
pre-up ip link set dev vlan-ceph-clust mtu 9000 # Jumbo Frames
post-down ip link delete vlan-ceph-clust
address ...
netmask ...
network ...
broadcast ...
...
IEEE 802.3ad != IEEE 802.3ad
[node01] > iperf -s -B node01.ceph-cluster
[node02] > iperf -c node01.ceph-cluster -P 2
[node03] > iperf -c node01.ceph-cluster -P 2
------------------------------------------------------------
Server listening on TCP port 5001
Binding to local address node01.ceph-cluster
TCP window size: 85.3 KByte (default)
------------------------------------------------------------
[ 4] local 10.102.5.11 port 5001 connected with 10.102.5.12 port 49412
[ 5] local 10.102.5.11 port 5001 connected with 10.102.5.12 port 49413
[ 6] local 10.102.5.11 port 5001 connected with 10.102.5.13 port 59947
[ 7] local 10.102.5.11 port 5001 connected with 10.102.5.13 port 59946
[ ID] Interval Transfer Bandwidth
[ 4] 0.0-10.0 sec 342 MBytes 286 Mbits/sec
[ 5] 0.0-10.0 sec 271 MBytes 227 Mbits/sec
[SUM] 0.0-10.0 sec 613 MBytes 513 Mbits/sec
[ 6] 0.0-10.0 sec 293 MBytes 246 Mbits/sec
[ 7] 0.0-10.0 sec 338 MBytes 283 Mbits/sec
[SUM] 0.0-10.0 sec 631 MBytes 529 Mbits/sec
IEEE 802.3ad != IEEE 802.3ad
[node01] > iperf -s -B node01.ceph-cluster
[node02] > iperf -c node01.ceph-cluster -P 2
[node03] > iperf -c node01.ceph-cluster -P 2
------------------------------------------------------------
Server listening on TCP port 5001
Binding to local address node01.ceph-cluster
TCP window size: 85.3 KByte (default)
------------------------------------------------------------
[ 4] local 10.102.5.11 port 5001 connected with 10.102.5.12 port 49412
[ 5] local 10.102.5.11 port 5001 connected with 10.102.5.12 port 49413
[ 6] local 10.102.5.11 port 5001 connected with 10.102.5.13 port 59947
[ 7] local 10.102.5.11 port 5001 connected with 10.102.5.13 port 59946
[ ID] Interval Transfer Bandwidth
[ 4] 0.0-10.0 sec 342 MBytes 286 Mbits/sec
[ 5] 0.0-10.0 sec 271 MBytes 227 Mbits/sec
[SUM] 0.0-10.0 sec 613 MBytes 513 Mbits/sec
[ 6] 0.0-10.0 sec 293 MBytes 246 Mbits/sec
[ 7] 0.0-10.0 sec 338 MBytes 283 Mbits/sec
[SUM] 0.0-10.0 sec 631 MBytes 529 Mbits/sec ???
Messen!
…und die Ergebnisse verstehen
CenterDevice
Gesamtarchitektur
Node 1
OSD 1
…
…
Node 2
…
…
…
Node 3
…
…
…
Node 4
…
OSD 48
…
Bare Metal
Ceph
Gesamtarchitektur
Node 1
OSD 1
…
…
Rados GW
Node 2
…
…
…
Rados GW
Node 3
…
…
…
Rados GW
Node 4
…
OSD 48
…
Rados GW
Bare Metal
Ceph
Gesamtarchitektur
Node 1
OSD 1
…
…
Rados GW
Node 2
…
…
…
Rados GW
Node 3
…
…
…
Rados GW
Node 4
…
OSD 48
…
Rados GW
VM 1
HAProxy
VM 1
HAProxy
VM 1
HAProxy
VM …
HAProxy
VMs
Bare Metal
Ceph
Gesamtarchitektur
Node 1
OSD 1
…
…
Rados GW
Node 2
…
…
…
Rados GW
Node 3
…
…
…
Rados GW
Node 4
…
OSD 48
…
Rados GW
VMs
Bare Metal
VM 1
Ceph
HAProxy
CenterDevice
Swift
VM 1
HAProxy
CenterDevice
Swift
VM 1
HAProxy
CenterDevice
Swift
VM …
HAProxy
CenterDevice
Swift
Vorteile
Nachteile
Caveats
CephFS
Not recommended for production data.
Scrubbing
Integrität hat ihren Preis. Aber man kann handeln!
Zukunft
Rados Gateway
Ceph Caching Tier
SSD based Journaling
10GBit/s Networking
Zum Schluss
Folien bei Slideshare
http://www.slideshare.net/dschneller
Handout bei
CenterDevice
https://public.centerdevice.de/399612bf-ce31-489f-
bd58-04e8d030be52
@drivebytesting
@dschneller
Ende
Daniel Schneller
daniel.schneller@centerdevice.de
@dschneller

Weitere ähnliche Inhalte

PDF
Private Cloud mit Open Source
PDF
Ceph Introduction @GPN15
PDF
Private Cloud mit Ceph und OpenStack
PDF
Klonen von Exadata-Datenbanken mit der Oracle ZFS Appliance - Ein Erfahrungsb...
PDF
openstack Übersicht @GPN15
PPTX
Storage Spaces Direct - Introduction
PDF
Mit OpenStack zur eigenen Cloud (OSDC 2012)
PDF
AnyARK Gluster Brick 270TB (198TB netto) Datenblatt
Private Cloud mit Open Source
Ceph Introduction @GPN15
Private Cloud mit Ceph und OpenStack
Klonen von Exadata-Datenbanken mit der Oracle ZFS Appliance - Ein Erfahrungsb...
openstack Übersicht @GPN15
Storage Spaces Direct - Introduction
Mit OpenStack zur eigenen Cloud (OSDC 2012)
AnyARK Gluster Brick 270TB (198TB netto) Datenblatt

Was ist angesagt? (18)

PDF
LinuxTag 2008 - Virtuelle Cold-Standby Server mit Linux
PDF
Keepalived & HA-Proxy as an alternative to commercial loadbalancer - August 2014
PDF
TechTalkThursday 27.10.2016: Ceph im NVME Cluster
PDF
Docker und Kubernetes Patterns & Anti-Patterns
PDF
Solr & Cassandra: Searching Cassandra with DataStax Enterprise
PDF
Hochleistungsspeichersysteme für Datenanalyse an der TU Dresden (Michael Kluge)
PDF
PDF
Big Data Community Webinar vom 16. Mai 2019: Oracle NoSQL DB im Überblick
PPTX
Dockerize It - Mit apex in die amazon cloud
PDF
Sich selbst verstehen – der ELK-Stack in der Praxis
PDF
Hadoop 2.0 - The Next Level
PPTX
Nginx
PPTX
Integrierte und dedizierte Backup Lösung von GFI MAX
PDF
mongoDB im Einsatz - Grundlagen
PDF
OSDC 2011 | GlusterFS by Thomas Halinka
PDF
Infrastructure as code: Cloud-Umgebungen mit Terraform verwalten
PPTX
Infrastructure as Code mit Terraform
PPTX
Oracle Database Security Assessment Tool (DBSAT)
LinuxTag 2008 - Virtuelle Cold-Standby Server mit Linux
Keepalived & HA-Proxy as an alternative to commercial loadbalancer - August 2014
TechTalkThursday 27.10.2016: Ceph im NVME Cluster
Docker und Kubernetes Patterns & Anti-Patterns
Solr & Cassandra: Searching Cassandra with DataStax Enterprise
Hochleistungsspeichersysteme für Datenanalyse an der TU Dresden (Michael Kluge)
Big Data Community Webinar vom 16. Mai 2019: Oracle NoSQL DB im Überblick
Dockerize It - Mit apex in die amazon cloud
Sich selbst verstehen – der ELK-Stack in der Praxis
Hadoop 2.0 - The Next Level
Nginx
Integrierte und dedizierte Backup Lösung von GFI MAX
mongoDB im Einsatz - Grundlagen
OSDC 2011 | GlusterFS by Thomas Halinka
Infrastructure as code: Cloud-Umgebungen mit Terraform verwalten
Infrastructure as Code mit Terraform
Oracle Database Security Assessment Tool (DBSAT)
Anzeige

Ähnlich wie Ceph Object Store (20)

PDF
Citrix Day 2013: Citirx Networking
PDF
stackconf 2020 | SecDevOps in der Cloud by Florian Wiethoff
PPTX
Hybrid cloud iaa-s_office-365-azure_sharepoint-konferenz-wien-2013_ankbs_mich...
PDF
Cloud-native and Enterprise Java? Hold my beer!
PPTX
SQL oder NoSQL - Die Auswahl der richtigen Datenbankplattform für die Cloud
PPTX
Digitisation and Online Presentation of Archival Material
PDF
OSMC 2008 | Monitoring Microsoft SQL Server by Michael Streb
PPTX
Erweitern sie ihr Data Center mit Cloud Services
PDF
Meet Magento - High performance magento
PPTX
OOP 2014 SQL oder NoSQL - die Auswahl der richtigen Datenbankplattform für di...
PDF
Ldap sqlnet
PDF
Supersonic Java für die Cloud: Quarkus
PDF
Vert.x kubernetes
PDF
IPv6 Integration im Datacenter - wie komplex ist es wirklich?
PDF
Dataservices - Data Processing mit Microservices
PDF
DWX Developer Week 2015 - Microservice architecture applied
PPTX
Tipps & Tricks zum Aufbau einer Unternehmenscloud mit CC13
PDF
Schlanke Webarchitekturen nicht nur mit JSF 2 und CDI
PPTX
ANEO | Automatisierung mit RedHat Ansible
PDF
DOAG 2018 / Praktische Erfahrungen mit SPARC S7-2 Server
Citrix Day 2013: Citirx Networking
stackconf 2020 | SecDevOps in der Cloud by Florian Wiethoff
Hybrid cloud iaa-s_office-365-azure_sharepoint-konferenz-wien-2013_ankbs_mich...
Cloud-native and Enterprise Java? Hold my beer!
SQL oder NoSQL - Die Auswahl der richtigen Datenbankplattform für die Cloud
Digitisation and Online Presentation of Archival Material
OSMC 2008 | Monitoring Microsoft SQL Server by Michael Streb
Erweitern sie ihr Data Center mit Cloud Services
Meet Magento - High performance magento
OOP 2014 SQL oder NoSQL - die Auswahl der richtigen Datenbankplattform für di...
Ldap sqlnet
Supersonic Java für die Cloud: Quarkus
Vert.x kubernetes
IPv6 Integration im Datacenter - wie komplex ist es wirklich?
Dataservices - Data Processing mit Microservices
DWX Developer Week 2015 - Microservice architecture applied
Tipps & Tricks zum Aufbau einer Unternehmenscloud mit CC13
Schlanke Webarchitekturen nicht nur mit JSF 2 und CDI
ANEO | Automatisierung mit RedHat Ansible
DOAG 2018 / Praktische Erfahrungen mit SPARC S7-2 Server
Anzeige

Ceph Object Store