Ceph » Historique » Version 8
Version 7 (Laurent GUERBY, 07/10/2014 10:00) → Version 8/14 (Laurent GUERBY, 13/10/2014 18:51)
{{>toc}}
h1. Ceph
h2. Misc
* http://en.wikipedia.org/wiki/Ceph_(storage)
* http://ceph.com/
* http://www.inktank.com/
* https://linuxfr.org/news/red-hat-rachete-la-societe-inktank-a-l-origine-de-ceph
* [[Ceph-Sharing-Disk]]
* http://ceph.com/resources/mailing-list-irc/
h2. Scrub
http://lists.ceph.com/pipermail/ceph-users-ceph.com/2013-October/024794.html
http://tracker.ceph.com/issues/6278
ceph osd set noscrub
ceph osd set nodeep-scrub
h2. Recovery
http://tracker.ceph.com/issues/9566
long tail revovery
h2. Calamari
Calamari is a management and monitoring system for Ceph storage cluster. It provides a beautiful Dashboard User Interface that makes Ceph cluster monitoring amazingly simple and handy. Calamari was initially a part of Inktank’s Ceph Enterprise product offering and it has been open sourced few months back by Red Hat. Hence Calamari is a matured enterprise level software which is now Open Source. - See more at: http://ceph.com/category/calamari/#sthash.XpksGKGg.dpuf
* http://ceph.com/community/ceph-calamari-goes-open-source/
* http://ceph.com/category/calamari/
* https://github.com/ceph/calamari
h2. Debian
<pre>
<mherrb> est-ce que l'un de vous connait CEPH ? (http://ceph.com et https://github.com/ceph) ?
<djanos> mherrb: Je l’ai testé à INP-net/net7
<djanos> On est finalement reparti sur du DRBD avec heartbeat. La haute disponibilité intégré dedans c’est assez pratique,
mais les perf n’étaient pas au rendez-vous. Mais j’ai peut-être pas assez passé de temps pour trouver les bon réglages.
Ceci dit, c’est Laurent qui nous en avait parlé, d’autre à ttn l’utilise je crois.
<sileht> ca marche bien et cote setup c'est facile d'avoir des mauvaises perfs, pour attendre le débit des disques
des machines du cluster, il faut mettre un SSD pour n disk
<sileht> n = IOPS_SSD/(nombre de disk * IOPS disk)
<sileht> et décrire dans la conf de ceph comment sont connecté physique tes machines machines/disques/switches
<sileht> c'est pas trivial mais une fois installé ca marche bien
</pre>
h1. Ceph
h2. Misc
* http://en.wikipedia.org/wiki/Ceph_(storage)
* http://ceph.com/
* http://www.inktank.com/
* https://linuxfr.org/news/red-hat-rachete-la-societe-inktank-a-l-origine-de-ceph
* [[Ceph-Sharing-Disk]]
* http://ceph.com/resources/mailing-list-irc/
h2. Scrub
http://lists.ceph.com/pipermail/ceph-users-ceph.com/2013-October/024794.html
http://tracker.ceph.com/issues/6278
ceph osd set noscrub
ceph osd set nodeep-scrub
h2. Recovery
http://tracker.ceph.com/issues/9566
long tail revovery
h2. Calamari
Calamari is a management and monitoring system for Ceph storage cluster. It provides a beautiful Dashboard User Interface that makes Ceph cluster monitoring amazingly simple and handy. Calamari was initially a part of Inktank’s Ceph Enterprise product offering and it has been open sourced few months back by Red Hat. Hence Calamari is a matured enterprise level software which is now Open Source. - See more at: http://ceph.com/category/calamari/#sthash.XpksGKGg.dpuf
* http://ceph.com/community/ceph-calamari-goes-open-source/
* http://ceph.com/category/calamari/
* https://github.com/ceph/calamari
h2. Debian
<pre>
<mherrb> est-ce que l'un de vous connait CEPH ? (http://ceph.com et https://github.com/ceph) ?
<djanos> mherrb: Je l’ai testé à INP-net/net7
<djanos> On est finalement reparti sur du DRBD avec heartbeat. La haute disponibilité intégré dedans c’est assez pratique,
mais les perf n’étaient pas au rendez-vous. Mais j’ai peut-être pas assez passé de temps pour trouver les bon réglages.
Ceci dit, c’est Laurent qui nous en avait parlé, d’autre à ttn l’utilise je crois.
<sileht> ca marche bien et cote setup c'est facile d'avoir des mauvaises perfs, pour attendre le débit des disques
des machines du cluster, il faut mettre un SSD pour n disk
<sileht> n = IOPS_SSD/(nombre de disk * IOPS disk)
<sileht> et décrire dans la conf de ceph comment sont connecté physique tes machines machines/disques/switches
<sileht> c'est pas trivial mais une fois installé ca marche bien
</pre>