Изменения

Производительность Ceph

363 байта добавлено, 22:46, 6 ноября 2018
Нет описания правки
«А почему так мало…» — см.ниже.
После сборки Ceph можно Как тестировать такCeph после сборки:
* IOPS на запись через rados bench лучше не использовать — он создаёт для тестирования очень мало объектов (в режиме1 поток всего 2, соответствующем RBD (4 Кб блоки в 4 Мб объектах, 128 параллельных запросов128 — несколько сотен) — нетранзакционной нагрузке:<br /> {{Cmd|1=rados bench . Из-p ваш_пул -t 128 -b 4096 -o $((4096*1024)) 60 write}}* <s>То же самое с транзакционной нагрузкой (за этого, например, СУБД): {{Cmd|1=rados bench -p ваш_пул -t 1 -b 4096 -o $((4096*1024)) 60 write}}</s>*: ''Примечание: способ признан плохимна заполненном HDD результаты будут сильно оптимистичнее, так как оказалось, что rados bench снимается необходимость постоянного поиска метаданных в 1 поток создаёт всего лишь несколько объектов для тестирования — запись получается не очень-то «случайной»RocksDB.''* fio через в RBD: {{Cmd|1=fio -ioengine=rbd -direct=1 -invalidate=1 -name=test -bs=4k -iodepth=128 -rw=randwrite -pool=rpool_hdd -runtime=60 -rbdname=testimg}}** лучше запускать с другого узла — результат будет в 1.5 раза лучше, видимо, из-за отсутствия переключения контекстов между ceph OSD и fio. можно запускать два теста параллельно, bluestore любит параллелизм — суммарный результат вполне может оказаться ещё в 2 раза лучше.** для мазохистов — параметр iodepth=128 поменять на iodepth=1. цифра будет раз в 20 хуже и она будет отражать то, сколько TPS сможет выполнить ваша OLTP СУБД.
* Встроенной утилитой {{Cmd|rbd bench --io-size 4096 --io-threads 64 --io-total 10G --io-pattern rand --io-type write rpool_hdd/testimg}}
* Можно тестировать и fio изнутри виртуалки, rbd драйвер нормально создаёт параллельную нагрузку — проверено.