Изменения

Производительность Ceph

66 байтов убрано, 19:46, 11 августа 2018
Нет описания правки
* То же самое с транзакционной нагрузкой (например, СУБД): {{Cmd|1=rados bench -p ваш_пул -t 1 -b 4096 -o $((4096*1024)) 60 write}}
* Тем же самым fio через ioengine=rbd (здесь fdatasync не нужен): {{Cmd|1=fio -ioengine=rbd -direct=1 -invalidate=1 -name=test -bs=4k -iodepth=128 -rw=randwrite -pool=rpool_hdd -runtime=60 -rbdname=testimg}}
* В несколько потоков — добавить к fio опцию `-jobs=N`* Можно тестировать и fio изнутри виртуалки. , rbd драйвер нормально создаёт параллельную нагрузку — проверено.
* Производительность может отличаться на заполненном и незаполненном RBD-образе.
* При тестировании случайной записи в ceph в один поток (fsync/fdatasync/sync/iodepth=1/rados bench -t 1) вы фактически всё время тестируете ОДИН диск. То есть, всё время тестируются разные диски, но в каждый отдельный момент времени запрос идёт '''только к одной placement group''' (тройке-четвёрке-пятёрке дисков).* Соответственно, вы '''не увидите''' 100 % утилизации дисков на хостах при тестировании в один поток. Однопоточная , однопоточная нагрузка '''не может''' полностью загрузить кластер.
== Производительность случайной записи ==