Изменения

Производительность Ceph

70 байтов добавлено, 20:55, 12 ноября 2018
Нет описания правки
<pre>
root@m2:~# ceph daemon osd.0 perf dump | jq '.osd.op + .osd.subop'
86986193
root@m2:~# grep -P 'io_submit\(' osd0-trace.txt |wc -l
1085412383
root@m2:~# grep -P 'io_submit\(.*iov_len=4096' osd0-trace.txt |wc -l
1085412382
root@m2:~# grep -P 'pwritev\(' osd0-trace.txt |wc -l
54366203
root@m2:~# grep -P 'sync.*\(' osd0-trace.txt |wc -l
2171624776
root@m2:~# grep -P 'pwritev.*= 4096$' osd0-trace.txt |wc -l
31103163
root@m2:~# grep -P 'pwritev.*= 8192$' osd0-trace.txt |wc -l
22852991
root@m2:~# grep -P 'pwritev.*= 12288$' osd0-trace.txt |wc -l
4149
</pre>
То есть эта тварь на 8698 запросов 6193 запроса записи сделала 16290 18585 записей (суммарно 21674*4к) и 21716 24776 (!!!) синков! (sync_file_range и fdatasync)
Итого Write Amplification с SSD-настройками = 23.14 — не так уж 0. О чём и плохошла речь: данные, метаданные, журнал. Но fsync-ов просто море — больше, чем запросов записи :)
== DPDK и SPDK ==