Расскажу, почему использование классных фич цефа может привести вас в эксплуатационный ад.
38 попугаев и как предсказать производительность Ceph.
Караван идёт со скоростью самого медленного корабля. Когда проще значит сложнее, и почему мы не любим большие кластеры. Почему незначительная проблема одной ОСД может привести к проблемам всех клиентов и как это можно попытаться купировать.
Дороже — это дешевле, или 1984 в нашей жизни. Почему собирать кластеры на hdd экономически неоправданно.
Поговорим про количество PG, на что это влияет и нужен ли autoscale.
Рассмотрим crush map, для чего нужен и почему мы считаем, что это киллер-фича.
Стоит ли выносить Block.db, как мы это делали уже на рабочем кластере.
Стоит ли использовать ec: боль или больше места?
И немного про интерконект: как лучше проектировать новый кластер CephFS или s3 для бэкапов, что мы выбрали и почему.
2ГИС, Системный администратор
Расскажу о нашем геораспределённом между площадками в Новосибирске и Москве Ceph-кластере:
- о проблеме лага репликации;
- как сглаживаем проблемы во время аварий;
- автоматизация бэкапа на ansible и gitlab-ci.