scif_yar: (Default)
[personal profile] scif_yar
https://techquisitor.dreamwidth.org/319848.html
Собственно, я был свидетелем этого разговора, а потом этот текст перекочевал в Телеграм-канал "Devops from Hell".

В одном профильном чате некий собирающийся в SDS юзер попросил рассказать грустных историй про RedHat'овский GlusterFS.

Поскольку относительно недавно мы такое втащили на прод (v3.12), накопилось следующее:
* Не может в 4KN диски, т.к. там индусокод под капотом. Переписка с саппортом про 4kn показала, что им пофиг на платного кастомера и баг чинить никто не будет. С этого момента компания отказалась от платной подписки на RH. Из-за 4kn прикола встряли на замену 39 дисков.
* На RHEL7 под systemd демоны его падают каждые несколько часов, в логах sigterm (15), как будто systemd сам их мочит. В какой-то момент окно авторестарта демона совпало на чуть больше, чем половине машин, и кворум кластера был утрачен. Весь продакшен умер, потом вручную в RHV перезапускали все VM.
* OOM у glusterfsd - родовая болезнь. Оно у него всегда было есть и будет. По этой причине на гластер ставятся жирные по памяти машины без дополнительной нагрузки и задач. Делать HCI на нем - это самый короткий путь в OOM hell.
* Из не смертельного, но раздражающего:
 - Туда нельзя положить файл размером больше брика, если брики одинакового размера
 - Добровольно-принудительное использование XFS
 - Проблемы с некоторыми сетевухами Dell из-за которых после нескольких дней uptime скорость GlusterFS деградирует до 10 раз (к счастью, излечимо)

Нужно ли такое в продакшене? Нет.

Date: 2018-03-08 10:46 am (UTC)
techquisitor: (sis)
From: [personal profile] techquisitor
Ну не каждый FOSS проект плох, хотя ссанины хватает и много, к сожалению.

Profile

scif_yar: (Default)
scif_yar

December 2025

S M T W T F S
 123456
78910111213
14151617181920
21222324252627
28 293031   

Page Summary

Style Credit

Expand Cut Tags

No cut tags
Page generated Jan. 14th, 2026 02:47 am
Powered by Dreamwidth Studios