13 May 18, Eugene Grosbein writes to Slawa Olhovchenkov:
EG>>> UFS2+gjournal over stripe? SO>> я знал что ты это хуйню предложишь. SO>> 1) страйп: при умирании диска все идет нахуй
EG> А у тебя нету разве резервирования per-box, EG> ну то есть если что угодно в ящике сдохло EG> (материнка/бп/дисковая подсистема), то его нагрузку EG> берут другие ящики,
у меня железо -- не хетнецеровская отработка, самого железа не настолько много, что бы это имело экономический смысл.
EG> а этот неспешно ремонтируется и перезаливается?
перезаливать 30ТБ в любом случае очень весело
EG> Если нет, ну тогда over RAID10 вместо страйпа.
о. raid10. т.е. вместо 6 часов в идеале или 18 часов в реальности мне нужно будет ждать синкания полторы недели. очень смешно.
SO>> 2) UFS2: максимальный размер блока 64КБ (ЕМHИП),
EG> Да.
SO>> значит производительность с одного шпинделя 9МБ/с, вместо 50МБ/с на SO>> мегабайтном блоке в случае ZFS
EG> Это может у ZFS девять мегабайт в секунду - не мерял, не знаю. EG> А вот нетюненная FreeBSD при чтении файла блоками по 64k EG> реально читает по MAXPHYS=128K - видимо, из-за read-ahead, EG> который нынче по дефолту vfs.read_max=64 (в блоках).
ну так и будет 9МБ/с, это я для 128К привел цифру.
EG> Кстати, на одном сервере у меня уменьшено до 8, как было по дефолту EG> в восьмерке. Из-за характера нагрузки на этом сервере нежелательно EG> тратить i/o bandwidth настолько щедро.
EG> В итоге systat -vm 3 показывает чтение с диска по скоростью EG> 130-134 мегабайта в секунду вв время работы команды:
EG> # time dd bs=64k if=file-53GB of=/dev/null
а зачем мне вывод такой команды? ты покажу суммарную производительность при паралельном чтении из 400 различных файлов.
SO>> 3) gjournal: ну лучше я не буду не коментировать
EG> А ты покомментируй. У тебя же read-mostly нагрузка, EG> почему бы и не gjournal?
костыли и подпорки. кеширование на SSD мне тоже самому из костылей и шелов городить?
... Чем дольше проживешь -- тем больше опозоришся. --- GoldED+/BSD 1.1.5-b20110223-b20110223 * Origin: (2:5030/500)