Добро пожаловать, Гость. Пожалуйста авторизуйтесь здесь.
FGHIGate на GaNJa NeTWoRK ST@Ti0N - Просмотр сообщения в эхоконференции RU.UNIX.BSD
Введите FGHI ссылку:


Присутствуют сообщения из эхоконференции RU.UNIX.BSD с датами от 18 Jan 11 22:51:00 до 16 Sep 24 17:28:15, всего сообщений: 10763
Ответить на сообщение К списку сообщений Предыдущее сообщение Следующее сообщение
= Сообщение: 7428 из 10763 ===================================== RU.UNIX.BSD =
От   : Slawa Olhovchenkov               2:5030/500         14 May 18 11:42:12
Кому : Eugene Grosbein                                     14 May 18 11:42:12
Тема : ARC max size
FGHI : area://RU.UNIX.BSD?msgid=2:5030/500+5af94d0d
На   : area://RU.UNIX.BSD?msgid=grosbein.net+eb7aa932
= Кодировка сообщения определена как: FIDO ===================================
Ответ: area://RU.UNIX.BSD?msgid=grosbein.net+885cf432
==============================================================================
Hello Eugene!

14 May 18, Eugene Grosbein writes to Slawa Olhovchenkov:

EG>>> Если нет, ну тогда over RAID10 вместо страйпа.
SO>> о. raid10. т.е. вместо 6 часов в идеале или 18 часов в реальности мне
SO>> нужно будет ждать синкания полторы недели. очень смешно.

EG> Hо почему? Линейная запись на graid (RAID10) без лишних конкурирующих
EG> запросов, в два потока, должна идти со скоростью записи на страйп,
EG> то есть вдвое быстрее, чем на один диск.

откуда взялось:

а) два потока
б) без лишних конкурирующих запросов

если мы говорим о синкании после замены диска?

SO>>>> 2) UFS2: максимальный размер блока 64КБ (ЕМHИП),
EG>>> Да.
SO>>>> значит производительность с одного шпинделя 9МБ/с, вместо 50МБ/с на
SO>>>> мегабайтном блоке в случае ZFS
EG>>> Это может у ZFS девять мегабайт в секунду - не мерял, не знаю.
EG>>> А вот нетюненная FreeBSD при чтении файла блоками по 64k
EG>>> реально читает по MAXPHYS=128K - видимо, из-за read-ahead,
EG>>> который нынче по дефолту vfs.read_max=64 (в блоках).
SO>> ну так и будет 9МБ/с, это я для 128К привел цифру.
EG>>> Кстати, на одном сервере у меня уменьшено до 8, как было по дефолту
EG>>> в восьмерке. Из-за характера нагрузки на этом сервере нежелательно
EG>>> тратить i/o bandwidth настолько щедро.
EG>>> В итоге systat -vm 3 показывает чтение с диска по скоростью
EG>>> 130-134 мегабайта в секунду вв время работы команды:
EG>>> # time dd bs=64k if=file-53GB of=/dev/null
SO>> а зачем мне вывод такой команды?
SO>> ты покажу суммарную производительность при паралельном чтении из 400
SO>> различных файлов.

EG> То есть речь идёт об дергании головками HDD? А i/o scheduling пробовал?

а зачем? я и освещать и камлать с бубном не пробовал -- толк-то примерно одинаковый.
но ты можешь меня попробовать переубедить, проделав эксперимент. какой -- я уже гворил.

SO>>>> 3) gjournal: ну лучше я не буду не коментировать
EG>>> А ты покомментируй. У тебя же read-mostly нагрузка,
EG>>> почему бы и не gjournal?
SO>> костыли и подпорки.
SO>> кеширование на SSD мне тоже самому из костылей и шелов городить?

EG> Hу так я и спрашивал, для чего ZFS. Теперь понятно,
EG> для L2ARC на SSD и агрессивного кеширования диска.

а, т.е. тебя интересуют не мои ответы, а твои фантазии. ок.

... Жизнь - игpа, в котоpой нет setup'а
--- GoldED+/BSD 1.1.5-b20110223-b20110223
* Origin:  (2:5030/500)

К главной странице гейта
Powered by NoSFeRaTU`s FGHIGate
Открытие страницы: 0.293650 секунды