Добро пожаловать, Гость. Пожалуйста авторизуйтесь здесь.
FGHIGate на GaNJa NeTWoRK ST@Ti0N - Просмотр сообщения в эхоконференции RU.UNIX.BSD
Введите FGHI ссылку:


Присутствуют сообщения из эхоконференции RU.UNIX.BSD с датами от 18 Jan 11 22:51:00 до 16 Sep 24 17:28:15, всего сообщений: 10763
Ответить на сообщение К списку сообщений Предыдущее сообщение Следующее сообщение
= Сообщение: 7414 из 10763 ===================================== RU.UNIX.BSD =
От   : Eugene Grosbein                  2:5006/1           14 May 18 07:24:30
Кому : Slawa Olhovchenkov                                  14 May 18 07:24:30
Тема : Re: ARC max size
FGHI : area://RU.UNIX.BSD?msgid=grosbein.net+eb7aa932
На   : area://RU.UNIX.BSD?msgid=2:5030/500+5af7c34f
= Кодировка сообщения определена как: IBM866 =================================
Ответ: area://RU.UNIX.BSD?msgid=2:5030/500+5af94d0d
==============================================================================
13 мая 2018, воскресенье, в 05:35 NOVT, Slawa Olhovchenkov написал(а):

EG>> Если нет, ну тогда over RAID10 вместо страйпа.
SO> о. raid10. т.е. вместо 6 часов в идеале или 18 часов в реальности мне нужно
SO> будет ждать синкания полторы недели. очень смешно.

Hо почему? Линейная запись на graid (RAID10) без лишних конкурирующих
запросов, в два потока, должна идти со скоростью записи на страйп,
то есть вдвое быстрее, чем на один диск.

SO>>> 2) UFS2: максимальный размер блока 64КБ (ЕМHИП),
EG>> Да.
SO>>> значит производительность с одного шпинделя 9МБ/с, вместо 50МБ/с на
SO>>> мегабайтном блоке в случае ZFS
EG>> Это может у ZFS девять мегабайт в секунду - не мерял, не знаю.
EG>> А вот нетюненная FreeBSD при чтении файла блоками по 64k
EG>> реально читает по MAXPHYS=128K - видимо, из-за read-ahead,
EG>> который нынче по дефолту vfs.read_max=64 (в блоках).
SO> ну так и будет 9МБ/с, это я для 128К привел цифру.
EG>> Кстати, на одном сервере у меня уменьшено до 8, как было по дефолту
EG>> в восьмерке. Из-за характера нагрузки на этом сервере нежелательно
EG>> тратить i/o bandwidth настолько щедро.
EG>> В итоге systat -vm 3 показывает чтение с диска по скоростью
EG>> 130-134 мегабайта в секунду вв время работы команды:
EG>> # time dd bs=64k if=file-53GB of=/dev/null
SO> а зачем мне вывод такой команды?
SO> ты покажу суммарную производительность при паралельном чтении из 400 различных
SO> файлов.

То есть речь идёт об дергании головками HDD? А i/o scheduling пробовал?

Вроде на фряхе есть пара реализаций, одну кстати как раз Netflix с тем же профилем
нагрузки и впиливал в ядро: https://people.freebsd.org/~imp/bsdcan2015/iosched-v3.pdf
Оно нынче options CAM_IOSCHED_DYNAMIC называется.

SO>>> 3) gjournal: ну лучше я не буду не коментировать
EG>> А ты покомментируй. У тебя же read-mostly нагрузка,
EG>> почему бы и не gjournal?
SO> костыли и подпорки.
SO> кеширование на SSD мне тоже самому из костылей и шелов городить?

Hу так я и спрашивал, для чего ZFS. Теперь понятно,
для L2ARC на SSD и агрессивного кеширования диска.

Eugene
--
Поэты - страшные люди. У них все святое.
--- slrn/1.0.2 (FreeBSD)
* Origin: RDTC JSC (2:5006/1@fidonet)

К главной странице гейта
Powered by NoSFeRaTU`s FGHIGate
Открытие страницы: 0.112867 секунды