Victor Sudakov <Victor.Sudakov@f49.n5005.z2.fidonet.org> wrote:
VS>>> Почему именно 16-32, а не скажем 64-128? AK>> проверенный миллиардами леммингов оптимум. VS> И что, после добавления памяти странные проблемы исчезнут? думаю, как минимум часть из них - да. За подробностями - что бывает при отступлении от протоптанных троп - можешь почитать документацию фринаса, обхохочешься. (geli тоже не очень натоптана, остается надеяться, что это не новая дорога нах...)
VS> Дожили, 64-битный процессор и 4 ГБ ОЗУ уже устаревший хлам. в общем-то, да. Hа моем служебном ноуте восемь, и это уже в общем-то минимально необходимое количество.
AK>> А зачем вообще поверх полутора терабайт нужна zfs? VS> Ради удобств в эксплуатации, которые она дает. Уж явно не ради объема VS> данных, у проблема, что ее писали именно ради объема. Потому что в какой-то момент, внезапно, выяснилось что дешевые диски доросли до размеров, когда прежние подходы перестают нормально масштабироваться. Остальное - как раз побочные эффекты того, что средние требования к железу заведомо покрывают мелкие накладные расходы.
VS> UFS предельный объем тоже в зеттабайтах измеряется. на бумаге. Hа практике, даже если не обращать внимания на цену и эффективность контроллера, позволяющего более-менее адекватно использовать массив всего лишь в шесть-восемь терабайт, я не говорю о "надежно", а так чтоб хотя бы минимально быть уверенным что там хранятся еще данные, а не шесть терабайт сида для рандом генератора, первая же встреча с fsck на таком объеме запомнится тебе надолго.
То есть размеры структур - да, позволяют натянуть ее на такой объем. А подход - не позволяет на нем работать с приемлемой эффективностью.
> Alex
--- ifmail v.2.15dev5.4 * Origin: Demos online service (2:5020/400)