| 
 | 1.2, zuborg (?), 19:03, 05/12/2007  [ответить] [﹢﹢﹢] [ · · · ] | +/– |  | мда, этой ZFS ещё развиваться и развиваться. преимущество в динамическом конфигурировании и в контроле целостности данных конечно вещь архиважная.
 Но большое потребление памяти, отсутсвие законченых грамотных политик оптимизации доступа к диску, и главное - нет возможности заменить плохой диск если там не raid1 или raid-z (хотя я могу и ошибаться) - это как винда-виста: вроде все вкусное, но лучше подождать с миграцией.
 
 |  |  | 
 
|  | | 2.3, Аноним (-), 20:11, 05/12/2007 [^] [^^] [^^^] [ответить] | +/– |  | Ну любые существующие решения она уже рвет. Так что ждите, ждите. 
 |  |  | 
 | 2.4, LOL (??), 21:13, 05/12/2007 [^] [^^] [^^^] [ответить] | +/– |  | >>>Но большое потребление памяти, отсутсвие законченых грамотных политик оптимизации доступа к диску Большое потребление памяти - это и есть законченая грамотная полита оптимизации доступа к диску. Никто не будет уменшать это потребление памяти - FS расчитана на роботу в мошных системах. Может вы еще претензии выставите 3DMark-у 6-у за то, что ее не тянет S3Trio-3D (тоже кстати 3D :)). Каждая система расчитана на то, на что она расчитана. 
 
>>> и главное - нет возможности заменить плохой диск если там не raid1
 Вы не поверите, меняется очень просто:
zpool replace test md0 md1
 Причем копируется не весь диск целиком (типа dd), а только данные.
 вот давеча копался в компе и случайно вытащил сата кабель на работающем винте, который из raidz1. 
Всего-то нужно засунуть кабель назад и дать команду:
 zpool online test md0
 И за 2 секунды диск уже в рейде опять. Представь сколько времени нужно на старых дедовских рейдах (даже на апаратных), что бы его заребилдить обратно в масив.
 >>> но лучше подождать с миграцией
 На домашнем компе мигрировал и доволен как слон 
Проблем ни одной не встретил на этом пути. :):):)
 Хотя как кому попадет.
 
 |  |  | 
 | 2.7, LOL (??), 21:37, 05/12/2007 [^] [^^] [^^^] [ответить] | +/– |  | Кстати, zfs при переходе с 6.2 на 7.0-Бета1 здорово спасла мои данные. Просто в Бета1 и Бета2 ну и ниже была какая-то лажа с контролерами Promise. Создал я на этом контролере пул с рейдз1 из 4 винтов. Потом забекапил еще из 2 винтов на этот пул все даные. Смутило, что по всем 4 винтам шло слишком много CKSUM error-в. Думал какая-то лажа с самой zfs.  Потом переткнул 4 винта с контролера Promise на мать, а загрузочные 2 винты с зеркалом (ufs2) на Promise и долго не мог понять, почему система не грузиться и ее страшно плющит. Короче после того, как 2 загрузочных винта побывали на этом контролере, fsck показал много inconsistency check ошибок. И только бекапы, которые хранились на рейдз1 остались целыми и невредимыми. В Бета3 проблемы с Promise исправили и сейчас все нормально. После этого я конкретно зауважал zfs.
 |  |  | 
 | 
 
 | 1.5, terminus (?), 21:19, 05/12/2007  [ответить] [﹢﹢﹢] [ · · · ] | +/– |  | >На домашнем компе мигрировал и доволен как слон >Проблем ни одной не встретил на этом пути. :):):)
 >Хотя как кому попадет.
 На семерке сидите или на OpenSolaris?
 |  |  | 
 
 | 1.6, ZANSWER (??), 21:28, 05/12/2007  [ответить] [﹢﹢﹢] [ · · · ] | +/– |  |  Сижу на Solaris/OpenSolaris проблем с ZFS нет не каких, в том числе ZFS Root на OpenSolaris использую, очень удобно ИМХО!!!:) 
 |  |  | 
 
 
 
|  | | 2.10, RedRat (??), 10:29, 07/12/2007 [^] [^^] [^^^] [ответить] | +/– |  | Ого! Это ж какие там залежи порн... программ! :-) А если серьёзно - сколько там и каких винтов? Сам собираюсь нечто подобное делать.
 |  |  | 
 | 
 
 | 1.11, Аноним (11), 10:36, 07/12/2007  [ответить] [﹢﹢﹢] [ · · · ] | +/– |  | собрал бекап сервер с полгода назад на gmirror + gstripe но сейчас перевел это все на zfs, оно реально сделано для людей, надежность и стабильность уже сейчас на betta 3 зы:странна, а где же pavlinux и _Nick_ ? упускают такой момент опустить zfs
 |  |  | 
 
|  | | 2.12, Александр (??), 10:31, 12/12/2007 [^] [^^] [^^^] [ответить] | +/– |  | >зы:странна, а где же pavlinux и _Nick_ ? упускают такой момент опустить >zfs
 Мнения этих граждан архиважны для Sun и ZFS!
 |  |  | 
 | 
 |