Добрый день.
Я не селен в FreeBSD, только учусь. Стала задача сделать клон системного диска и потом вынести этот винчестер на отдельный компьютер, что бы дописывать измененные файлы. Что бы если вышел из строя системный диск его можно было заменить, снять с сервера бэкап и поставить вместо того что вышел из строя. Зеркало не предлагать! Идея именно в том что этот винчестер будет стоять в отдельном компьютере.#df -h
Filesystem Size Used Avail Capacity Mounted on
zroot 237G 615M 237G 0% /
devfs 1.0k 1.0k 0B 100% /dev
/dev/gpt/hdd2 1.8T 1.7T 4.7G 100% /hdd2
/dev/gpt/hdd3 1.8T 862G 824G 51% /hdd3
zroot/shares 237G 49k 237G 0% /shares
zroot/shares/acters 239G 2.3G 237G 1% /shares/acters
zroot/shares/artist 257G 20G 237G 8% /shares/artist
zroot/shares/audio 618G 381G 237G 62% /shares/audio
zroot/shares/base 237G 31k 237G 0% /shares/base
zroot/shares/buhgalter 238G 1.8G 237G 1% /shares/buhgalter
zroot/shares/demo_recor 253G 16G 237G 6% /shares/demo_recor
zroot/shares/demo_remi 237G 31k 237G 0% /shares/demo_remi
zroot/shares/install 361G 124G 237G 34% /shares/install
zroot/shares/manager_recor 237G 227M 237G 0% /shares/manager_recor
zroot/shares/manager_remi 238G 1.3G 237G 1% /shares/manager_remi
zroot/shares/netlogon 237G 31k 237G 0% /shares/netlogon
zroot/shares/public 649G 413G 237G 64% /shares/public
zroot/shares/tmp 259G 22G 237G 9% /shares/tmp
zroot/shares/uchet-recor 237G 10M 237G 0% /shares/uchet-recor
zroot/shares/uchet-remi 238G 1.4G 237G 1% /shares/uchet-remi
zroot/shares/video 824G 587G 237G 71% /shares/video
tank2 574G 22k 574G 0% /tank2
tank2/shares 574G 246M 574G 0% /tank2/shares
tank2/shares/home 574G 46k 574G 0% /tank2/shares/home
tank2/shares/home/alex 75G 875M 74G 1% /tank2/shares/home/alex
tank2/shares/home/audio1 75G 21k 75G 0% /tank2/shares/home/audio1
tank2/shares/home/audio2 75G 21k 75G 0% /tank2/shares/home/audio2
tank2/shares/home/audio3 75G 21k 75G 0% /tank2/shares/home/audio3
tank2/shares/home/director 75G 21k 75G 0% /tank2/shares/home/director
tank2/shares/home/director2 75G 21k 75G 0% /tank2/shares/home/director2
tank2/shares/home/operator1 75G 24k 75G 0% /tank2/shares/home/operator1
tank2/shares/home/operator2 75G 21k 75G 0% /tank2/shares/home/operator2
tank2/shares/home/operator3 75G 21k 75G 0% /tank2/shares/home/operator3
tank2/shares/home/operator4 75G 21k 75G 0% /tank2/shares/home/operator4
tank2/shares/home/operator5 500M 21k 500M 0% /tank2/shares/home/operator5
tank2/shares/home/print 75G 21k 75G 0% /tank2/shares/home/print
tank2/shares/home/remi 75G 21k 75G 0% /tank2/shares/home/remi
tank2/shares/home/show 75G 21k 75G 0% /tank2/shares/home/show
tank2/shares/home/user 75G 21k 75G 0% /tank2/shares/home/user
tank2/shares/home/user1 75G 3.0G 72G 4% /tank2/shares/home/user1
tank2/shares/home/user2 75G 88M 74G 0% /tank2/shares/home/user2
tank2/shares/home/user3 75G 8.1G 67G 11% /tank2/shares/home/user3
tank2/shares/home/user4 75G 21k 75G 0% /tank2/shares/home/user4
tank2/shares/home/user5 75G 21k 75G 0% /tank2/shares/home/user5
tank2/shares/home/user7 500M 21k 500M 0% /tank2/shares/home/user7
tank2/shares/home/user8 500M 31k 500M 0% /tank2/shares/home/user8
tank4 586G 243G 342G 42% /tank4
zroot/tmp 237G 120M 237G 0% /tmp
zroot/usr 237G 816M 237G 0% /usr
zroot/usr/home 237G 500k 237G 0% /usr/home
zroot/usr/ports 237G 238M 237G 0% /usr/ports
zroot/usr/ports/distfiles 237G 97M 237G 0% /usr/ports/distfiles
zroot/usr/ports/packages 237G 31k 237G 0% /usr/ports/packages
zroot/usr/src 237G 350M 237G 0% /usr/src
zroot/var 237G 1.5M 237G 0% /var
zroot/var/crash 237G 31k 237G 0% /var/crash
zroot/var/db 237G 315M 237G 0% /var/db
zroot/var/db/pkg 237G 1.7M 237G 0% /var/db/pkg
zroot/var/empty 237G 31k 237G 0% /var/empty
zroot/var/log 237G 6.9M 237G 0% /var/log
zroot/var/mail 237G 298k 237G 0% /var/mail
zroot/var/run 237G 63k 237G 0% /var/run
zroot/var/tmp 237G 32k 237G 0% /var/tmp
devfs 1.0k 1.0k 0B 100% /var/named/dev#zpool status
pool: tank2
state: ONLINE
scan: none requested
config:NAME STATE READ WRITE CKSUM
tank2 ONLINE 0 0 0
ada4 ONLINE 0 0 0errors: No known data errors
pool: tank3
state: UNAVAIL
status: One or more devices could not be opened. There are insufficient
replicas for the pool to continue functioning.
action: Attach the missing device and online it using 'zpool online'.
see: http://www.sun.com/msg/ZFS-8000-3C
scan: none requested
config:NAME STATE READ WRITE CKSUM
tank3 UNAVAIL 0 0 0
13480963284054085982 UNAVAIL 0 0 0 was /dev/ada3pool: tank4
state: ONLINE
scan: none requested
config:NAME STATE READ WRITE CKSUM
tank4 ONLINE 0 0 0
ada2 ONLINE 0 0 0errors: No known data errors
pool: zroot
state: ONLINE
scan: none requested
config:NAME STATE READ WRITE CKSUM
zroot ONLINE 0 0 0
ada0p3 ONLINE 0 0 0errors: No known data errors
#cat /etc/fstab
/dev/gpt/hdd2 /hdd2 ufs rw 2 2
/dev/gpt/hdd3 /hdd3 ufs rw 2 2
/dev/acd0 /cdrom cd9660 ro,noauto 0 0
/dev/gpt/swap0 none swap sw 0 0#uname -a
FreeBSD PDC.local 9.0-RELEASE FreeBSD 9.0-RELEASE #2: Fri Jan 27 11:55:13 EET 2012
http://www.freebsd.org/doc/en_US.ISO8859-1/books/faq/disks.h...
> http://www.freebsd.org/doc/en_US.ISO8859-1/books/faq/disks.h...ну дамп ему явно не пойдет, с zfs-ом.
А что подойдет?
> А что подойдет?dd? - если винты одинаковые и можно стопить сервер на время переноса данных.
zfs send/receive ?
Оба винта WD 2 Tb, но один blue, а второй greenzfs send/receive - это что такое?
> Оба винта WD 2 Tb, но один blue, а второй greenЕсли размер винтов не совпадает до байта - dd не подходит. а вообще у вас zroot-у отдан раздел на винте, а не тупо винт, как в остальных ваших пулах, если раздел не сделан на весь винт, то можно копировать dd-шкой именно раздел, если же раздел на весь винт, то возвращаемся к: "если размер винтов не совпадает до байта - dd не подходит".
В общем делать нужно правильно изначально и думать головой, когда делаете, что бы потом не было мучительно больно.> zfs send/receive - это что такое?
man zfs
По-хорошему, надо бы загнать этот ваш сервер в виртуалку и поднять минимальный High Availability кластер. А образ держать на отдельно стоящем NASе.Тогда, в случае чего, оно даже поднимется самостоятельно, без участия системного администратора.
> По-хорошему, надо бы загнать этот ваш сервер в виртуалку и поднять минимальный
> High Availability кластер. А образ держать на отдельно стоящем NASе.Железо не потянет
За каждый мегабайт/сек боремся ((
>[оверквотинг удален]
> /cdrom
> cd9660 ro,noauto
> 0 0
> /dev/gpt/swap0 none
> swap
> sw
> 0
> 0
> #uname -a
> FreeBSD PDC.local 9.0-RELEASE FreeBSD 9.0-RELEASE #2: Fri Jan 27 11:55:13 EET 2012А HAST вам не подойдет?
> А HAST вам не подойдет?Интересно, не знал.
А для него надо разбивать на слайсы сначала винт или просто засовываю новый винт, а он там все сам сделает?
>> А HAST вам не подойдет?
> Интересно, не знал.
> А для него надо разбивать на слайсы сначала винт или просто засовываю
> новый винт, а он там все сам сделает?Создание отказоустойчивых хранилищ во FreeBSD, при помощи HAST
http://www.opennet.me/tips/2453_hast_freebsd_stogare_replica...
Это я уже прочитал, но мне не понятно все равно. Надо подготавливать винт или можно просто пустой засунуть и он сам все сделает?Мне ж надо что б он был как системный, с загрузачными секторами, etc, var, usr и т.п.
> Это я уже прочитал, но мне не понятно все равно. Надо подготавливать
> винт или можно просто пустой засунуть и он сам все сделает?можно, но делают так только те, кто дальше своего носа не видит.
А как правильно?
Кто-то, пожалуйста, разложите по полочкам, для новичка эту информацию. Буду очень признателен.P.S. И еще момент, не страшно ли что на машине которую хочу бэкапить ZFS, а на машине на которую бэкаплю UFS?
> А как правильно?
> Кто-то, пожалуйста, разложите по полочкам, для новичка эту информацию. Буду очень признателен.
> P.S. И еще момент, не страшно ли что на машине которую хочу
> бэкапить ZFS, а на машине на которую бэкаплю UFS?на http://wiki.freebsd.org/HAST
написано:
If you have any questions or comments, please use freebsd-fs@FreeBSD.org mailing list.
:-)
> А как правильно?
> Кто-то, пожалуйста, разложите по полочкам, для новичка эту информацию. Буду очень признателен.Эээ, дружище, если по-полочкам - тогда меняй профессию. Ну там, на парковщика ... :-)
> P.S. И еще момент, не страшно ли что на машине которую хочу
> бэкапить ZFS, а на машине на которую бэкаплю UFS?это уже явно не о клоне диска вопрос.