Суть проблемы - есть старая машина, 2 ide винта в зеркале. На новой - 2 sata . пытаюсь переехать на новую - винты на новой запускаются, зеркалю старый винт на новый, отключаю старый, все проходит нормально, (+grub) потом при перезагрузке получаю kernel panic - can't read superblock/ - разделы сбоят.
Если грузиться с созданного зеркала старый ide+ новый sata, то грузимся - но разделы с нового винта тут же вылетают из контейнеров.
kernel: md: adding sda1 ...
kernel: md: md1 already running, cannot run sda1
kernel: md: export_rdev(sda1)
kernel: md: ... autorun DONE.CentOS 4.4, kernel 2.6.9.42.0.2
Возможно, проблема на уровне железа. Тк. в машине стоит уникальная плата
Foxconn на NVidia 61xx(Engeneering samle. NOT for production use!). Плата отправилась в гарантию, но может, тут что-то на уровне ПО?
http://lists.us.dell.com/pipermail/linux-poweredge/2003-July...mozhet pomozhet chto.
>http://lists.us.dell.com/pipermail/linux-poweredge/2003-July...
>
>mozhet pomozhet chto.
Спасибо. Но я в принципе так и делаю, разве что у меня mdraid .
приячем когда я вернул ide винт на старую машину, зеркало (с 2-м ide) восстановилось без проблем.
загрузка модулей в initrd?
>загрузка модулей в initrd?ядро стандартное RHEL - CentOS. т/е. сначала / как ext2 -> модулем ext3 .
имел в виду загрузку sata/etc/mdadm.conf в наличии? если да, плз, в студию.
>имел в виду загрузку sata
>
>/etc/mdadm.conf в наличии? если да, плз, в студию.DEVICE partitions
MAILADDR root
ARRAY /dev/md1 super-minor=1
ARRAY /dev/md5 super-minor=5
ARRAY /dev/md2 super-minor=2
ARRAY /dev/md3 super-minor=3
ARRAY /dev/md6 super-minor=6
ARRAY /dev/md7 super-minor=7Это сейчас. 2 ide диска на старой машине, там sata нету.
Когда добавлял sata на новой, то было соотв. + sda/sdbдрайвер для nvidia sata - модулем. Такое же ядро у меня прекрасно работает с рейдами с сата дисками, с intel & nvidia чипсетами.
Думаю что дело в mdadm.conf, нашел процедуру:
Regenerate /etc/mdadm/mdadm.confedit /etc/mdadm/mdadm.conf
Delete all but the top line
DEVICE /dev/sda* /dev/sdb*
Then run:
mdadm --detail --scan >> /etc/mdadm/mdadm.conf
Your final file should look like:
DEVICE /dev/sda* /dev/sdb*
ARRAY /dev/md0 level=raid1 num-devices=2 UUID=4d58ade4:dd80faa9:19f447f8:23d355e3
devices=/dev/sda1,/dev/sdb1
ARRAY /dev/md1 level=raid1 num-devices=2 UUID=3f1bdce2:c55460b0:9262fd47:3c94b6ab
devices=/dev/sda5,/dev/sdb5
ARRAY /dev/md2 level=raid1 num-devices=2 UUID=7dfd7fcb:d65245d6:f9da98db:f670d7b6
devices=/dev/sdb6,/dev/sda6