Недавно я создал Raid10 с четырьмя дисками по 3 ТБ, все заработало, скопировал все мои файлы, и после перезагрузки рейд стал недоступен.
Я делал кучу поисков по этому вопросу, и я не уверен, как действовать дальше.
Фон:
У меня был рабочий RAIDZ с тремя дисками по 3 ТБ, и я решил перейти на RAID10 с четырьмя дисками по 3 ТБ (я купил еще один).
Я скопировал все файлы на запасной диск, расформировал RAIDZ, собрал RAID10, скопировал файлы обратно, и вроде бы все заработало.
Я думал, что перезагрузился, и проверил, все ли работает, но как только я перезагрузился, RAID10 стал неактивным, и я не могу снова сделать его активным.
Ошибки, которые, как мне кажется, я сделал:
- Не всесторонне тестируя все, пока у меня еще были резервные копии.
- Я использовал необработанный 4-й диск и забыл переразметить 3 существующих диска перед созданием RAID10.
- Я создал RAID10, следуя руководству, которое указывало на необработанные диски [sdb, sdc, sdd, sdf] вместо разделов [sdb1, sdc1, sdd1, sdf1] (ПРИМЕЧАНИЕ. Резервный жесткий диск USB по какой-то причине был sde)
Диагностика:
Это страшно, потому что он видит только один из 4 дисков:
cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : inactive sdd[3](S)
2930134488 blocks super 1.2
unused devices: <none>
Это пугает, потому что диски указаны как zfs_member:
lsblk -o NAME,SIZE,FSTYPE,TYPE,MOUNTPOINT
NAME SIZE FSTYPE TYPE MOUNTPOINT
loop0 2.3M squashfs loop /snap/gnome-calculator/238
loop1 34.6M squashfs loop /snap/gtk-common-themes/818
loop2 2.3M squashfs loop /snap/gnome-calculator/260
loop3 140.9M squashfs loop /snap/gnome-3-26-1604/70
loop4 42.1M squashfs loop /snap/gtk-common-themes/701
loop5 2.2M squashfs loop /snap/gnome-calculator/222
loop6 3.7M squashfs loop /snap/gnome-system-monitor/57
loop7 14.5M squashfs loop /snap/gnome-logs/45
loop8 87.9M squashfs loop /snap/core/5662
loop9 13M squashfs loop /snap/gnome-characters/124
loop10 87.9M squashfs loop /snap/core/5548
loop11 13M squashfs loop /snap/gnome-characters/139
loop12 14.5M squashfs loop /snap/gnome-logs/43
loop13 13M squashfs loop /snap/gnome-characters/117
loop14 34.2M squashfs loop /snap/gtk-common-themes/808
loop15 140.7M squashfs loop /snap/gnome-3-26-1604/74
loop16 3.7M squashfs loop /snap/gnome-system-monitor/54
loop17 87.9M squashfs loop /snap/core/5742
loop18 3.7M squashfs loop /snap/gnome-system-monitor/51
loop19 14.5M squashfs loop /snap/gnome-logs/40
sda 111.8G disk
├─sda1 103.8G ext4 part /
├─sda2 1K part
└─sda5 8G swap part [SWAP]
sdb 2.7T disk
├─sdb1 2.7T zfs_member part
└─sdb9 8M part
sdc 2.7T disk
├─sdc1 2.7T zfs_member part
└─sdc9 8M part
sdd 2.7T linux_raid_member disk
sde 2.7T disk
├─sde1 2.7T zfs_member part
└─sde9 8M part
Есть ли надежда, что если я смогу считать их частью linux_raid_member, я смогу заставить все работать?
Или реальность такова, что система думала, что это все еще ZFS, и отключила суперблоки?
Изучите шоу:
mdadm --examine /dev/sd[bcdefghijklmn]
/dev/sdb:
MBR Magic : aa55
Partition[0] : 4294967295 sectors at 1 (type ee)
/dev/sdc:
MBR Magic : aa55
Partition[0] : 4294967295 sectors at 1 (type ee)
/dev/sdd:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x1
Array UUID : 96442f9a:57385f26:b9e90509:0e527d07
Name : sifounakis.com:0 (local to host sifounakis.com)
Creation Time : Wed Nov 14 23:12:52 2018
Raid Level : raid10
Raid Devices : 4
Avail Dev Size : 5860268976 (2794.39 GiB 3000.46 GB)
Array Size : 5860268032 (5588.79 GiB 6000.91 GB)
Used Dev Size : 5860268032 (2794.39 GiB 3000.46 GB)
Data Offset : 264192 sectors
Super Offset : 8 sectors
Unused Space : before=264112 sectors, after=944 sectors
State : clean
Device UUID : 250241b1:d1832e3c:ed412124:954a20f2
Internal Bitmap : 8 sectors from superblock
Update Time : Fri Nov 16 20:14:28 2018
Bad Block Log : 512 entries available at offset 32 sectors
Checksum : 5ea53bb5 - correct
Events : 30006
Layout : near=2
Chunk Size : 512K
Device Role : Active device 3
Array State : AAAA ('A' == active, '.' == missing, 'R' == replacing)
/dev/sde:
MBR Magic : aa55
Partition[0] : 4294967295 sectors at 1 (type ee)
Я попытался собрать без везения:
mdadm --assemble /dev/md0 /dev/sd[bcde]
mdadm: Cannot assemble mbr metadata on /dev/sdb
mdadm: /dev/sdb has no superblock - assembly aborted
Тот же результат с опцией --force.
Я не пробовал воссоздавать RAID10:
Я не пробовал воссоздавать RAID10, опасаясь внесения необратимых изменений (если это еще не сделано), но на этой странице кажется, что это возможно: https://ubuntuforums.org/showthread.php?t=1972690
Что я могу сделать?
Есть ли у кого-нибудь предложения о том, что я должен попробовать, или варианты, которые я должен рассмотреть?
Большое спасибо, что нашли время, чтобы просмотреть это и помочь.