Linux RAID MDADM - clean,degraded - Active Devices 1

Před 1 lety napsal Jeeck

Vyřešeno
Ahoj,

používám na mém domácím serveru s Linux Ubuntu RAID1 zrcadlení přes MDADM a vypadá to, že je něco špatně. Když zkouknu mdadm -D /dev/md0, tak tam vidím state clean a degraded. Co to proboha je? Ze slova clean bych u raidu čekal, že je to v pořádku, ale co tam dělá i degraded? Buď je to přece clean a nebo degraded. Z toho jsem trochu mimo. Avšak z údaje Raid Devices : 2 a Total Devices : 1 odhaduji, že je něco špatně. Další údaj md0 : active raid1 sdc1[1] taky nevěští nic dobrého, očekával bych, že tam uvidím i disk /dev/sdb1 + unused devices: none je také zvláštní. Poradíte prosím někdo co s tím?

user@server ~ $ sudo cat /proc/mdstat
[sudo] password for user:
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
md0 : active raid1 sdc1[1]
976630464 blocks super 1.2 [2/1] [_U]
bitmap: 8/8 pages [32KB], 65536KB chunk

unused devices: none
user@server ~ $ sudo mdadm -D /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Fri Apr 28 09:50:22 2017
Raid Level : raid1
Array Size : 976630464 (931.39 GiB 1000.07 GB)
Used Dev Size : 976630464 (931.39 GiB 1000.07 GB)
Raid Devices : 2
Total Devices : 1
Persistence : Superblock is persistent

Intent Bitmap : Internal

Update Time : Thu Oct 5 09:04:41 2017
State : clean, degraded
Active Devices : 1
Working Devices : 1
Failed Devices : 0
Spare Devices : 0

Name : server:0 (local to host server)
UUID : a51d1c37:acdf77ae:8f6e9a2a:dfb781d7
Events : 107737

Number Major Minor RaidDevice State
0 0 0 0 removed
1 8 33 1 active sync /dev/sdc1
user@server ~ $ lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 111,8G 0 disk
├─sda1 8:1 0 487M 0 part /boot
└─sda2 8:2 0 111,3G 0 part
└─sda2_crypt 252:0 0 111,3G 0 crypt /
sdb 8:16 0 931,5G 0 disk
└─sdb1 8:17 0 931,5G 0 part
sdc 8:32 0 931,5G 0 disk
└─sdc1 8:33 0 931,5G 0 part
└─md0 9:0 0 931,4G 0 raid1
└─raid1 252:1 0 931,4G 0 crypt /home/user/Desktop/raid1
user@server ~ $ sudo cat /proc/mdstat
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
md0 : active raid1 sdc1[1]
976630464 blocks super 1.2 [2/1] [_U]
bitmap: 8/8 pages [32KB], 65536KB chunk

unused devices: none

RE: Linux RAID MDADM - clean…

Před 1 lety napsal Hanz

Zkontrolováno

Ahoj,

oprava tohoto problému by měla být jednoduchá, zkus vrátit disk /dev/sdb1 zpět do RAIDu pomocí mdadm -a:

mdadm -a /dev/md0 /dev/sdb1

RE: Linux RAID MDADM - clean…

Před 1 lety napsal Jeeck

Zkontrolováno

Ahoj, děkuji za radu, po opětovném přidání /dev/sdb1 do raidu pomocí mdadm -a se raid začal rebuildit. Díky!

user@server ~ $ mdadm --zero-superblock /dev/sdb1
user@server ~ $ mdadm -a /dev/md0 /dev/sdb1
mdadm: added /dev/sdb1
user@server ~ $ cat /proc/mdstat
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
md0 : active raid1 sdb1[2] sdc1[1]
976630464 blocks super 1.2 [2/1] [_U]
[>....................] recovery = 0.0% (474816/976630464) finish=102.7min speed=158272K/sec
bitmap: 8/8 pages [32KB], 65536KB chunk

unused devices: none

RE: Linux RAID MDADM - clean…

Před 1 lety napsal Jeeck

Zkontrolováno


18
Tak mi RAID opět padl, disk byl skutečně vadný. Dal jsem tam jiný starší.

PS: Pro nový disk je třeba překlonovat rozložení oddílů 1:1, což znamená sudo sfdisk -d /dev/sdd | sudo sfdisk /dev/sdb - to překlonuje rozložení z /dev/sdd do /dev/sdb.


user@server ~ $ sudo mdadm -D /dev/md0
[sudo] password for user:
/dev/md0:
Version : 1.2
Creation Time : Fri Apr 28 09:50:22 2017
Raid Level : raid1
Array Size : 976630464 (931.39 GiB 1000.07 GB)
Used Dev Size : 976630464 (931.39 GiB 1000.07 GB)
Raid Devices : 2
Total Devices : 1
Persistence : Superblock is persistent

Intent Bitmap : Internal

Update Time : Wed Oct 11 06:52:02 2017
State : clean, degraded
Active Devices : 1
Working Devices : 1
Failed Devices : 0
Spare Devices : 0

Name : server:0 (local to host server)
UUID : a51d1c37:acdf77ae:8f6e9a2a:dfb781d7
Events : 111292

Number Major Minor RaidDevice State
0 0 0 0 removed
1 8 49 1 active sync /dev/sdd1
user@server ~ $ sudo sfdisk -d /dev/sdd | sudo sfdisk /dev/sdb
Checking that no-one is using this disk right now ... OK

Disk /dev/sdb: 931,5 GiB, 1000204886016 bytes, 1953525168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: 4036EC8E-B377-4CF7-8386-56697EF8AEA6

Old situation:

Device Start End Sectors Size Type
/dev/sdb1 2048 534527 532480 260M EFI System
/dev/sdb2 534528 567295 32768 16M Microsoft reserved
/dev/sdb3 567296 1858312191 1857744896 885,9G Microsoft basic data
/dev/sdb4 1858312192 1910740991 52428800 25G Microsoft basic data
/dev/sdb5 1910740992 1912788991 2048000 1000M Windows recovery environment
/dev/sdb6 1912788992 1951475711 38686720 18,5G Windows recovery environment
/dev/sdb7 1951475712 1953523711 2048000 1000M Lenovo boot partition

>>> Script header accepted.
>>> Script header accepted.
>>> Script header accepted.
>>> Script header accepted.
>>> Created a new DOS disklabel with disk identifier 0x84a3ba18.
Created a new partition 1 of type 'Linux raid autodetect' and of size 931,5 GiB.
/dev/sdb2:
New situation:

Device Boot Start End Sectors Size Id Type
/dev/sdb1 2048 1953525134 1953523087 931,5G fd Linux raid autodetect

The partition table has been altered.
Calling ioctl() to re-read partition table.
Syncing disks.
user@server ~ $ lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 111,8G 0 disk
├─sda1 8:1 0 487M 0 part /boot
└─sda2 8:2 0 111,3G 0 part
└─sda2_crypt 252:0 0 111,3G 0 crypt /
sdb 8:16 0 931,5G 0 disk
└─sdb1 8:17 0 931,5G 0 part
sdc 8:32 0 465,8G 0 disk
├─sdc1 8:33 0 450M 0 part
├─sdc2 8:34 0 100M 0 part
├─sdc3 8:35 0 16M 0 part
├─sdc4 8:36 0 97,1G 0 part
└─sdc5 8:37 0 368,1G 0 part
└─backups 252:2 0 368,1G 0 crypt /mnt/backups
sdd 8:48 0 931,5G 0 disk
└─sdd1 8:49 0 931,5G 0 part
└─md0 9:0 0 931,4G 0 raid1
└─raid1 252:1 0 931,4G 0 crypt /home/user/Desktop/raid1
user@server ~ $ sudo mdadm -a /dev/md0 /dev/sdb1
mdadm: added /dev/sdb1
user@server ~ $ cat /proc/mdstat
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
md0 : active raid1 sdb1[2] sdd1[1]
976630464 blocks super 1.2 [2/1] [_U]
[>....................] recovery = 0.0% (948672/976630464) finish=137.1min speed=118584K/sec
bitmap: 5/8 pages [20KB], 65536KB chunk

unused devices: none
Tento web používá k poskytování služeb, personalizaci reklam a analýze návštěvnosti soubory cookie. Používáním tohoto webu s tím souhlasíte. Další informace