Исходно в raid1 /dev/md127 собраны /dev/sde1 и /dev/sdb1 и массив примонтирован в /mnt/SSD_4Tb
lsblk, df -h, mdadm —detail /dev/md127 показывают текущее состояние.
#lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINTS
loop0 7:0 0 38.7M 1 loop /tmp/mnt/snap/snapd/21465
/snap/snapd/21465
loop1 7:1 0 87M 1 loop /tmp/mnt/snap/lxd/29351
/snap/lxd/29351
loop3 7:3 0 38.8M 1 loop /tmp/mnt/snap/snapd/21759
/snap/snapd/21759
loop4 7:4 0 63.9M 1 loop /tmp/mnt/snap/core20/2318
/snap/core20/2318
loop5 7:5 0 64M 1 loop /tmp/mnt/snap/core20/2379
/snap/core20/2379
loop7 7:7 0 87M 1 loop /tmp/mnt/snap/lxd/28373
/snap/lxd/28373
sda 8:0 0 7T 0 disk
└─sda1 8:1 0 7T 0 part
└─md2 9:2 0 14T 0 raid0 /tmp/mnt/mnt/SSD_16TB
/mnt/SSD_16TB
sdb 8:16 0 3.5T 0 disk
└─sdb1 8:17 0 3.5T 0 part
sdc 8:32 0 14.6T 0 disk
└─sdc1 8:33 0 14.6T 0 part /mnt/16TB
sdd 8:48 0 446.6G 0 disk
├─sdd1 8:49 0 1G 0 part /boot/efi
└─sdd2 8:50 0 445.6G 0 part /tmp/mnt
/
sde 8:64 0 3.5T 0 disk
└─sde1 8:65 0 3.5T 0 part
sdf 8:80 0 7T 0 disk
└─sdf1 8:81 0 7T 0 part
└─md2 9:2 0 14T 0 raid0 /tmp/mnt/mnt/SSD_16TB
/mnt/SSD_16TB
#mdadm —detail /dev/md127
/dev/md127:
Version : 1.2
Creation Time : Fri Jan 20 10:59:33 2023
Raid Level : raid1
Array Size : 3750605120 (3.49 TiB 3.84 TB)
Used Dev Size : 3750605120 (3.49 TiB 3.84 TB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Intent Bitmap : Internal
Update Time : Tue Oct 1 09:31:28 2024
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Consistency Policy : bitmap
Name : gpu3.niid.local:ssd4tb (local to host gpu3.niid.local)
UUID : de68a91a:1abd5979:8ecc23a0:1eca2436
Events : 57904
Number Major Minor RaidDevice State
0 8 65 0 active sync /dev/sde1
1 8 17 1 active sync /dev/sdb1
В /etc/fstab запись:
UUID=b72a529c-a04e-444a-a7ad-2bfbb3477fc1 /mnt/SSD_4Tb ext4 defaults 0 1
В /etc/mdadm/mdadm.conf запись:
ARRAY /dev/md/ssd4tb level=raid1 num-devices=2 metadata=1.2 name=gpu3.niid.local:ssd4tb UUID=de68a91a:1abd5979:8ecc23a0:1eca2436
Удалял массив так:
#umount /mnt/SSD_4Tb
#mdadm —stop /dev/md127
mdadm: stopped /dev/md127
# mdadm —remove /dev/md127
mdadm: error opening /dev/md127: No such file or directory
В /etc/fstab убрал строчку с /mnt/SSD_4Tb
Если диски не надо больше использовать в массиве, то надо удалить суперблоки и почистить диски:
#mdadm —zero-superblock /dev/sde
#wipefs —all —force /dev/sde
После этого извлёк диски из корзины сервера Dell. Zabbix прислал сообщения:
Zabbix:
Problem: Dell R740: System status is in critical state
⛔️ Problem started at 13:10:52 on 2024.10.01
Problem name: Dell R740: System status is in critical state
Host: PAK1_R740_GPU3
Severity: High
Operational data: Current state: critical (5)
Original problem ID: 4993322Zabbix:
Problem: Dell R740: Solid State Disk 0:1:5 has been replaced (new serial number received)
⛔️ Problem started at 13:10:52 on 2024.10.01
Problem name: Dell R740: Solid State Disk 0:1:5 has been replaced (new serial number received)
Host: PAK1_R740_GPU3
Severity: Information
Operational data: S487NY0R702
Original problem ID: 4993323
Установка и инициализация новых дисков рассмотрена в ранее опубликованной статье с некоторыми нюансами:
- Zabbix снял тревогу после горячего подключения других дисков
- В системе линукс не пришлось шаманить, чтобы появились блочные устройства дисков, как это приходится делать на серверах Gigabyte.