RAID-0 в сервер Dell
Аппаратный raid-контроллер не разрешил создать третий raid-массив. Буду строить программный. Надежность не важна. Скорость важна, поэтому RAID-0.
Ubuntu на Dell R740 без дополнительных действий увидела на горячую подключенные диски SATA.
cat /proc/mdstat - показал один существующие raid
parted -l показал, что новые диски sda и sdf
parted -a optimal /dev/sda
(parted) mklabel gpt
(parted) mkpart primary 0% 100%
(parted) quit
parted -a optimal /dev/sdf
(parted) mklabel gpt
(parted) mkpart primary 0% 100%
(parted) quit
Собрал raid-массив:
mdadm --create --verbose /dev/md2 --level=0 --raid-devices=2 /dev/sda1 /dev/sdf1
Внёс правки в /etc/mdadm/mdadm.conf. Переименовал файл /etc/mdadm/mdadm.conf в mdadm.conf.bak для сохранения резервной копииmdadm --detail --scan --verbose | awk '/ARRAY/ {print}' >> /etc/mdadm/mdadm.conf
nano /etc/mdadm/mdadm.conf
— Дописал в файл /etc/mdadm/mdadm.conf строчку MAILADDR root
Отформатировал раздел raid0
sudo mkfs.ext4 /dev/md2
командой blkid узнал ID раздела — 98f9996d-4193-4a24-b086-141f037fe035
в /etc/fstab добавил строчку UUID=98f9996d-4193-4a24-b086-141f037fe035 /mnt/SSD_16TB ext4 defaults 0 1
Создал каталог /mnt/SSD_16TB, присвоил права 0777
mount -a
Проверил скорость записи
sudo dd if=/dev/zero of=/mnt/SSD_16TB/testfile bs=1G count=5
RAID-1 в сервер Gigabyte
Ubuntu на сервере Gigabyte не определяет подключенные на горячую диски. Для обнаружения установленных 5 и 6 дисков без перезагрузки системы выполнил команды:
echo "- - -" >/sys/class/scsi_host/host4/scan
echo "- - -" >/sys/class/scsi_host/host5/scan
Появились sdf и sdg
Вернул диск в RAID-1 сервера Dell R 740
По какой-то причине от программного raid-1 отвалился один из дисков sde1. Фрагмент выдачи mdadm —detail /dev/md127
root@gpu3:/etc/mdadm# mdadm --detail /dev/md127
/dev/md127:
Version : 1.2
Creation Time : Fri Jan 20 10:59:33 2023
Raid Level : raid1
Array Size : 3750605120 (3.49 TiB 3.84 TB)
Used Dev Size : 3750605120 (3.49 TiB 3.84 TB)
Raid Devices : 2
Total Devices : 1
Persistence : Superblock is persistent
Intent Bitmap : Internal
Update Time : Thu Jul 4 14:47:46 2024
State : clean, degraded
Active Devices : 1
Number Major Minor RaidDevice State
- 0 0 0 removed
1 8 17 1 active sync /dev/sdb1
Дал команду:
mdadm /dev/md127 -a /dev/sde1
Проверил результат:
cat /proc/mdadm
root@gpu3:/# cat /proc/mdstat
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
md2 : active raid0 sdf1[1] sda1[0]
15002664960 blocks super 1.2 512k chunks
md127 : active raid1 sde1[0] sdb1[1]
3750605120 blocks super 1.2 [2/1] [_U]
[======>…………..] recovery = 34.4% (1292092096/3750605120) finish=212.4min speed=192888K/sec
bitmap: 21/28 pages [84KB], 65536KB chunk
unused devices:
То есть запустилась процедура восстановления зеркала.
Через несколько часов синхронизация завершилось успешно:
root@gpu3:/# mdadm --detail /dev/md127
/dev/md127:
Version : 1.2
Creation Time : Fri Jan 20 10:59:33 2023
Raid Level : raid1
Array Size : 3750605120 (3.49 TiB 3.84 TB)
Used Dev Size : 3750605120 (3.49 TiB 3.84 TB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Intent Bitmap : Internal
Update Time : Fri Jul 5 06:17:43 2024
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Consistency Policy : bitmap
Name : gpu3.niid.local:ssd4tb (local to host gpu3.niid.local)
UUID : de68a91a:1abd5979:8ecc23a0:1eca2436
Events : 55190
Number Major Minor RaidDevice State
0 8 65 0 active sync /dev/sde1
1 8 17 1 active sync /dev/sdb1
P.S. 06.11.2024 повторил операцию создания raid0 на node1.