在 mdadm raid 5 增长之后,我是否必须等待重塑才能调用 resize2fs?

Do I have to wait for reshaping to call resize2fs after mdadm raid 5 grow?

标题说明了一切。 我在 ubuntu 上有一个 3 个分区的 mdadm raid 5。 现在我添加了第 4 个分区。 所有分区覆盖整个物理磁盘,每个磁盘大小为 4 TB。 使用的文件系统是 ext4.

在 mdadm 增加 raid 5 之后,wiki 说要进行 fsck 检查然后调整大小

我是否必须等待 mdadm 重塑完成才能让 resize2fs 工作? 如果不是,它似乎不起作用。 突袭当然是卸载的。 我做了 fsck -f 检查。 运行 raid 上的 resize2fs 但是 mdadm -D /dev/md0 仍然显示 4 个磁盘,阵列大小为 8 TB,开发大小为 4 TB。 fdisk -l 也仅显示 8 TB 的大小。

我是不是做错了什么? 我如何调整文件系统的大小以包含我的第 4 个磁盘?

fdisk -l 输出:

Disk /dev/sdb: 3.7 TiB, 4000787030016 bytes, 7814037168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: E434C200-63C3-4CB8-8097-DD369155D797

Device     Start        End    Sectors  Size Type
/dev/sdb1   2048 7814035455 7814033408  3.7T Linux RAID


Disk /dev/sdd: 3.7 TiB, 4000787030016 bytes, 7814037168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: CAD9D9DA-1C3B-4FC2-95BD-A5F0B55DE313

Device     Start        End    Sectors  Size Type
/dev/sdd1   2048 7814035455 7814033408  3.7T Linux RAID


Disk /dev/sdc: 3.7 TiB, 4000787030016 bytes, 7814037168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: 090E94F6-A461-4B27-BCDF-5B49EC6AFC84

Device     Start        End    Sectors  Size Type
/dev/sdc1   2048 7814035455 7814033408  3.7T Linux RAID


Disk /dev/sde: 3.7 TiB, 4000787030016 bytes, 7814037168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: A0285071-2C16-42B4-8567-32CE98147A93

Device     Start        End    Sectors  Size Type
/dev/sde1   2048 7814035455 7814033408  3.7T Linux RAID


Disk /dev/md0: 7.3 TiB, 8001301774336 bytes, 15627542528 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 524288 bytes / 1572864 bytes

mdadm -D /dev/md0 输出

/dev/md0:
        Version : 1.2
  Creation Time : Thu Jan  7 08:23:57 2016
     Raid Level : raid5
     Array Size : 7813771264 (7451.79 GiB 8001.30 GB)
  Used Dev Size : 3906885632 (3725.90 GiB 4000.65 GB)
   Raid Devices : 4
  Total Devices : 4
    Persistence : Superblock is persistent

  Intent Bitmap : Internal

    Update Time : Mon Jan 11 08:10:47 2016
          State : clean, reshaping 
 Active Devices : 4
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 0

         Layout : left-symmetric
     Chunk Size : 512K

 Reshape Status : 47% complete
  Delta Devices : 1, (3->4)

           Name : NAS:0  (local to host NAS)
           UUID : 69ba4b0e:a2427b2a:121cc4e0:5461a8fb
         Events : 10230

    Number   Major   Minor   RaidDevice State
       0       8       33        0      active sync   /dev/sdc1
       1       8       49        1      active sync   /dev/sdd1
       3       8       65        2      active sync   /dev/sde1
       4       8       17        3      active sync   /dev/sdb1

所以既然我的 Raid 完成了重塑,我想我会回答我自己的问题,留下一些知识。 通过 mdadm 增长软件 raid 后,您必须等到它完成重塑,然后 运行 fsck -f 在 raid 上完成,然后使用 resize2fs /dev/md ,它最终会调整 fs 的大小。