안녕하세요^^ 새해 복 많이 받으세요~ ^^
하드에 배드섹터가 점점 심각해지는것 같은 김에 하드를 업그레이드 하였습니다.
스토리지 수리 완료하고 데이터 스크럽까지 다 끝냈는데 저장소의 용량이 증가하지를 않습니다. 좀 더 조사해보니 용량 증가분이 스토리지 안에는 있는데, 볼륨에는 할당되지 않은 것으로 잡혀있더군요.
이것을 합칠 방법을 고민중인데, 볼륨을 새로 하나 만들어서 그걸 합쳐보려고 사용법을 읽어보니 그 볼륨을 제거하고 다시 원래 볼륨에 설정에서 할당된 크기 수정값을 조정하라고 되어있는데, 최대값이 새로운 전체 용량이 아니고 원래 값 그대로 되어서 더 크게 조정할 수가 없네요.
DS416j 모델이고 DSM 7.0.1-42218 Update 2 입니다.
어떻게 해야 할지 또는 뭐가 문제인지 아이디어를 좀 부탁드립니다. (꾸벅)
첫번째 그림에서 1,2,3,4의 하드 중에서 1,2번이 6T 하드에서 이번에 8T 하드로 교체한 것입니다.
원래는 1,2,3,4 모두 6T 하드였습니다.
아앗 그런…. 경험으론 2개씩 바꿔도 되었던것 같아서 어렵지 않게생각했었는데..
그럴 수도 있겠네요
감사합니다 저 때문에 새벽까지 고생하셨네요. 새해 복 많이 받으세요 ^^;
나중에 나머지 두 개도 업그레이드 해 봐야 할것 같습니다. 일단 전에는 두 개씩 잘 늘어났었거든요
제가 예전에 비슷한 증상이 있어서 수동으로 확장 시킨 경험이 있습니다.
ssh 에서 명령어로 했었구요. 정확히 기억은 안 나네요.
$ cat /proc/mdstat
으로 레이드 확인하신 다음
$ mdadm --grow --size=max /dev/md??
로 확장했었던 것 같은데요.
볼륨을 다루는 것이니 좀 더 검색해 보신 후 시도하셔야 겠네요.
위 명령어를 쓰면, 시놀로지 패키지의 디스크 관리자에서도 확장 중이라는 문구가 떴던 것으로 기억나네요.
수동 작업은 제가 자신이 없어서요. 일단 이대로 사용하다가 나중에 나머지 두 개의 하드를 업그레이드 하는 방법으로 가야 할것 같습니다. 감사합니다. (꾸벅)
$!hP님과 다른 분들께 혹시나 정보가 도움이 될까 싶어 cat /proc/mdstat 으로 확인한 결과를 공유 드리겠습니다. 제 상상보다 굉장히 복잡하게 레이드 구성이 되어있는 것 같네요. 참, 이것은 남아있는 공간을 일단 사용하기 위해 볼륨을 할당한 이후의 상황입니다.
더 이상은 작업하지 않고 일단 걍 덮어둘 생각입니다. 신경써주셔서 감사합니다.
ㅡㅡㅡㅡㅡ
$ cat /proc/mdstat
Personalities : [raid1] [raid6] [raid5] [raid4] [raidF1]
md4 : active raid1 sda7[0] sdb7[1]
1953494912 blocks super 1.2 [2/2] [UU]
md2 : active raid5 sda5[4] sdd5[7] sdc5[6] sdb5[5]
11706562368 blocks super 1.2 level 5, 64k chunk, algorithm 2 [4/4] [UUUU]
md3 : active raid5 sda6[4] sdd6[3] sdc6[2] sdb6[5]
5860484736 blocks super 1.2 level 5, 64k chunk, algorithm 2 [4/4] [UUUU]
md1 : active raid1 sda2[0] sdd2[3] sdc2[2] sdb2[1]
2097088 blocks [4/4] [UUUU]
md0 : active raid1 sda1[0] sdd1[3] sdc1[2] sdb1[1]
2490176 blocks [4/4] [UUUU]
unused devices: <none>
md0, md1 은 부팅용이라고 보시면 됩니다.
md2부터가 shr 로 만드는 구성인데, 용량을 쪼개면서 redundancy 1개를 두는 형태입니다.
그래서 md2랑 md3는 6TB 범위 내에서 모두 써서 raid5, md4는 가장 큰 2개의 남는 부분 (8TB-6TB=2TB씩) hdd 때문에 raid1로 구성됩니다.
md2랑 md3이 쪼개질 이유가 없을 것 같은데, 아마 예전에 6TB 구성 이전에 더 작은 용량으로 shr을 쓰시다가 업그레이드 하신게 아닌가 하는 생각도 드네요.
root 계정으로
$ mdadm --detail /dev/md[2,3,4]
한번 해 보세요~
계속 신경써주셔서 감사합니다.
$ mdadm --detail /dev/md[2,3,4] 한 결과는 다음과 같습니다.
mdadm --detail /dev/md[2,3,4]
/dev/md2:
Version : 1.2
Creation Time : Sat May 27 17:41:33 2017
Raid Level : raid5
Array Size : 11706562368 (11164.25 GiB 11987.52 GB)
Used Dev Size : 3902187456 (3721.42 GiB 3995.84 GB)
Raid Devices : 4
Total Devices : 4
Persistence : Superblock is persistent
Update Time : Sat Jan 29 22:50:55 2022
State : clean
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 64K
Name : DiskStation:2
UUID : 61==========
Events : 16545
Number Major Minor RaidDevice State
4 8 5 0 active sync /dev/sda5
5 8 21 1 active sync /dev/sdb5
6 8 37 2 active sync /dev/sdc5
7 8 53 3 active sync /dev/sdd5
/dev/md3:
Version : 1.2
Creation Time : Fri Jun 1 23:20:25 2018
Raid Level : raid5
Array Size : 5860484736 (5588.99 GiB 6001.14 GB)
Used Dev Size : 1953494912 (1863.00 GiB 2000.38 GB)
Raid Devices : 4
Total Devices : 4
Persistence : Superblock is persistent
Update Time : Sat Jan 29 17:49:30 2022
State : clean
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 64K
Name : z======:3 (local to host z=======)
UUID : 9b==========
Events : 11376
Number Major Minor RaidDevice State
4 8 6 0 active sync /dev/sda6
5 8 22 1 active sync /dev/sdb6
2 8 38 2 active sync /dev/sdc6
3 8 54 3 active sync /dev/sdd6
/dev/md4:
Version : 1.2
Creation Time : Wed Jan 26 00:18:26 2022
Raid Level : raid1
Array Size : 1953494912 (1863.00 GiB 2000.38 GB)
Used Dev Size : 1953494912 (1863.00 GiB 2000.38 GB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Update Time : Sat Jan 29 22:40:03 2022
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Name : z======:4 (local to host z======)
UUID : ec==========
Events : 3
Number Major Minor RaidDevice State
0 8 7 0 active sync /dev/sda7
1 8 23 1 active sync /dev/sdb7
말씀하신 대로, 아마 그 전에 3테라나 4테라 하드 구성으로 사용하다가 조금씩 업그레이드 해 온 것이 여기까지 이른 것입니다. 과거에 디스크 업그레이드 한 과정에서 내부 레이드 구성이 복잡하게 영향을 준 모양이네요. 저는 일단 통합 되기만 하면 레이드 구성도 단순하게 정리 될 거라고 상상했었는데 그렇지가 않군요. 밤까지 신경써주셔서 감사드립니다.
11164+5588+1863 이 18000이 넘으니 제대로 생성된 것 같습니다.
resize2fs 를 이용해서 volume 확장을 해야 하는데, 검색하시면 해당 내용이 나옵니다.
혹시 하기 힘드시면 시스템 지원 티켓 열어서 시놀로지 지원팀 도움을 받아도 괜찮겠네요~
“용량 확장” 메뉴가 활성화되야 하는데, 이상하네요.
패리티 체크 끝난 거 맞나요?
정확하게 패리티체크인지는 모르겠지만 디스크 1,2를 각각 교체해 넣을 때 마다 약 이틀 정도씩 수리 작업을 했습니다. 혹시나 싶어 디스크1번을 교체했을 때는 데이터스크럽도 했었는데 디스크2번 교체후에는 그것은 안했습니다.
별도로 패리티체크를 따로 한 것은 없습니다만, 아마 끝났을겁니다.
감사합니다 조만간 시도해보갰습니다
어차피 2테라 정도의 공간을 놀려 둘 수도 없고 볼륨은 합쳐야 할거 같아요