Особенность расширения LVM тома на CentOS 7 с xfs файловой системой. resize2fs: Bad magic number in super-block while trying to open /dev/centos/root. Couldn't find valid filesystem superblock
Расширял LVM том на CentOS 7 по данному мануалу и на последнем шаге внезапно вылезла ошибка:
resize2fs /dev/centos/root resize2fs 1.42.9 (28-Dec-2013) resize2fs: Bad magic number in super-block while trying to open /dev/centos/root Couldn't find valid filesystem superblock.
Повылазили первые кирпичи.
Факт оказался в том, что resize2fs умеет работать только с ext2-4 файловыми системами, а CentOS 7 ставит по дефолту xfs.
Решением же является использование xfs_growfs:
xfs_growfs /dev/centos/root
meta-data=/dev/mapper/centos-root isize=256 agcount=4, agsize=1737216 blks
= sectsz=512 attr=2, projid32bit=1
= crc=0
data = bsize=4096 blocks=6948864, imaxpct=25
= sunit=0 swidth=0 blks
naming =version 2 bsize=4096 ascii-ci=0 ftype=0
log =internal bsize=4096 blocks=3393, version=2
= sectsz=512 sunit=0 blks, lazy-count=1
realtime =none extsz=4096 blocks=0, rtextents=0
data blocks changed from 6948864 to 20055040
Раздел расширился, все счастливы.
Дай тебе ЩаСтИя
Спасибо)
Спасибо. Помогло.
Ахахахахахаха! Я уже хотел в дурку идти, но тут увидел сие писание и был спасен! Дай Бог те здоровья во все органы, добрый человек!
Большое, Человеческое спасибо!
Спасибо, меня пот уже прошиб, пока не натолкнулся на твой пост, здоровья и удачи тебе!
Огроменное спасибо!!!!
У меня вышло такое
xfs_growfs /dev/centos/root
meta-data=/dev/mapper/centos-root isize=512 agcount=16, agsize=476336 blks
= sectsz=512 attr=2, projid32bit=1
= crc=1 finobt=0 spinodes=0
data = bsize=4096 blocks=7621376, imaxpct=25
= sunit=16 swidth=16 blks
naming =version 2 bsize=4096 ascii-ci=0 ftype=1
log =internal bsize=4096 blocks=3728, version=2
= sectsz=512 sunit=16 blks, lazy-count=1
realtime =none extsz=4096 blocks=0, rtextents=0
xfs_growfs: XFS_IOC_FSGROWFSDATA xfsctl failed: No space left on device
# df -h
-bash: /usr/bin/df: Input/output error
No space left on deviceместа нет, удалите что-нибудь не нужное. Или же загрузитесь с любого live дистра и сделайте из него.С загрузочного диска не получается сделать, пишет что не монтирована файловая система. Как это сделать пока не понятно.
Обычно я гружусь с live флешки Ubuntu и использую gparted. Не понял, что Вам мешает смонтировать нужный раздел.
Раз не получается — попробуйте просто что-то удалить, например логи (из /val/log, можно рекурсивно удалить все файлы, но не трогайте каталоги, иначе их придется создавать по-новой) и кэш yum (yum clean all)
удалил 10G не помогло
Айноды есть свободные на ФС? Проверить можно так: df -i. Если нет, то гуглите как побороть.
На другой машине все сработало.
Если при выполнении
# xfs_growfs /dev/centos/root возникла ошибка:
xfs_growfs: /dev/xvdb1 is not a mounted XFS filesystem
нужно выполнить
# mount -a
И после повторить команду
# xfs_growfs /dev/centos/root
Благодарю! Уже удалил XFS — сделал вывод что LVM+XFC в Centos 7 работает не стабильно. Настроил разделы без использования LVM.
/boot ext2
/ ext4
swap swap
Работает отлично — проверено временем.
На мой взгляд XFS и LVM это эксперимент.
У меня потом посыпались LVM разделы на тестовых машинах после созданной искусственной нагрузки на жесткие диски.
Возможно сделал не правильную разметки или еще что.
Спасибо
Спасибо тебе, добрый человек, выручил.
Спасибо
Надеюсь блог жив. Как насчет расширения CentOS8Strem, сработает?
Проделал такие операции для полного расширения
Освободил место и
sudo lvextend -l +100%FREE /dev/cs/root
sudo resize2fs /dev/cs/root
и последнее не сработало именно с такой ошибкой и теперь только через emergency.
Пока только у вас вижу конкретное предложение, но опасаюсь добить систему
первая операция понятна
xfs_growfs /dev/centos/root
, а вот с этим что делать?
meta-data=/dev/mapper/centos-root ******
meta-data — это текущее внутреннее устройство и формат метаданных XFS на этом разделе самой ФС. Этот раздел не меняется при выполнении команды. Сработать должно, это же просто утилита, которая работает с файловой системой диска. От дистрибутива зависит опосредовано
т.е. мои действия только
xfs_growfs /dev/cs/root
а meta-data — это реакция, отчет системы?
В общем, помогло отчасти. Расширение произошло, но загрузка все равно уходит в emergency mode
Может что посоветуете, как из этого выбраться. Вот собственно что было, сделано и получилось
было
Filesystem Size Used Avail Use% Mounted on
devtmpfs 126G 0 126G 0% /dev
tmpfs 126G 124K 126G 1% /dev/shm
tmpfs 126G 11M 126G 1% /run
tmpfs 126G 0 126G 0% /sys/fs/cgroup
/dev/mapper/cs-root 200G 177G 24G 89% /
/dev/md126 1017M 354M 663M 35% /boot
/dev/mapper/cs-scr 3.5T 393G 3.1T 12% /home/valienpo/scr
/dev/md125 512M 7.3M 505M 2% /boot/efi
/dev/sda1 1.8T 517G 1.2T 30% /mnt/workspace
tmpfs 26G 32K 26G 1% /run/user/1000
удалил
sudo umount /scr (пустая директория для хранения временных расчетных файлов)
sudo lvremove /dev/cs/scr
sudo lvextend -l +100%FREE /dev/cs/root
sudo xfs_growfs /dev/cs/root
стало
Filesystem Size Used Avail Use% Mounted on
devtmpfs 126G 0 126G 0% /dev
tmpfs 126G 0 126G 0% /dev/shm
tmpfs 126G 9.8М 126G 1% /run
tmpfs 126G 0 126G 0% /sys/fs/cgroup
/dev/mapper/cs-root 3.7Т 202G 3.5Т 6% /
/dev/md126 1017M 354M 663M 35% /boot
/dev/md125 512M 7.3M 505M 2% /boot/efi
/dev/sda1 1.8T 517G 1.2T 30% /mnt/workspace
отсутствует (насколько это серьезно и как решать?)
tmpfs 26G 32K 26G 1% /run/user/1000
Дополнительные данные, может важно
CentOS 8 Stream установлен на (RAID-массив) Samsung 980 EVO NVMe M.2 2*2.0TB
Спасибо! Решилось. Надо было еще /etc/fstab почистить