แก้ไข** ฉันมีกลุ่มวอลุ่มที่ประกอบด้วยอุปกรณ์ RAID1 5 ตัวที่จัดกลุ่มเข้าด้วยกันเป็น lvm และจัดรูปแบบด้วย xfs อุปกรณ์ RAID ตัวที่ 5 สูญเสียการกำหนดค่า RAID (cat /proc/mdstat ไม่แสดงอะไรเลย) ไดรฟ์ทั้งสองยังคงมีอยู่ (sdj และ sdk) แต่ไม่มีพาร์ติชัน LVM ดูเหมือนจะใช้ sdj อย่างมีความสุขจนกระทั่งเมื่อไม่นานมานี้ (การทำ pvscan แสดงอุปกรณ์ RAID1 4 ตัวแรก + /dev/sdj) ฉันลบ LVM ออกจาก fstab รีบูท จากนั้นรัน xfs_check บน LV มันวิ่งไปประมาณครึ่งชั่วโมง แล้วก็หยุดโดยมีข้อผิดพลาด

ฉันลองรีบูตเครื่องอีกครั้ง และคราวนี้เมื่อมันปรากฏขึ้น โลจิคัลวอลุ่มไม่อยู่ที่นั่นอีกต่อไป ตอนนี้กำลังค้นหา /dev/md5 ซึ่งหายไปแล้ว (แม้ว่าจะเคยใช้ /dev/sdj มาก่อน) /dev/sdj มีข้อผิดพลาดในการอ่าน แต่หลังจากเปลี่ยนสาย SATA แล้ว สิ่งเหล่านี้หายไป ดังนั้นตอนนี้ไดรฟ์ก็ดูเหมือนจะใช้ได้

ฉันสามารถแก้ไขไฟล์ /etc/lvm/backup/dedvol เปลี่ยนอุปกรณ์เป็น /dev/sdj และทำ vgcfgrestore ได้หรือไม่ ฉันสามารถลองทำ pvcreate --uuid KZron2-pPTr-ZYeQ-PKXX-4Woq-6aNc-AG4rRJ /dev/sdj เพื่อให้มันรู้จัก แต่ฉันกลัวว่าจะลบข้อมูลในไดรฟ์

UPDATE: แค่เปลี่ยน pv ให้ชี้ไปที่ /dev/sdj ใช้งานไม่ได้

vgcfgrestore --file /etc/lvm/backup/dedvol dedvol
  Couldn't find device with uuid 'KZron2-pPTr-ZYeQ-PKXX-4Woq-6aNc-AG4rRJ'.
  Cannot restore Volume Group dedvol with 1 PVs marked as missing.
  Restore failed.
pvscan
  /dev/sdj: read failed after 0 of 4096 at 0: Input/output error
  Couldn't find device with uuid 'KZron2-pPTr-ZYeQ-PKXX-4Woq-6aNc-AG4rRJ'.
  Couldn't find device with uuid 'KZron2-pPTr-ZYeQ-PKXX-4Woq-6aNc-AG4rRJ'.
  Couldn't find device with uuid 'KZron2-pPTr-ZYeQ-PKXX-4Woq-6aNc-AG4rRJ'.
  Couldn't find device with uuid 'KZron2-pPTr-ZYeQ-PKXX-4Woq-6aNc-AG4rRJ'.
  PV /dev/sdd2        VG VolGroup00   lvm2 [74.41 GB / 0    free]
  PV /dev/md2         VG dedvol       lvm2 [931.51 GB / 0    free]
  PV /dev/md3         VG dedvol       lvm2 [931.51 GB / 0    free]
  PV /dev/md0         VG dedvol       lvm2 [931.51 GB / 0    free]
  PV /dev/md4         VG dedvol       lvm2 [931.51 GB / 0    free]
  PV unknown device   VG dedvol       lvm2 [1.82 TB / 63.05 GB free]
  Total: 6 [5.53 TB] / in use: 6 [5.53 TB] / in no VG: 0 [0   ]
vgscan
  Reading all physical volumes.  This may take a while...
  /dev/sdj: read failed after 0 of 4096 at 0: Input/output error
  /dev/sdj: read failed after 0 of 4096 at 2000398843904: Input/output error
  Found volume group "VolGroup00" using metadata type lvm2
  Found volume group "dedvol" using metadata type lvm2
vgdisplay dedvol
  --- Volume group ---
  VG Name               dedvol
  System ID             
  Format                lvm2
  Metadata Areas        5
  Metadata Sequence No  10
  VG Access             read/write
  VG Status             resizable
  MAX LV                0
  Cur LV                1
  Open LV               0
  Max PV                0
  Cur PV                5
  Act PV                5
  VG Size               5.46 TB
  PE Size               4.00 MB
  Total PE              1430796
  Alloc PE / Size       1414656 / 5.40 TB
  Free  PE / Size       16140 / 63.05 GB
  VG UUID               o1U6Ll-5WH8-Pv7Z-Rtc4-1qYp-oiWA-cPD246
dedvol {
        id = "o1U6Ll-5WH8-Pv7Z-Rtc4-1qYp-oiWA-cPD246"
        seqno = 10
        status = ["RESIZEABLE", "READ", "WRITE"]
        flags = []
        extent_size = 8192              # 4 Megabytes
        max_lv = 0
        max_pv = 0

        physical_volumes {

                pv0 {
                        id = "Msiee7-Zovu-VSJ3-Y2hR-uBVd-6PaT-Ho9v95"
                        device = "/dev/md2"     # Hint only

                        status = ["ALLOCATABLE"]
                        flags = []
                        dev_size = 1953519872   # 931.511 Gigabytes
                        pe_start = 384
                        pe_count = 238466       # 931.508 Gigabytes
                }

                pv1 {
                        id = "ZittCN-0x6L-cOsW-v1v4-atVN-fEWF-e3lqUe"
                        device = "/dev/md3"     # Hint only

                        status = ["ALLOCATABLE"]
                        flags = []
                        dev_size = 1953519872   # 931.511 Gigabytes
                        pe_start = 384
                        pe_count = 238466       # 931.508 Gigabytes
                }

                pv2 {
                        id = "NRNo0w-kgGr-dUxA-mWnl-bU5v-Wld0-XeKVLD"
                        device = "/dev/md0"     # Hint only

                        status = ["ALLOCATABLE"]
                        flags = []
                        dev_size = 1953519872   # 931.511 Gigabytes
                        pe_start = 384
                        pe_count = 238466       # 931.508 Gigabytes
                }

                pv3 {
                        id = "2EfLFr-JcRe-MusW-mfAs-WCct-u4iV-W0pmG3"
                        device = "/dev/md4"     # Hint only

                        status = ["ALLOCATABLE"]
                        flags = []
                        dev_size = 1953519872   # 931.511 Gigabytes
                        pe_start = 384
                        pe_count = 238466       # 931.508 Gigabytes
                }

                pv4 {
                        id = "KZron2-pPTr-ZYeQ-PKXX-4Woq-6aNc-AG4rRJ"
                        device = "/dev/md5"     # Hint only

                        status = ["ALLOCATABLE"]
                        flags = []
                        dev_size = 3907028992   # 1.81935 Terabytes
                        pe_start = 384
                        pe_count = 476932       # 1.81935 Terabytes
                }
        }
answer

ว้าว ระบบของคุณแย่มาก ด้วยความระมัดระวังและเอาใจใส่เพียงพอ คุณสามารถสร้าง LVs ใหม่ในกลุ่มวอลุ่มจากไฟล์เก็บถาวรสถานะ LVM ใน/etc/lvm/archivesแต่มันจะเร็วกว่ามากในการทำลายข้อมูลสำรอง (คุณมีข้อมูลสำรองใช่ไหม) และสร้างใหม่ ระบบ (คราวนี้ด้วยการตั้งค่า RAID ที่มีประสิทธิภาพยิ่งขึ้น - หากคุณมีดิสก์ 10 ตัว ทำไมไม่ใช้ RAID-10 ขนาดใหญ่เพียงตัวเดียว)

เพื่อให้คุณสบายใจ ฉันมีข้อสงสัยอย่างมากว่าหากคุณใช้งานxfs_checkLV มันสามารถทำทุกอย่างเพื่อทำลายกลุ่มวอลุ่มได้ เป็นไปได้มากกว่านั้นคือมันถูกสูบไปแล้ว และคุณก็ไม่ได้สังเกตเลย