เช้านี้ เมื่อฉันไปถึงที่ทำงาน ฉันพบว่าเซิร์ฟเวอร์การคำนวณของฉันไม่ตอบสนอง: ฉันเรียกใช้การคำนวณบางอย่างในช่วงสุดสัปดาห์นี้ และเช้านี้เซิร์ฟเวอร์ไม่ต้องการตอบสนอง หน้าจอดับและเมื่อฉันพยายามเชื่อมต่อกับคอมพิวเตอร์ผ่าน ssh มันไม่ตอบสนอง

ฉันทำการฮาร์ดรีเซ็ตและคอมพิวเตอร์รีสตาร์ท

เมื่อฉันพยายามเข้าถึงอาร์เรย์ RAID0 (2disk) ฉันพบว่าการเมานต์อัตโนมัติไม่ทำงานอีกต่อไป

ฉันพยายามเมานต์ด้วยตนเองโดยใช้ sudo mount -a จากนั้น:

mount: /DATA : impossible de lire le superbloc à l’adresse /dev/md126. (can not read superblock at the adresse /dev/md1126)

นี่คือ fstab ของฉัน ฉันมีดิสก์ nvme สำหรับระบบและ raid0 สำหรับข้อมูล: cat /etc/fstab

# /etc/fstab: static file system information.

# Use 'blkid' to print the universally unique identifier for a

# device; this may be used with UUID= as a more robust way to name devices

# that works even if disks are added and removed. See fstab(5).

#

# / was on /dev/nvme0n1p2 during installation

UUID=1488f5bf-f88d-48b5-a5a0-6c590d4583fd / ext4 errors=remount-ro 0 1

# swap was on /dev/nvme0n1p1 during installation

UUID=666f87e9-ce39-4af5-b812-33a9746561fb none swap sw 0 0

/dev/disk/by-uuid/7a0700a4-ec4c-4192-a074-b3fd0f31aa75 /DATA auto nosuid,nodev,nofail,x-gvfs-show 0 0

ฉันค้นหาวิธีแก้ไขบนอินเทอร์เน็ตและพบคำสั่งบางอย่างที่สามารถให้ข้อมูลบางอย่างได้:

sudo fdisk -l

Disque /dev/loop0 : 140 MiB, 146841600 octets, 286800 secteurs Unités : secteur de 1 × 512 = 512 octets Taille de secteur (logique / physique) : 512 octets / 512 octets taille d'E/S (minimale / optimale) : 512 octets / 512 octets

Disque /dev/loop1 : 2,3 MiB, 2428928 octets, 4744 secteurs Unités : secteur de 1 × 512 = 512 octets Taille de secteur (logique / physique) : 512 octets / 512 octets taille d'E/S (minimale / optimale) : 512 octets / 512 octets

Disque /dev/loop2 : 139,5 MiB, 146276352 octets, 285696 secteurs Unités : secteur de 1 × 512 = 512 octets Taille de secteur (logique / physique) : 512 octets / 512 octets taille d'E/S (minimale / optimale) : 512 octets / 512 octets

Disque /dev/loop3 : 13 MiB, 13594624 octets, 26552 secteurs Unités : secteur de 1 × 512 = 512 octets Taille de secteur (logique / physique) : 512 octets / 512 octets taille d'E/S (minimale / optimale) : 512 octets / 512 octets

Disque /dev/loop4 : 12,2 MiB, 12804096 octets, 25008 secteurs Unités : secteur de 1 × 512 = 512 octets Taille de secteur (logique / physique) : 512 octets / 512 octets taille d'E/S (minimale / optimale) : 512 octets / 512 octets

Disque /dev/loop5 : 3,7 MiB, 3813376 octets, 7448 secteurs Unités : secteur de 1 × 512 = 512 octets Taille de secteur (logique / physique) : 512 octets / 512 octets taille d'E/S (minimale / optimale) : 512 octets / 512 octets

Disque /dev/loop6 : 21 MiB, 22003712 octets, 42976 secteurs Unités : secteur de 1 × 512 = 512 octets Taille de secteur (logique / physique) : 512 octets / 512 octets taille d'E/S (minimale / optimale) : 512 octets / 512 octets

Disque /dev/loop7 : 86,6 MiB, 90812416 octets, 177368 secteurs Unités : secteur de 1 × 512 = 512 octets Taille de secteur (logique / physique) : 512 octets / 512 octets taille d'E/S (minimale / optimale) : 512 octets / 512 octets

Disque /dev/nvme0n1 : 477 GiB, 512110190592 octets, 1000215216 secteurs Unités : secteur de 1 × 512 = 512 octets Taille de secteur (logique / physique) : 512 octets / 512 octets taille d'E/S (minimale / optimale) : 512 octets / 512 octets Type d'étiquette de disque : dos Identifiant de disque : 0x7dd11723

Périphérique Amorçage Début Fin Secteurs Taille Id Type /dev/nvme0n1p1 2048 63999999 63997952 30,5G 82 partition d'échange Linux / Solaris /dev/nvme0n1p2 * 64000000 1000214843 936214844 446,4G 83 Linux

Disque /dev/sdb : 1,8 TiB, 2000398934016 octets, 3907029168 secteurs Unités : secteur de 1 × 512 = 512 octets Taille de secteur (logique / physique) : 512 octets / 4096 octets taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets

Disque /dev/sda : 1,8 TiB, 2000398934016 octets, 3907029168 secteurs Unités : secteur de 1 × 512 = 512 octets Taille de secteur (logique / physique) : 512 octets / 4096 octets taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets

Disque /dev/md126 : 3,7 TiB, 4000792444928 octets, 7814047744 secteurs Unités : secteur de 1 × 512 = 512 octets Taille de secteur (logique / physique) : 512 octets / 4096 octets taille d'E/S (minimale / optimale) : 16384 octets / 32768 octets

Disque /dev/loop8 : 21,6 MiB, 22609920 octets, 44160 secteurs Unités : secteur de 1 × 512 = 512 octets Taille de secteur (logique / physique) : 512 octets / 512 octets taille d'E/S (minimale / optimale) : 512 octets / 512 octets

Disque /dev/loop9 : 3,3 MiB, 3411968 octets, 6664 secteurs Unités : secteur de 1 × 512 = 512 octets Taille de secteur (logique / physique) : 512 octets / 512 octets taille d'E/S (minimale / optimale) : 512 octets / 512 octets

Disque /dev/loop10 : 86,6 MiB, 90828800 octets, 177400 secteurs Unités : secteur de 1 × 512 = 512 octets Taille de secteur (logique / physique) : 512 octets / 512 octets taille d'E/S (minimale / optimale) : 512 octets / 512 octets

Disque /dev/loop11 : 1,6 MiB, 1691648 octets, 3304 secteurs Unités : secteur de 1 × 512 = 512 octets Taille de secteur (logique / physique) : 512 octets / 512 octets taille d'E/S (minimale / optimale) : 512 octets / 512 octets

Disque /dev/loop12 : 140 MiB, 146841600 octets, 286800 secteurs Unités : secteur de 1 × 512 = 512 octets Taille de secteur (logique / physique) : 512 octets / 512 octets taille d'E/S (minimale / optimale) : 512 octets / 512 octets

Disque /dev/loop13 : 86,6 MiB, 90759168 octets, 177264 secteurs Unités : secteur de 1 × 512 = 512 octets Taille de secteur (logique / physique) : 512 octets / 512 octets taille d'E/S (minimale / optimale) : 512 octets / 512 octets

sudo mdadm --ตรวจสอบ /dev/md126

mdadm: No md superblock detected on /dev/md126.

sudo mdadm --ตรวจสอบ /dev/sda

/dev/sda: Magic : Intel Raid ISM Cfg Sig. Version : 1.3.00 Orig Family : f9cade7c Family : f9cade7c Generation : 0000001f Attributes : All supported UUID : 125118e9:35e1a9ca:35cfb5b8:7184edc1 Checksum : 84a08e50 correct MPB Sectors : 1 Disks : 2 RAID Devices : 1

Disk00 Serial : Z4Z38R88 State : active Id : 00000001 Usable Size : 3907024136 (1863.01 GiB 2000.40 GB)

[Volume1]: UUID : 9d14c84c:ee252990:552570fe:0a87621c RAID Level : 0 Members : 2 Slots : [UU] Failed disk : none This Slot : 0 Array Size : 7814047744 (3726.03 GiB 4000.79 GB) Per Dev Size : 3907024136 (1863.01 GiB 2000.40 GB) Sector Offset : 0 Num Stripes : 122094496 Chunk Size : 16 KiB Reserved : 0 Migrate State : idle Map State : normal Dirty State : clean

Disk01 Serial : Z4Z38SNS State : active Id : 00000002 Usable Size : 3907024136 (1863.01 GiB 2000.40 GB)

sudo mdadm --ตรวจสอบ /dev/sdb

/dev/sdb: Magic : Intel Raid ISM Cfg Sig. Version : 1.3.00 Orig Family : f9cade7c Family : f9cade7c Generation : 0000001f Attributes : All supported UUID : 125118e9:35e1a9ca:35cfb5b8:7184edc1 Checksum : 84a08e50 correct MPB Sectors : 1 Disks : 2 RAID Devices : 1

Disk01 Serial : Z4Z38SNS State : active Id : 00000002 Usable Size : 3907024136 (1863.01 GiB 2000.40 GB)

[Volume1]: UUID : 9d14c84c:ee252990:552570fe:0a87621c RAID Level : 0 Members : 2 Slots : [UU] Failed disk : none This Slot : 1 Array Size : 7814047744 (3726.03 GiB 4000.79 GB) Per Dev Size : 3907024136 (1863.01 GiB 2000.40 GB) Sector Offset : 0 Num Stripes : 122094496 Chunk Size : 16 KiB Reserved : 0 Migrate State : idle Map State : normal Dirty State : clean

Disk00 Serial : Z4Z38R88 State : active Id : 00000001 Usable Size : 3907024136 (1863.01 GiB 2000.40 GB)

raid disk, sda และ sdb ของฉันดูเหมือนจะโอเคและไม่ตาย... ปัญหาน่าจะมาจาก md126 superblock

คำถามของฉันคือ ฉันจะซ่อมแซม/สร้าง raid0 ใหม่โดยไม่ทำให้ข้อมูลสูญหายได้อย่างไร คุณช่วยฉันหน่อยได้ไหม?

(เหมือนจะต้องใช้ mdadm แต่ไม่รู้ว่าต้องทำยังไง)

แก้ไข: ข้อมูลเพิ่มเติม cat /proc/mdstat

Personalities : [raid0] [linear] [multipath] [raid1] [raid6] [raid5] [raid4] [raid10] md126 : active raid0 sda[1] sdb[0] 3907023872 blocks super external:/md127/0 16k chunks md127 : inactive sdb1 sda0 5032 blocks super external:imsm unused devices:

answer

คุณแน่ใจได้อย่างไรว่าไดรฟ์ของคุณโอเค? คุณจะต้องอ่านข้อมูล SMART เพื่อพิจารณาโดยสรุป เนื่องจากสถานะดี/ไม่ดีไม่เพียงพอ คุณยังสามารถรวบรวมรายละเอียดโดยรวมของอาร์เรย์mdadm --detail /dev/md126เพื่อดูภาพรวมได้

นอกจากนี้ยังเป็น RAID0 ไม่ได้มีจุดประสงค์เพื่อทนต่อความผิดพลาดของอุปกรณ์ใดๆ แม้แต่ข้อผิดพลาดที่แปลเป็นภาษาท้องถิ่นซึ่งไม่ก่อให้เกิดสถานะความสมบูรณ์ของไดรฟ์ทั้งหมด แม้แต่ไดรฟ์ที่หลุดจากอาร์เรย์ในช่วงเวลาสั้นๆ ก็สามารถทำลาย RAID0 ได้ โดยทั่วไปโหนดนี้จะจับคู่กับข้อมูลสำรอง หรือใช้สำหรับข้อมูลที่ยอมรับได้ว่าจะสูญเสียทั้งหมดในคราวเดียว

สิ่งที่ต้องทำคือสร้างอาร์เรย์ใหม่และกู้คืนจากข้อมูลสำรอง หรือหากคุณไม่ต้องการใช้อาร์เรย์ที่มีความสมบูรณ์น้อยกว่าดิสก์เดียว ให้พิจารณาระดับ RAID อื่น RAID 10 ใช้งานได้ดีกับรูปแบบส่วนใหญ่ อาจประสบกับการสูญเสียดิสก์สองตัวในอาเรย์ดิสก์สี่ตัว และดิสก์มีราคาถูก

ระบบไฟล์ Checksumming และตัวจัดการโวลุ่มมีอยู่ เช่น btrfs และ zfs และสิ่งเหล่านี้พยายามทำให้มั่นใจถึงความสมบูรณ์ของข้อมูลและทนต่อความล้มเหลวของอุปกรณ์