ฉันเพิ่งเสร็จสิ้นการตั้งค่าเครื่องเซิร์ฟเวอร์ Ubuntu 10.4 ใหม่ของฉันพร้อมดิสก์ SATA 2x500 GB - ซึ่งฉันตั้งใจจะกำหนดค่าใน raid1; โดยเฉพาะอย่างยิ่ง นั่นคือสิ่งที่ฉันทำในระหว่างกระบวนการติดตั้ง:

พาร์ทิชัน:

ดิสก์ 1 - sda:
sda1 - 500mb หลัก
sda2 - 99gb หลัก
sda3 ขยาย
sda5 - 399gb ขยาย

ดิสก์ 2 - sdb:
sdb 1 - 500mb หลัก
sdb2 - 99gb หลัก
sdb3 ขยาย
sdb5 - 399gb ขยาย

อาร์เรย์:

md0 - sda1+sdb1, raid1, ext2, /boot
md1 - sda2+sdb2, raid1, ext4, /
md2 - sda5+sdb5, raid1, ไม่ได้ฟอร์แมต, ไม่ถูกเมาท์ระหว่างการติดตั้ง

ทุกอย่างราบรื่น แต่เมื่อระบบใหม่ของฉันบูทขึ้น นั่นคือสิ่งที่ฉันเห็น:

$cat /etc/fstab

   / was on /dev/md1 during installation  
   UUID=cc1a0b10-dd66-4c88-9022-247bff6571a6  
   / ext4 errors=remount-ro 0 1  
   /boot was on /dev/md0 during installation  
   UUID=7e37165c-ab1c-4bd4-a62b-8b98656fe1f1  
   /boot ext2 defaults 0 2 

$cat /proc/partitions

 major minor blocks name  

 8 0 488386584 sda  
 8 1 487424 sda1  
 8 2 97265664 sda2  
 8 3 1 sda3  
 8 5 390631424 sda5  
 8 16 488386584 sdb  
 8 17 487424 sdb1  
 8 18 97265664 sdb2  
 8 19 1 sdb3  
 8 21 390631424 sdb5  
 9 2 390631360 md2  
 259 0 487424 md2p1  
 259 1 97265664 md2p2  
 259 2 1 md2p3  
 259 3 292876224 md2p5  
 9 1 97265600 md1  
 9 0 487360 md0  

$cat /proc/mdstat

 Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]  
 md0 : active raid1 md2p1[0]  
 487360 blocks [2/1] [U_]  

 md1 : active raid1 md2p2[0]  
 97265600 blocks [2/1] [U_]  

 md2 : active raid1 sda[0] sdb[1]  
 390631360 blocks [2/2] [UU]  
 [============>........] resync = 63.1% (246865856/390631360) finish=25.9min speed=92459K/sec  

 unused devices: <none> 

$mdadm --query --detail /dev/md0

/dev/md0:  
 Version : 00.90  
 Creation Time : Wed Jul 7 16:07:16 2010  
 Raid Level : raid1  
 Array Size : 487360 (476.02 MiB 499.06 MB)  
 Used Dev Size : 487360 (476.02 MiB 499.06 MB)  
 Raid Devices : 2  
 Total Devices : 1  
 Preferred Minor : 0  
 Persistence : Superblock is persistent  

 Update Time : Wed Jul 7 17:13:58 2010  
 State : clean, degraded  
 Active Devices : 1  
 Working Devices : 1  
 Failed Devices : 0  
 Spare Devices : 0  

 UUID : fefff930:8e4d661c:665cfb90:2bbaf5ad  
 Events : 0.74  

 Number Major Minor RaidDevice State  
 0 259 0 0 active sync /dev/md2p1  
 1 0 0 1 removed  

$sudo mdadm --query --detail /dev/md1

/dev/md1:  
 Version : 00.90  
 Creation Time : Wed Jul 7 16:07:23 2010  
 Raid Level : raid1  
 Array Size : 97265600 (92.76 GiB 99.60 GB)  
 Used Dev Size : 97265600 (92.76 GiB 99.60 GB)  
 Raid Devices : 2  
 Total Devices : 1  
 Preferred Minor : 1  
 Persistence : Superblock is persistent  

 Update Time : Wed Jul 7 17:38:19 2010  
 State : clean, degraded  
 Active Devices : 1  
 Working Devices : 1  
 Failed Devices : 0  
 Spare Devices : 0  

 UUID : 68b86560:6150f422:6a741df7:3de5f08f  
 Events : 0.460  

 Number Major Minor RaidDevice State  
 0 259 1 0 active sync /dev/md2p2  
 1 0 0 1 removed  

$sudo mdadm --query --detail /dev/md2

/dev/md2:  
 Version : 00.90  
 Creation Time : Wed Jul 7 16:07:31 2010  
 Raid Level : raid1  
 Array Size : 390631360 (372.54 GiB 400.01 GB)  
 Used Dev Size : 390631360 (372.54 GiB 400.01 GB)  
 Raid Devices : 2  
 Total Devices : 2  
 Preferred Minor : 2    
 Persistence : Superblock is persistent  

 Update Time : Wed Jul 7 17:37:04 2010  
 State : active, resyncing  
 Active Devices : 2  
 Working Devices : 2  
 Failed Devices : 0  
 Spare Devices : 0  

 Rebuild Status : 65% complete  

 UUID : fc7dadbe:2230a995:814dd292:d7c4bf75  
 Events : 0.33  

 Number Major Minor RaidDevice State  
 0 8 0 0 active sync /dev/sda  
 1 8 16 1 active sync /dev/sdb  

$sudo mdadm --query --detail /dev/md2p1

/dev/md2p1:  
 Version : 00.90  
 Creation Time : Wed Jul 7 16:07:31 2010  
 Raid Level : raid1  
 Array Size : 487424 (476.08 MiB 499.12 MB)  
 Used Dev Size : 390631360 (372.54 GiB 400.01 GB)  
 Raid Devices : 2  
 Total Devices : 2  
 Preferred Minor : 2  
 Persistence : Superblock is persistent  

 Update Time : Wed Jul 7 17:37:04 2010  
 State : active  
 Active Devices : 2  
 Working Devices : 2  
 Failed Devices : 0  
 Spare Devices : 0  

 UUID : fc7dadbe:2230a995:814dd292:d7c4bf75  
 Events : 0.33  

 Number Major Minor RaidDevice State  
 0 8 0 0 active sync /dev/sda  
 1 8 16 1 active sync /dev/sdb  

$sudo mdadm --query --detail /dev/md2p2

/dev/md2p2:  
 Version : 00.90  
 Creation Time : Wed Jul 7 16:07:31 2010  
 Raid Level : raid1  
 Array Size : 97265664 (92.76 GiB 99.60 GB)  
 Used Dev Size : 390631360 (372.54 GiB 400.01 GB)  
 Raid Devices : 2  
 Total Devices : 2  
 Preferred Minor : 2  
 Persistence : Superblock is persistent  

 Update Time : Wed Jul 7 17:37:04 2010  
 State : active  
 Active Devices : 2  
 Working Devices : 2  
 Failed Devices : 0  
 Spare Devices : 0  

 UUID : fc7dadbe:2230a995:814dd292:d7c4bf75  
 Events : 0.33  

 Number Major Minor RaidDevice State  
 0 8 0 0 active sync /dev/sda  
 1 8 16 1 active sync /dev/sdb  

$sudo mdadm --query --detail /dev/md2p3

/dev/md2p3:  
 Version : 00.90  
 Creation Time : Wed Jul 7 16:07:31 2010  
 Raid Level : raid1  
 Array Size : 1  
 Used Dev Size : 390631360 (372.54 GiB 400.01 GB)  
 Raid Devices : 2  
 Total Devices : 2  
 Preferred Minor : 2  
 Persistence : Superblock is persistent  

 Update Time : Wed Jul 7 17:37:04 2010  
 State : active  
 Active Devices : 2  
 Working Devices : 2  
 Failed Devices : 0  
 Spare Devices : 0  
 UUID : fc7dadbe:2230a995:814dd292:d7c4bf75  
 Events : 0.33  

 Number Major Minor RaidDevice State  
 0 8 0 0 active sync /dev/sda  
 1 8 16 1 active sync /dev/sdb  

$sudo mdadm --query --detail /dev/md2p5

/dev/md2p5:  
 Version : 00.90  
 Creation Time : Wed Jul 7 16:07:31 2010  
 Raid Level : raid1  
 Array Size : 292876224 (279.31 GiB 299.91 GB)  
 Used Dev Size : 390631360 (372.54 GiB 400.01 GB)  
 Raid Devices : 2  
 Total Devices : 2  
 Preferred Minor : 2  
 Persistence : Superblock is persistent  

 Update Time : Wed Jul 7 17:37:04 2010  
 State : active  
 Active Devices : 2  
 Working Devices : 2  
 Failed Devices : 0  
 Spare Devices : 0  

 UUID : fc7dadbe:2230a995:814dd292:d7c4bf75  
 Events : 0.33  

 Number Major Minor RaidDevice State  
 0 8 0 0 active sync /dev/sda  
 1 8 16 1 active sync /dev/sdb  

ดูเหมือนว่าแทนที่จะสร้างอาร์เรย์ raid1:
md0 = sda1+sdb1
md1 = sda2+sdb2

มีการสร้างบางอย่างเช่น 'อาร์เรย์ย่อย' เพิ่มเติม:
md2p1 = sda1+sdb1
md2p2 = sda2+sdb2

และ 'อาร์เรย์ย่อย' เหล่านี้ได้รับการกำหนดค่าเป็นส่วนหนึ่งของอาร์เรย์ md0 และ md1 เนื่องจากฉันมีดิสก์ (พาร์ติชั่น) 2 แผ่นสำหรับแต่ละอาร์เรย์เท่านั้น mdadm จึงสร้าง md2p1 และ md2p2 อย่างถูกต้องจาก 2 พาร์ติชั่นแต่ละพาร์ติชั่น แต่จากนั้นก็เริ่มอาร์เรย์หลัก: md0 และ md1 เป็นแบบลดระดับ - เนื่องจากแต่ละอันประกอบด้วย 'sub-array' 1 อันเท่านั้น

ตอนนี้ฉันสงสัยว่าฉันทำอะไรผิด หรือทุกอย่างก็โอเค และฉันแค่ไม่เข้าใจบางส่วนของการกำหนดค่านี้ แต่ดูเหมือนจะไม่เป็นเช่นนั้นจริงๆ - md0 และ md1 ถูกทำเครื่องหมายอย่างชัดเจนว่าเสื่อมโทรม ตอนนี้ฉันจะทำให้ถูกต้องได้อย่างไร ฉันต้องติดตั้งระบบใหม่หรือไม่? ดีกว่าตอนนี้ หลังจากการติดตั้ง หลังจากนั้น หลังจากที่ฉันพยายามกำหนดค่าและรักษาความปลอดภัยให้กับมัน แต่อาจมีเคล็ดลับ mdadm ที่ดีเพื่อให้ทุกอย่างโอเค? ช่วยด้วย :) ขอบคุณ!


cat /etc/mdadm/mdadm.conf 
# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#

# by default, scan all partitions (/proc/partitions) for MD superblocks.
# alternatively, specify devices to scan, using wildcards if desired.
DEVICE partitions

# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes

# automatically tag new arrays as belonging to the local system
HOMEHOST <system>

# instruct the monitoring daemon where to send mail alerts
MAILADDR root

# definitions of existing MD arrays
ARRAY /dev/md0 level=raid1 num-devices=2 UUID=fefff930:8e4d661c:665cfb90:2bbaf5ad
ARRAY /dev/md1 level=raid1 num-devices=2 UUID=68b86560:6150f422:6a741df7:3de5f08f
ARRAY /dev/md2 level=raid1 num-devices=2 UUID=fc7dadbe:2230a995:814dd292:d7c4bf75

# This file was auto-generated on Wed, 07 Jul 2010 16:18:30 +0200
# by mkconf $Id$
answer

ดูเหมือนจะเป็นข้อผิดพลาดที่ค่อนข้างร้ายแรง:

การแก้ไขจะจัดส่งพร้อมกับ ubuntu 10.04.2 - วิธีแก้ปัญหาตามที่อธิบายไว้ใน launchpad

https://bugs.launchpad.net/ubuntu/+source/partman-base/+bug/569900

ฉันได้รับความทุกข์ทรมานอย่างหนักจากปัญหานี้โดยพยายามเรียกใช้ซอฟต์แวร์จู่โจมที่เหมาะสมกับ HDD 500,1GB

สิ่งเดียวที่เป็นเหยื่อแมลงต้องทำคือปล่อยให้มีที่ว่างที่ส่วนท้ายของพาร์ติชั่นสุดท้าย แล้วทุกอย่างจะดีขึ้นอีกครั้ง :) ดังนั้นอย่าเลือกค่าเริ่มต้นที่ partman คำนวณผิดพลาด

หลังจากสองวันของการพยายาม แยกส่วนและสร้างอาร์เรย์ใหม่ ฯลฯ ในที่สุดฉันก็ต้องลองติดตั้งใหม่ทั้งหมด คราวนี้ฉันใช้พาร์ติชั่นหลักเพียง 3 พาร์ติชั่นสำหรับ: /boot, / และ /var และทุกอย่างก็ทำงานได้ดี ไม่ใช่วิธีแก้ปัญหาจริง แต่ใช้งานได้