เรามีเซิร์ฟเวอร์เดเบียนลินุกซ์ซึ่งมี 120GB SSD และ 2x2TB HDDs เป็น RAID 1 ตอนนี้เราต้องย้ายไปยังเซิร์ฟเวอร์อื่นที่มี 2x240GB SSD และ 2TB HDD เดียว จุดมุ่งหมายคือการย้าย SSD ไดรฟ์ระบบ 120GB ปัจจุบันไปยัง 240GB RAID1 SSD และย้ายข้อมูลจาก 2TB RAID1 HDD ปัจจุบันไปยัง HDD 2TB ตัวเดียว

การย้าย 2TB จะไม่เป็นปัญหา ดังนั้นฉันจึงเน้นคำถามไปที่ไดรฟ์ระบบ SSD การตั้งค่าปัจจุบันของเราค่อนข้างซับซ้อน 120GB SSD มีพาร์ติชั่นดังต่อไปนี้:

fdisk -l /dev/sda

Disk /dev/sda: 120.0 GB, 120034123776 bytes
255 heads, 63 sectors/track, 14593 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1   *           1          66      523264   83  Linux
Partition 1 does not end on cylinder boundary.
/dev/sda2              66       14594   116696064   83  Linux

และ fstab บอกเราว่า:

cat /etc/fstab
# /etc/fstab: static file system information.
#
# <file system>                         <mount point>   <type>  <options>       <dump>  <pass>
        proc                            /proc           proc    defaults          0       0
        /dev/mapper/vgdebian-root       /               ext4    errors=remount-ro 0       1
        /dev/mapper/vgdebian-swap       none            swap    sw                0       0
        /dev/sda1                       /boot           ext3    defaults          0       2

ดังนั้นสิ่งที่บูตด้วยเคอร์เนลและ busybox linux พร้อม dropbear นั้นเปิดอยู่ทั้งหมด /dev/sda1 จากนั้น dropbear จะช่วยถอดรหัสพาร์ติชั่น /dev/sda2 ซึ่งเข้ารหัสโดย cryptsetup และจัดการโดย LVM

ฉันไม่แน่ใจว่าวิธีใดดีที่สุดในการย้าย /dev/sda ทั้งหมดไปยัง SDD-RAID1 ที่สร้างขึ้นใหม่ ฉันควรทำ dd-copy ไปยังดิสก์ใหม่ก่อนหรือไม่ ขยายพาร์ติชั่น /dev/sda2 (SSD ใหม่แต่ละตัวตอนนี้มีขนาด 240GB แทนที่จะเป็น 120GB) และทำให้ดรอปแบร์รับรู้ถึง 240GB SSD ใหม่หรือไม่ ฉันควรเริ่มคัดลอก SDD 240GB แรกทั้งหมดไปยังอันที่สองและเริ่มต้นคำสั่ง mdadm create array หรือไม่

หรือฉันควรสร้างอาร์เรย์ที่สะอาด /dev/md0 บน SSD ขนาด 240GB ใหม่ จากนั้นคัดลอกไดรฟ์เก่าทั้งหมดไปยังอุปกรณ์ที่มีชื่อ /dev/md0 นี้หรือไม่

dropbear / busybox จะตอบสนองต่อ RAID อย่างไร อาจเป็นไปได้ว่าต้องคัดลอก /dev/sda1 ใหม่ไปยัง /dev/sdb1 เพื่อให้ dropbear/busybox สามารถบูตจาก SSD ใหม่ทั้งสองได้ RAID1 จะมีอยู่ก่อนเมื่อทำการบูทเดเบียน LVM ที่ถอดรหัสแล้ว - ฉันถูกไหม

อาจมีใครบางคนสามารถให้คำแนะนำแก่ฉันได้หากเป็นไปได้ที่จะย้ายระบบที่เข้ารหัสดังกล่าว ขอบคุณสำหรับความช่วยเหลือใด ๆ

แก้ไข: ฉันโอน SSD เก่า 120GB ทั้งหมดไปยังหนึ่งใน 240GB SSD ใหม่ของเซิร์ฟเวอร์ใหม่ผ่านคำสั่ง dd (tut ที่นี่: https://library.linode.com/migration/ssh-copy ) จากนั้นฉันเปลี่ยนการกำหนดค่าบางอย่างเป็น dropbear และประกอบ initramfs และรีบูต - ระบบทำงานตามปกติบนเซิร์ฟเวอร์ใหม่

ตอนนี้ ฉันต้องปรับขนาดภาพของ SSD เก่า ดังนั้นฉันจึงขยาย /dev/sda2 ให้ใหญ่สุด จากนั้นฉันขยายฟิสิคัลวอลุ่ม โลจิคัลวอลุ่ม และต่อมาระบบไฟล์ ฉันรีบูทและทุกอย่างทำงานได้ดี (tt ที่นี่: http://ubuntuforums.org/showthread.php?p=4530641 )

สิ่งสุดท้าย: ย้ายข้อมูลทั้งหมดจาก SSD ตัวเดียวไปยัง RAID1 มีใครแนะนำบ้างไหม?

แก้ไข 2: ขณะนี้ฉันกำลังพยายามเรียกใช้งาน RAID1 หลังจากที่ระบบเก่าทำงานบน SSD ขนาด 240GB ตัวใดตัวหนึ่ง มีบทช่วยสอนสองแบบที่ฉันพบสำหรับการย้ายจากระบบที่ไม่ใช่ RAID ไปยัง RAID1: pug.org/mediawiki/index.php/Vorhandenes_MD-RAID1_im_laufenden_Betrieb_verschl%C3%BCsseln และ howtoforge.com/ ซอฟต์แวร์ Raid1-grub-boot-debian-etch-p2 ทั้งสองทำงานจากระบบที่ทำงานอยู่ ฉันใช้ tut ตัวแรกสำหรับ LUKs และตัวที่สองสำหรับส่วนที่เหลือ - หวังว่ามันจะได้ผล

answer

ตกลง ฉันเริ่มใช้งานได้แล้ว!

หลังจากที่ฉันคัดลอก SSD ตัวเก่าผ่าน dd ไปยังหนึ่งใน SSD ใหม่ ปรับขนาดเป็นขนาด 240GB ใหม่ตามที่อธิบายไว้ข้างต้น ฉันเพิ่งมีปัญหาในการเริ่มต้น RAID1 ฉันพบคำแนะนำสองข้อที่กล่าวถึงในโพสต์Edit2ของฉันแต่จริงๆ แล้วมันคือบทช่วยสอนนี้:

http://www.howtoforge.com/how-to-set-up-software-raid1-on-a-running-lvm-system-incl-grub2-configuration-debian-squeeze-p3

ดังนั้นฉันจึงต้องตั้งค่า RAID1 ใหม่โดยที่ไม่มีไดรฟ์ที่สอง (ดู tut) ดังนี้:

/dev/sdb1  gets  /dev/md0   for   /boot
/dev/sdb2  gets  /dev/md1   for   /

อันที่จริงแล้ว /dev/md1 กำลังถือคอนเทนเนอร์ cryptsetup luks ซึ่งมีเนื้อหา LVM ทั้งหมดและเรามีระบบไฟล์จริง:

 /dev/sdb2 -> /dev/md1 -> cryptsetup/LUKS -> LVM -> ext4

หลังจากสร้าง md0/md1 ฉันคัดลอก sda1 โดยที่ /boot ทำงานอยู่บน md0 จากนั้นฉันก็สร้าง cryptsetup luks ใหม่บน md1 ฉันขยาย VGroup ที่มีอยู่ของฉันไปยัง md1 และย้าย Volume Group ไปที่ /dev/md1 โดยใช้ pvmove (นี่คือสิ่งที่ LVM ทั้งหมด)

ฉันต้องทำ chroot'ing เพื่อติดตั้งใหม่ / อัปเดต grub2 แต่นี่อาจเป็นกรณีของฉัน หลังจากนั้นฉันลบทั้งหมด /dev/sda และเพิ่มลงใน mdadm ดังนั้นจึงได้รับการซิงค์ใหม่อย่างดี

รีบูตได้หลังจากลอง 2-3 ครั้ง สิ่งทั้งหมดกำลังทำงานอีกครั้ง - หลังจากทำงาน 12 ชั่วโมง :)