首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >将xen服务器迁移到新的HDD

将xen服务器迁移到新的HDD
EN

Server Fault用户
提问于 2015-07-15 09:54:45
回答 1查看 49关注 0票数 -1

我有一个具有多个VM的Xen服务器,这些VM与DRBD镜像到备份服务器,并且空间正在耗尽。我想把它迁移到一个更大的硬盘上,但我不知道该怎么做。

此外,服务器运行的磁盘是RAID1阵列的一部分。

我正在考虑创建磁盘映像并将其放到新磁盘上,但是当我将LVM分区放到更大的磁盘上时,我不知道LVM分区将如何运行。

分区如下所示:

代码语言:javascript
复制
NAME                                                  MAJ:MIN RM       SIZE RO TYPE  MOUNTPOINT
sdb                                                     8:16   0 232.9G  0 disk  
├─sdb1                                                  8:17   0 188.2M  0 part  
│ └─md0                                                 9:0    0 188.2M  0 raid1 /boot
└─sdb2                                                  8:18   0 232.7G  0 part  
  └─md1                                                 9:1    0 232.7G  0 raid1 
├─lvm--raid-root (dm-0)                           253:0    0    18G  0 lvm   /
├─lvm--raid-swap (dm-1)                           253:1    0   3.7G  0 lvm   [SWAP]
├─lvm--raid-mx (dm-2)                    253:2    0    50G  0 lvm   
├─lvm--raid-dns (dm-4)                   253:4    0   704M  0 lvm   
├─lvm--raid-drbd1--meta (dm-3)                    253:3    0    16M  0 lvm   
├─lvm--raid-apt (dm-5)                   253:5    0    30G  0 lvm   
├─lvm--raid-apt--boot (dm-6)             253:6    0   112M  0 lvm   
├─lvm--raid-puppet--disk (dm-7)          253:7    0     4G  0 lvm   
├─lvm--raid-wp--disk (dm-13)      253:13   0     8G  0 lvm   
├─lvm--raid-puppetmaster--disk (dm-8)    253:8    0     4G  0 lvm   
├─lvm--raid-bg--disk (dm-9)            253:9    0     4G  0 lvm   
├─lvm--raid-tracks--disk (dm-10)         253:10   0     4G  0 lvm   
├─lvm--raid-drbd3--meta (dm-14)                   253:14   0    16M  0 lvm   
├─lvm--raid-og--disk (dm-11)         253:11   0     4G  0 lvm   
├─lvm--raid-sql--disk (dm-12)            253:12   0     4G  0 lvm   
├─lvm--raid-drbd4--meta (dm-15)                   253:15   0    16M  0 lvm   
├─lvm--raid-drbd5--meta (dm-16)                   253:16   0    16M  0 lvm   
├─lvm--raid-drbd6--meta (dm-17)                   253:17   0    16M  0 lvm   
├─lvm--raid-drbd7--meta (dm-18)                   253:18   0    16M  0 lvm   
├─lvm--raid-drbd8--meta (dm-19)                   253:19   0    16M  0 lvm   
├─lvm--raid-monitor--disk (dm-20)        253:20   0     4G  0 lvm   
├─lvm--raid-mailer--disk (dm-21) 253:21   0     4G  0 lvm   
├─lvm--raid-sk--disk (dm-22)            253:22   0     4G  0 lvm   
└─lvm--raid-docs--disk (dm-23)           253:23   0     8G  0 lvm   
sda                                                     8:0    0 232.9G  0 disk  
├─sda1                                                  8:1    0 188.2M  0 part  
│ └─md0                                                 9:0    0 188.2M  0 raid1 /boot
└─sda2                                                  8:2    0 232.7G  0 part  
  └─md1                                                 9:1    0 232.7G  0 raid1 
├─lvm--raid-root (dm-0)                           253:0    0    18G  0 lvm   /
├─lvm--raid-swap (dm-1)                           253:1    0   3.7G  0 lvm   [SWAP]
├─lvm--raid-mx (dm-2)                    253:2    0    50G  0 lvm   
├─lvm--raid-dns (dm-4)                   253:4    0   704M  0 lvm   
├─lvm--raid-drbd1--meta (dm-3)                    253:3    0    16M  0 lvm   
├─lvm--raid-apt (dm-5)                   253:5    0    30G  0 lvm   
├─lvm--raid-apt--boot (dm-6)             253:6    0   112M  0 lvm   
├─lvm--raid-puppet--disk (dm-7)          253:7    0     4G  0 lvm   
├─lvm--raid-wp--disk (dm-13)      253:13   0     8G  0 lvm   
├─lvm--raid-puppetmaster--disk (dm-8)    253:8    0     4G  0 lvm   
├─lvm--raid-bg--disk (dm-9)            253:9    0     4G  0 lvm   
├─lvm--raid-tracks--disk (dm-10)         253:10   0     4G  0 lvm   
├─lvm--raid-drbd3--meta (dm-14)                   253:14   0    16M  0 lvm   
├─lvm--raid-og--disk (dm-11)         253:11   0     4G  0 lvm   
├─lvm--raid-sql--disk (dm-12)            253:12   0     4G  0 lvm   
├─lvm--raid-drbd4--meta (dm-15)                   253:15   0    16M  0 lvm   
├─lvm--raid-drbd5--meta (dm-16)                   253:16   0    16M  0 lvm   
├─lvm--raid-drbd6--meta (dm-17)                   253:17   0    16M  0 lvm   
├─lvm--raid-drbd7--meta (dm-18)                   253:18   0    16M  0 lvm   
├─lvm--raid-drbd8--meta (dm-19)                   253:19   0    16M  0 lvm   
├─lvm--raid-monitor--disk (dm-20)        253:20   0     4G  0 lvm   
├─lvm--raid-mailer--disk (dm-21) 253:21   0     4G  0 lvm   
├─lvm--raid-sk--disk (dm-22)            253:22   0     4G  0 lvm   
└─lvm--raid-docs--disk (dm-23)           253:23   0     8G  0 lvm   
sr0                                                    11:0    1  1024M  0 rom   
drbd2                                                 147:2    0   704M  0 disk  
drbd1                                                 147:1    0    50G  0 disk  
drbd8                                                 147:8    0    30G  0 disk  
drbd7                                                 147:7    0   112M  0 disk  
drbd3                                                 147:3    0     8G  1 disk  
drbd6                                                 147:6    0     4G  1 disk  
drbd5                                                 147:5    0     4G  0 disk  
drbd4                                                 147:4    0     4G  0 disk 

谢谢你的建议!

EN

回答 1

Server Fault用户

发布于 2022-03-24 11:56:08

如果您可以在Xen VM关闭时执行此操作,那么任何答案都与Xen无关。我看不到您的LVM设置与DRBD之间的关系,因此,可能正确的问题是:

  • 如何扩展DRBD卷?
  • 如何扩展逻辑卷(当卷组没有空闲空间时)?

此外,还不清楚是要为现有VM添加存储(即扩展它们的存储)还是为新VM添加存储。

票数 0
EN
页面原文内容由Server Fault提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://serverfault.com/questions/705867

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档