我有一个cPanel服务器,运行CloudLinux,它是一个专门的服务器,最初运行CentOS 6.4和SoftRaid 1,在重新安装之后,我将它转换为CloudLinux。直到现在我才需要重新启动它。一切运行顺利,但当我重新启动服务器时,它关闭了,但没有恢复。由于我不能使用KVM或IPMI,所以提供者将其放入救援模式。我做了个硬件测试,一切都很好。我试过重新安装GRUB,但没什么改变。服务器仍然无法启动。在这一点上我真的没有想法了。提供程序是一个非托管的,我保留重新安装作为最后的手段。
我使用本教程重新安装GRUB:http://www.adminlinux.org/2009/10/how-to-reinstall-grub-while-in-rescue.html。
编辑:
提供商告诉我,在启动时,屏幕上会显示这样的内容:
*An error occurred during the file system check*
*Dropping you to a shell; the system will reboot*我做了些研究我要去做fsck。
当我尝试运行fsck /dev/sda1 1时,我一直得到这样的结果:
root@rescue [/]# fsck /dev/sda1
fsck from util-linux-ng 2.17.2
fsck: fsck.linux_raid_member: not found
fsck: Error 2 while executing fsck.linux_raid_member for /dev/sda1当驱动器被安装时,我试着卸下它,
root@rescue [/]# fsck /dev/sda1
fsck from util-linux-ng 2.17.2
/dev/sda1 is in use.
Aborted这一切都是在救援模式下进行的。
在Raid 1中,我有2个驱动器,每个驱动器1TB,下面是fstab:
# <file system> <mount point> <type> <options> <dump> <pass>
/dev/md1 / ext3 errors=remount-ro,usrjquota=quota.user,jqfmt=vfsv0 0 1
/dev/md3 /home ext3 usrjquota=quota.user,jqfmt=vfsv0 1 2
/dev/sda2 swap swap defaults 0 0
/dev/sdb2 swap swap defaults 0 0
proc /proc proc defaults 0 0
sysfs /sys sysfs defaults 0 0
tmpfs /dev/shm tmpfs noexec,nosuid 0 0
devpts /dev/pts devpts defaults 0 0
/tmp_fs /tmp ext3 noexec,nosuid,loop,rw 1 1更新:
正如Bittylicious建议的那样,我执行了这些命令,下面是结果:
root@rescue:~# mdadm --assemble /dev/md1 /dev/sda1 /dev/sdb1
mdadm: /dev/sda1 is busy - skipping
mdadm: /dev/sdb1 is busy - skipping然后我以为突袭已经集合了所以我就这么做了:
root@rescue:~# fsck /dev/md1
fsck from util-linux 2.20.1
e2fsck 1.42.5 (29-Jul-2012)
/: recovering journal
Setting free inodes count to 9410644 (was 9410650)
Setting free blocks count to 35082532 (was 35082538)
/: clean, 190380/9601024 files, 3317196/38399728 blocks更新2:
以下是挂载结果:
root@rescue:~# mount
none on / type tmpfs (rw,relatime)
none on /sys type sysfs (rw,nosuid,nodev,noexec,relatime)
198.27.85.63:/home/pub/rescue.v7 on /nfs type nfs (ro,relatime,vers=3,rsize=8192,wsize=8192,namlen=255,hard,nolock,proto=udp,port=2049,timeo=11,retrans=3,sec=sys,local_lock=all,addr=198.27.85.63)
198.27.85.63:/home/pub/pro-power on /power type nfs (ro,nodev,relatime,vers=3,rsize=8192,wsize=8192,namlen=255,hard,nolock,proto=udp,port=2049,timeo=11,retrans=3,sec=sys,local_lock=all,addr=198.27.85.63)
proc on /proc type proc (rw,nosuid,nodev,noexec,relatime)
tmpfs on /dev type tmpfs (rw,relatime,size=10240k,mode=755)
devpts on /dev/pts type devpts (rw,nosuid,noexec,relatime,gid=5,mode=620)
tmpfs on /run type tmpfs (rw,nosuid,noexec,relatime,size=807512k,mode=755)
tmpfs on /run/lock type tmpfs (rw,nosuid,nodev,noexec,relatime,size=5120k)
tmpfs on /run/shm type tmpfs (rw,nosuid,nodev,noexec,relatime,size=1615020k)
rpc_pipefs on /nfs/var/lib/nfs/rpc_pipefs type rpc_pipefs (rw,relatime)
fusectl on /sys/fs/fuse/connections type fusectl (rw,relatime)下面是fsck /dev/md3的结果:
root@rescue:~# fsck /dev/md3
fsck from util-linux 2.20.1
e2fsck 1.42.5 (29-Jul-2012)
/home: clean, 370962/50429952 files, 5187714/201693680 blocksSda2上的mkswap:
root@rescue:~# mkswap /dev/sda2
Setting up swapspace version 1, size = 16382972 KiB
no label, UUID=b375ef52-9434-4298-be4a-38db9da029afSdb2上的mkswap:
root@rescue:~# mkswap /dev/sdb2
Setting up swapspace version 1, size = 16382972 KiB
no label, UUID=f9318100-c18d-4987-b4e8-6bc58b0c8299更新3:
我假设Bittylicious是/boot/grub/grub.conf,在这种情况下:
default=0
timeout=5
title CloudLinux Server (2.6.32-458.6.2.lve1.2.30.el6.x86_64)
kernel /boot/vmlinuz-2.6.32-458.6.2.lve1.2.30.el6.x86_64 root=/dev/md1 $
root (hd0,0)
initrd /boot/initramfs-2.6.32-458.6.2.lve1.2.30.el6.x86_64.img
title linux centos6_64
kernel /boot/vmlinuz-2.6.32-358.18.1.el6.x86_64 root=/dev/md1 ro
root (hd0,0)
initrd /boot/initrd-2.6.32-358.18.1.el6.x86_64.img我也尝试过重建initramfs。我遵循了本教程:http://advancelinux.blogspot.com/2013/06/how-to-rebuild-initrd-or-initramfs-in.html
发布于 2013-10-08 19:59:25
它不能启动的原因太多了。我们都可以列出一些原因(我会),但在一天结束时,一定有什么办法,你可以让你的供应商帮忙。即使他们只是阅读了控制台上的内容,它也会为如何修复它提供大量的线索。
我现在的建议是:
大多数非托管提供商确实提供支持,即使是付费的。我建议您为此付出代价,因为在没有任何内核访问的情况下,您将花费太长时间来猜测这一点。
更新1-现在您已经添加了fsck信息,这非常简单。你试图在一个RAID成员上运行fsck --这是行不通的。您需要做的是首先组装RAID数组(然后可能在上面运行fsck )。
为什么要在/dev/sda1 1上运行fsck?你可能需要做的事情是:
mdadm --assemble /dev/md1 /dev/sda1 /dev/sdb1(假设sda1和sdb2是您的RAID成员)
如果这样做有效,那么您可以在/dev/md1 1上运行fsck。您真正需要弄清楚的是,为什么操作系统没有组装RAID数组。我最好的猜测是,它已经降级了,您需要在内核选项中添加“引导降级”。
更新2-让我们获得更多信息:
https://serverfault.com/questions/544705
复制相似问题