linux kvm虚拟机使用

时间:2023-12-21 18:46:20

安装配置kvm



1、安装kvm软件包

[root@kvm ~]# yum install kvm python-virtinst libvirt tunctl bridge-utils virt-manager qemu-kvm-tools virt-viewer virt-v2v

 

2、安装kvm虚拟化管理工具包

[root@kvm ~]# yum install libguestfs-tools





3、查看虚拟化环境

(1)查看虚拟机环境

 

[root@kvm ~]# virsh -c qemu:///system list

 错误:Failed to connect socket to '/var/run/libvirt/libvirt-sock': 没有那个文件或文件夹

 错误:连接到管理程序失败

 [root@kvm ~]# /etc/init.d/libvirtd restart

 正在关闭 libvirtd 守护进程:                               [失败]

 启动 libvirtd 守护进程:                                   [确定]

 [root@kvm ~]# virsh -c qemu:///system list

 Id    名称                         状态

 ----------------------------------------------------

 



(2)检測kvm模块是否安装

[root@kvm ~]# lsmod |grep kvm

 kvm_intel              53484  0 

 kvm                   316506  1 kvm_intel





(3)查看虚拟工具版本号



[root@kvm ~]# virsh --version

 0.10.2

 [root@kvm ~]# virt-install --version

 0.600.0

 [root@kvm ~]# ln -s /usr/libexec/qemu-kvm /usr/bin/

 [root@kvm ~]# qemu-kvm --version

 QEMU PC emulator version 0.12.1 (qemu-kvm-0.12.1.2-2.448.el6_6), Copyright (c) 2003-2008 Fabrice Bellard





4、手动配置虚拟网桥

(1)桥接模式的概述

 事实上我们在虚拟机搭建的时候,我们终于关心的网卡是: eth0, br0, vnet0,vnet1…

 当中eth0是我们server原来的物理网卡,而br0是我们虚拟出来的网桥设备,而vnetXXX就是桥接映射到虚拟机里面用到的网卡。

当配置完成之后,我们使用ifconfig命令查看起来的话。会发现eth0是没有IP地址,而br0仿佛是虚拟出来的一个原来eth0的訪问接口,它具有IP地址,能够取代原来的eth0被訪问。而vnetXX的地址能够在建立虚拟机之后在虚拟机里面配置。桥接后能够被外部訪问。

注意:将已有的物理网卡加入到网桥,此时物理网卡eth0工作于混杂模式,所以不须要IP地址。由于网桥是工作在链路层的。br0就提供了IP地址。用来模拟原来的物理网卡的訪问接口.

 关于混杂模式:

 依据以太网的原理。包是在整个子网里面广播发送的,当网卡发现这个数据帧不是发给自己的也不是广播包的时候。就直接把它丢掉,而不传送到上层内核去处理。而当网卡处于混杂模式的时候,网卡就不会丢掉帧,而是所有向上提交到内核,让内核处理这些帧结构。通常的。混杂模式使用来进行网络调试的,不是正常的工作状态





 (2)创建配置br0网桥

 [root@kvm ~]# cd /etc/sysconfig/network-scripts/

 [root@kvm network-scripts]# cp ifcfg-eth1 ifcfg-br0

 [root@kvm network-scripts]# more ifcfg-eth1 

DEVICE=eth1

 HWADDR=00:0C:29:59:7f:21

 TYPE=Ethernet

 ONBOOT=yes

 BRIDGE=br0

 [root@kvm network-scripts]# more ifcfg-br0 

DEVICE=br0

 HWADDR=00:0C:29:59:7f:21

 TYPE=Bridge

 UUID=739689d7-857c-4a62-9ede-bd6f18cde92a

 ONBOOT=yes

 NM_CONTROLLED=yes

 BOOTPROTO=static

 IPADDR=192.168.1.180

 NETMASK=255.255.255.0

 GATEWAY=192.168.1.1





(3)又一次启动network

[root@kvm ~]# service network restart

 正在关闭接口 br0:                                         [确定]

 正在关闭接口 eth1:                                        [确定]

 关闭环回接口:                                             [确定]

 弹出环回接口:                                             [确定]

 弹出界面 eth1:                                            [确定]

 弹出界面 br0:                                             [确定]





(4)查看网络配置信息

[root@kvm ~]# ifconfig

 br0       Link encap:Ethernet  HWaddr 00:0C:29:59:7F:21  

           inet addr:192.168.1.180  Bcast:192.168.1.255  Mask:255.255.255.0    #获取到地址

           inet6 addr: fe80::20c:29ff:fe59:7f21/64 Scope:Link

           UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1

           RX packets:3170100 errors:0 dropped:0 overruns:0 frame:0

           TX packets:1731782 errors:0 dropped:0 overruns:0 carrier:0

           collisions:0 txqueuelen:0 

          RX bytes:4503127474 (4.1 GiB)  TX bytes:132209121 (126.0 MiB)

 

eth1      Link encap:Ethernet  HWaddr 00:0C:29:59:7F:21  

           inet6 addr: fe80::20c:29ff:fe59:7f21/64 Scope:Link

           UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1

           RX packets:3233002 errors:0 dropped:0 overruns:0 frame:0

           TX packets:1781748 errors:0 dropped:0 overruns:0 carrier:0

           collisions:0 txqueuelen:1000 

          RX bytes:4626338976 (4.3 GiB)  TX bytes:136271300 (129.9 MiB)

 

lo        Link encap:Local Loopback  

           inet addr:127.0.0.1  Mask:255.0.0.0

           inet6 addr: ::1/128 Scope:Host

           UP LOOPBACK RUNNING  MTU:16436  Metric:1

           RX packets:0 errors:0 dropped:0 overruns:0 frame:0

           TX packets:0 errors:0 dropped:0 overruns:0 carrier:0

           collisions:0 txqueuelen:0 

          RX bytes:0 (0.0 b)  TX bytes:0 (0.0 b)

 

virbr0    Link encap:Ethernet  HWaddr 52:54:00:19:DC:45  

           inet addr:192.168.122.1  Bcast:192.168.122.255  Mask:255.255.255.0

           UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1

           RX packets:0 errors:0 dropped:0 overruns:0 frame:0

           TX packets:0 errors:0 dropped:0 overruns:0 carrier:0

           collisions:0 txqueuelen:0 

          RX bytes:0 (0.0 b)  TX bytes:0 (0.0 b)

 

vnet0     Link encap:Ethernet  HWaddr FE:54:00:20:9C:91  

           inet6 addr: fe80::fc54:ff:fe20:9c91/64 Scope:Link

           UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1

           RX packets:20 errors:0 dropped:0 overruns:0 frame:0

           TX packets:644 errors:0 dropped:0 overruns:0 carrier:0

           collisions:0 txqueuelen:500 

          RX bytes:3365 (3.2 KiB)  TX bytes:61657 (60.2 KiB)





(5)查看网桥

[root@kvm ~]# brctl show

 bridge name    bridge id      STP enabled    interfaces

 br0     8000.000c29597f21   no      eth1





四、kvm安装CentOS 6.x系统

 

1、上传CentOS6.4镜像到本地server中

 

[root@kvm ~]# mkdir /iso

 [root@kvm ~]# ls /iso/

 CentOS-6.4-x86_64-bin-DVD1.iso





2、创建虚拟机硬盘

 

[root@kvm ~]# mkdir /kvm

 [root@kvm ~]# qemu-img create -f qcow2 /kvm/kvmtest.img 4G

 Formatting '/kvm/kvmtest.img', fmt=qcow2 size=4294967296 encryption=off cluster_size=65536 

[root@kvm ~]# ls /kvm/

 kvmtest.img





[root@kvm ~]# qemu-img --help

 qemu-img version 0.12.1, Copyright (c) 2004-2008 Fabrice Bellard

 usage: qemu-img command [command options]

 QEMU disk image utility

 

Command syntax:

   check [-f fmt] [--output=ofmt] [-r [leaks | all]] [-T src_cache] filename

   create [-f fmt] [-o options] filename [size]

   commit [-f fmt] [-t cache] filename

   compare [-f fmt] [-F fmt] [-T src_cache] [-p] [-s] filename1 filename2

   convert [-c] [-p] [-f fmt] [-t cache] [-T src_cache] [-O output_fmt] [-o options] [-S sparse_size] filename [filename2 [...]] output_filename

   info [-f fmt] [--output=ofmt] filename

   map [-f fmt] [--output=ofmt] filename

   snapshot [-l | -a snapshot | -c snapshot | -d snapshot] filename

   rebase [-f fmt] [-t cache] [-T src_cache] [-p] [-u] -b backing_file [-F backing_fmt] filename

   resize filename [+ | -]size

 Command parameters:

   'filename' is a disk image filename

   'fmt' is the disk image format. It is guessed automatically in most cases

   'cache' is the cache mode used to write the output disk image, the valid

     options are: 'none', 'writeback' (default), 'writethrough' and 'unsafe'

   'src_cache' in contrast is the cache mode used to read input disk images

   'size' is the disk image size in bytes. Optional suffixes

     'k' or 'K' (kilobyte, 1024), 'M' (megabyte, 1024k), 'G' (gigabyte, 1024M)

     and T (terabyte, 1024G) are supported. 'b' is ignored.





3、创建虚拟机

[root@kvm ~]# virt-install --name kvmtest01 --boot network,cdrom,menu=on --ram 1024 --vcpus=1 --os-type=linux --accelerate -c /iso/CentOS-6.4-x86_64-bin-DVD1.iso --disk path=/kvm/kvmtest.img,size=4,format=qcow2,bus=virtio --bridge=br0,model=virtio --vnc --vncport=5991
--vnclisten=0.0.0.0

 

開始安装......

 创建域......                                                                                                |    0 B     00:01     

 无法打开显示:

 执行 'virt-viewer --help' 来查看可用命令行选项的完整列表

 域安装仍在进行。

您能够又一次连接

 到控制台以便完毕安装进程。







4、開始通过VNC进行连接,进行安装过程

 

(1)查看kvm监听的port

[root@kvm ~]# netstat -tnlp |grep kvm

 tcp        0      0 0.0.0.0:5991                0.0.0.0:*                   LISTEN      16291/qemu-kvm



(2)VNC建立连接方式(能够安装虚拟机的系统)

IP:5991  





5、登陆操作系统查看

[root@kvm ~]# virsh list --all

 Id    名称                         状态

 ----------------------------------------------------

2     kvmtest01                      running

 



五、kvm虚拟机的日常管理和配置



1、查看kvm虚拟机配置文件以及执行状态

 (1)kvm虚拟机默认配置文件

 



[root@kvm ~]# cd /etc/libvirt/qemu/

 [root@kvm qemu]# ll

 总用量 8

 -rw------- 1 root root 2456 12月 19 12:16 kvmtest01.xml

 drwx------ 3 root root 4096 12月 19 11:56 networks

 



(2)virsh命令帮助



[root@kvm qemu]# virsh --help

 或者

 [root@kvm qemu]# virsh

 欢迎使用 virsh,虚拟化的交互式终端。

 

输入:'help' 来获得命令的帮助信息

        'quit' 退出

 

virsh # help





(3)查看kvm虚拟机的状态



[root@kvm qemu]# virsh list --all

 Id    名称                         状态

 ----------------------------------------------------

2     kvmtest01                      running





2、kvm虚拟机关机或断电

 我们在开启与关闭KVM虚拟机时。通常是通过start、shutdown、reboot等命令来进行。

 可是有时候我们会发如今使用shutdown、reboot命令进行关闭和重新启动虚拟机时,虚拟机没有不论什么反应,该怎么执行还是怎么执行,这个时候我们可能就会使用destroy暴力关机。

 为什么会出现这样的现象?

 经过查询相关资料发现,原来这几个命令是向KVM虚拟机发送一个ACPI指令。来实现相关对虚拟机的操作。而默认安装KVM虚拟机时,特别是linux虚拟机。没有安装ACPI服务,因此导致虚拟机没有对这些命令做出对应的动作。

解决的方法:

 假设要实现这些指令的功能,那么就须要在KVM的虚拟机中,安装ACPI服务,然后启动该服务就可以。

KVM虚拟机中眼下windows系统默认ACPI服务已经安装并启动,所以我们仅仅须要对Linux进行安装ACPI服务就可以。

 (1)安装acpid服务

 



[root@kvm ~]# yum install acpid





(2)将acpid服务设置开机自启动

[root@kvm ~]# /etc/init.d/acpid status

 acpid 已停

 [root@kvm ~]# /etc/init.d/acpid start

 启动 acpi 守护进程:                                       [确定]

 [root@kvm ~]# chkconfig acpid on

 [root@kvm ~]# chkconfig --list acpid

 acpid             0:关闭    1:关闭    2:启用    3:启用    4:启用    5:启用    6:关闭





(3)关机

 

默认情况下virsh工具不能对linux虚拟机进行关机操作,linux操作系统须要开启与启动acpid服务。在安装KVM linux虚拟机必须配置此服务。

 [root@kvm ~]# virsh shutdown kvmtest01

 域 kvmtest01 被关闭

 

[root@kvm ~]# virsh list --all

 Id    名称                         状态

 ----------------------------------------------------

2     kvmtest01                      running





(4)强制关闭电源





[root@kvm ~]# virsh destroy kvmtest01

 域 kvmtest01 被删除

 

[root@kvm ~]# virsh list --all

 Id    名称                         状态

 ----------------------------------------------------

 -     kvmtest01                      关闭





3、通过配置文件启动虚拟机





[root@kvm ~]# virsh create /etc/libvirt/qemu/kvmtest01.xml 

域 kvmtest01 被创建(从 /etc/libvirt/qemu/kvmtest01.xml)

 

[root@kvm ~]# virsh list --all

 Id    名称                         状态

 ----------------------------------------------------

3     kvmtest01                      running

 



4、kvm虚拟机开机的两种方式

第一种:

 [root@kvm ~]# virsh list --all

 Id    名称                         状态

 ----------------------------------------------------

 -     kvmtest01                      关闭

 

[root@kvm ~]# virsh start kvmtest01

 域 kvmtest01 已開始

 

[root@kvm ~]# virsh list --all

 Id    名称                         状态

 ----------------------------------------------------

4     kvmtest01                      running





另外一种:通过配置文件启动虚拟机

 [root@kvm ~]# virsh create /etc/libvirt/qemu/kvmtest01.xml 

域 kvmtest01 被创建(从 /etc/libvirt/qemu/kvmtest01.xml)

 

[root@kvm ~]# virsh list --all

 Id    名称                         状态

 ----------------------------------------------------

3     kvmtest01                      running





5、配置开机自启动虚拟机

[root@kvm ~]# ll /etc/libvirt/qemu

 总用量 8

 -rw------- 1 root root 2456 12月 19 12:16 kvmtest01.xml

 drwx------ 3 root root 4096 12月 19 11:56 networks

 [root@kvm ~]# virsh autostart kvmtest01

 域 kvmtest01标记为自己主动開始

[root@kvm ~]# ll /etc/libvirt/qemu

 总用量 12

 drwxr-xr-x 2 root root 4096 12月 19 13:07 autostart      #开机自启动文件

 -rw------- 1 root root 2456 12月 19 12:16 kvmtest01.xml

 drwx------ 3 root root 4096 12月 19 11:56 networks





6、导出kvm虚拟机配置文件

 

凝视:kvm虚拟机配置文件能够通过这样的方式进行备份

 [root@kvm ~]# virsh dumpxml kvmtest01 > /etc/libvirt/qemu/kvmtest02.xml

 [root@kvm ~]# ll /etc/libvirt/qemu/

 总用量 16

 drwxr-xr-x 2 root root 4096 12月 19 13:07 autostart

 -rw------- 1 root root 2456 12月 19 12:16 kvmtest01.xml

 -rw-r--r-- 1 root root 2642 12月 19 13:22 kvmtest02.xml

 drwx------ 3 root root 4096 12月 19 11:56 networks





7、加入删除kvm虚拟机

 (1)删除kvm虚拟机

 说明:该命令仅仅是删除了可vmtest01的配置文件,并非删除虚拟磁盘文件





说明:该命令仅仅是删除了可vmtest01的配置文件。并非删除虚拟磁盘文件

 [root@kvm ~]# ll /etc/libvirt/qemu

 总用量 16

 drwxr-xr-x 2 root root 4096 12月 19 13:07 autostart

 -rw------- 1 root root 2456 12月 19 12:16 kvmtest01.xml  #kvmtest01虚拟机的配置文件

 -rw-r--r-- 1 root root 2642 12月 19 13:22 kvmtest02.xml  #kvmtest01虚拟机的备份配置文件

 drwx------ 3 root root 4096 12月 19 11:56 networks

 [root@kvm ~]# virsh destroy kvmtest01

 域 kvmtest01 被删除

 

[root@kvm ~]# virsh list --all

 Id    名称                         状态

 ----------------------------------------------------

 -     kvmtest01                      关闭

 

[root@kvm ~]# virsh undefine kvmtest01

 域 kvmtest01 已经被取消定义

 [root@kvm ~]# ll /etc/libvirt/qemu

 总用量 12

 drwxr-xr-x 2 root root 4096 12月 19 13:29 autostart

 -rw-r--r-- 1 root root 2642 12月 19 13:22 kvmtest02.xml  #发现虚拟机的配置文件被删除了

 drwx------ 3 root root 4096 12月 19 11:56 networks

 

[root@kvm ~]# virsh list --all

 Id    名称                         状态

 ----------------------------------------------------









(2)又一次定义虚拟机配置文件

 通过导出备份的配置文件恢复原KVM虚拟机的定义,并又一次定义虚拟机

 

[root@kvm ~]# virsh define /etc/libvirt/qemu/kvmtest01.xml 

定义域 kvmtest01(从 /etc/libvirt/qemu/kvmtest01.xml)

 

[root@kvm ~]# virsh list --all

 Id    名称                         状态

 ----------------------------------------------------

 -     kvmtest01                      关闭

 







(3)启动kvmtest01虚拟机



[root@kvm ~]# virsh start kvmtest01

 域 kvmtest01 已開始

 

[root@kvm ~]# virsh list --all

 Id    名称                         状态

 ----------------------------------------------------

5     kvmtest01                      running

 





8、kvm的挂起和恢复命令

 (1)挂起

[root@kvm ~]# suspend kvmtest01

[root@kvm ~]# virsh list --all

 Id    名称                         状态

 ----------------------------------------------------

6     kvmtest01                      暂停

 



(2)恢复

 [root@kvm ~]#resume kvmtest01

[root@kvm ~]# virsh list --all

 Id    名称                         状态

 ----------------------------------------------------

6     kvmtest01                      running

 





六、kvm虚拟机控制台登陆配置

说明:下面全部的操作都是在kvm虚拟主机上操作的也就是kvmtest01上操作的

1、加入ttyS0的许可,同意root登陆

[root@localhost ~]# echo "ttyS0" >> /etc/securetty

 [root@localhost ~]# more /etc/securetty

 console

 vc/1

 vc/2

 vc/3

 vc/4

 vc/5

 vc/6

 vc/7

 vc/8

 vc/9

 vc/10

 vc/11

 tty1

 tty2

 tty3

 tty4

 tty5

 tty6

 tty7

 tty8

 tty9

 tty10

 tty11

 ttyS0    #加入ttyS0

 





2、改动grub.conf配置文件

 

[root@localhost ~]# vim /etc/grub.conf 

凝视加入console=ttyS0

 # grub.conf generated by anaconda

 #

 # Note that you do not have to rerun grub after making changes to this file

 # NOTICE:  You have a /boot partition.  This means that

 #          all kernel and initrd paths are relative to /boot/, eg.

 #          root (hd0,0)

 #          kernel /vmlinuz-version ro root=/dev/vda3

 #          initrd /initrd-[generic-]version.img

 #boot=/dev/vda

 default=0

 timeout=5

 splashimage=(hd0,0)/grub/splash.xpm.gz

 hiddenmenu

 title CentOS (2.6.32-358.el6.x86_64)

     root (hd0,0)

     kernel /vmlinuz-2.6.32-358.el6.x86_64 ro root=UUID=7b02e71c-06b4-4f5f-af83-dfe20e93fddf rd_NO_LUKS  KEYBOARDTYPE=pc KEYTABLE=u

 s rd_NO_MD crashkernel=auto LANG=zh_CN.UTF-8 rd_NO_LVM rd_NO_DM rhgb quiet console=ttyS0    #加入console=ttyS0

     initrd /initramfs-2.6.32-358.el6.x86_64.img

 

3、改动/etc/inittab文件

 

[root@localhost ~]# echo "S0:12345:respawn:/sbin/agetty ttyS0 115200" >> /etc/inittab

 [root@localhost ~]# more /etc/inittab 

# inittab is only used by upstart for the default runlevel.

 #

 # ADDING OTHER CONFIGURATION HERE WILL HAVE NO EFFECT ON YOUR SYSTEM.

 #

 # System initialization is started by /etc/init/rcS.conf

 #

 # Individual runlevels are started by /etc/init/rc.conf

 #

 # Ctrl-Alt-Delete is handled by /etc/init/control-alt-delete.conf

 #

 # Terminal gettys are handled by /etc/init/tty.conf and /etc/init/serial.conf,

 # with configuration in /etc/sysconfig/init.

 #

 # For information on how to write upstart event handlers, or how

 # upstart works, see init(5), init(8), and initctl(8).

 #

 # Default runlevel. The runlevels used are:

 #   0 - halt (Do NOT set initdefault to this)

 #   1 - Single user mode

 #   2 - Multiuser, without NFS (The same as 3, if you do not have networking)

 #   3 - Full multiuser mode

 #   4 - unused

 #   5 - X11

 #   6 - reboot (Do NOT set initdefault to this)

 # 

id:3:initdefault:

 S0:12345:respawn:/sbin/agetty ttyS0 115200





5、重新启动kvm虚拟主机

[root@localhost ~]# reboot





6、在控制端kvmserver上操作

virsh console kvmtest01


kvm主机本机虚拟机直接克隆

 (1)虚拟机kvmtest01的磁盘文件路径

root@kvm ~]# ll /kvm/kvmtest.img 

-rw-r--r-- 1 root root 1115422720 12月 19 14:25 /kvm/kvmtest.img

 

(2)虚拟机的名称

[root@kvm ~]# virsh list --all

 Id    名称                         状态

 ----------------------------------------------------

1     kvmtest01                      running



(3)開始克隆

[root@localhost ~]# virt-clone -o kvmtest01 -n kvmtest02 -f /kvm/kvmtest02.img 

正在克隆 kvmtest.img                             51% [=====================                     ] 6.9 MB/s | 544 MB     01:15 ETA





(4)克隆完毕

[root@kvm ~]# virt-clone -o kvmtest01 -n kvmtest02 -f /kvm/kvmtest02.img 

ERROR    必须暂停或者关闭有要克隆设备的域。

[root@kvm ~]# virsh destroy kvmtest01

 域 kvmtest01 被删除

 

[root@kvm ~]# virt-clone -o kvmtest01 -n kvmtest02 -f /kvm/kvmtest02.img 

正在克隆 kvmtest.img                                                                                       | 1.0 GB     01:18     

 

Clone 'kvmtest02' created successfully.





參数解释

 -o ORIGINAL_GUEST, --original=ORIGINAL_GUEST

     原始客体的名称;必须为关闭或者暂停状态

 -n NEW_NAME, --name=NEW_NAME

     新client的名称

 -f NEW_DISKFILE, --file=NEW_DISKFILE

     作为新client磁盘映像的新文件

 



(5)启动kvm虚拟机

Clone 'kvmtest02' created successfully.

 [root@kvm ~]# virsh list --all

 Id    名称                         状态

 ----------------------------------------------------

 -     kvmtest01                      关闭

-     kvmtest02                      关闭

 



[root@kvm ~]# virsh start kvmtest02

 域 kvmtest02 已開始

 



[root@kvm ~]# virsh list --all

 Id    名称                         状态

 ----------------------------------------------------

2     kvmtest02                      running

-     kvmtest01                      关闭





(6)kvm控制台登陆kvmtest02虚拟机



[root@kvm ~]# virsh console kvmtest02

 连接到域 kvmtest02

 Escape character is ^]

 





        Welcome to CentOS 

正在启动 udev:[确定]

 设立主机名 localhost.localdomain: [确定]

 检查文件系统

 Checking all file systems.

 [/sbin/fsck.ext4 (1) -- /] fsck.ext4 -a /dev/vda3 

/dev/vda3: clean, 33318/118320 files, 231356/472832 blocks

 [/sbin/fsck.ext4 (1) -- /boot] fsck.ext4 -a /dev/vda1 

/dev/vda1: 正在修复日志

 /dev/vda1: clean, 38/51200 files, 32302/204800 blocks

 [确定]

 将根文件系统又一次挂载成读写模式: [确定]

 挂载本地文件系统: [确定]

 启用/etc/fstab中的交换空间: [确定]

 进入非互动式启动

 ip6tables:应用防火墙规则:[确定]

 iptables:应用防火墙规则:[确定]

 弹出环回接口: [确定]

 弹出界面 eth0: 设备 eth0 似乎不存在, 初始化操作将被延迟。

[失败]

 正在启动 auditd:[确定]

 启动系统日志记录器:[确定]

 启动系统消息总线:[确定]

 挂载其他文件系统: [确定]

 又一次激发失败的 udev 事件[确定]

 加入 udev 持久规则[确定]

 正在启动 sshd:[确定]

 启动 postfix: [确定]

 正在启动 crond:[确定]

 

CentOS release 6.4 (Final)

 Kernel 2.6.32-358.el6.x86_64 on an x86_64

 

localhost.localdomain login: root

 Password: 

Last login: Fri Dec 19 16:23:37 on ttyS0

 [root@localhost ~]# ifconfig

 lo        Link encap:Local Loopback  

           inet addr:127.0.0.1  Mask:255.0.0.0

           inet6 addr: ::1/128 Scope:Host

           UP LOOPBACK RUNNING  MTU:16436  Metric:1

           RX packets:0 errors:0 dropped:0 overruns:0 frame:0

           TX packets:0 errors:0 dropped:0 overruns:0 carrier:0

           collisions:0 txqueuelen:0 

          RX bytes:0 (0.0 b)  TX bytes:0 (0.0 b)





2、通过拷贝配置文件与磁盘文件的虚拟机复制克隆(适用于异机的静态迁移)

sheng





注意:KVM克隆的时候须要注意几点

1、编辑配置文件的时候。尽量不要使用vim/vi,由于vim/vi改动的配置当时不会生效。所以要使用KVM特定的编辑命令 virsh edit kvmtest01

2、因为使用的虚拟机。克隆后的虚拟机是仅仅有lo回环地址,没有物理网卡。须要我们手动改动

[root@kvm ~]# ll /etc/udev/rules.d/70-persistent-net.rules 

-rw-r--r-- 1 root root 420 12月 18 21:22 /etc/udev/rules.d/70-persistent-net.rules