KVM虚拟化技术之virt-manager使用及KVM虚拟化平台网络模型介绍_云其它

一.使用virt-manager创建和管理虚拟机

1.使用VNC Viewer连接进入虚拟化平台主机

 

2.打开终端输入virt-manager命令启动virt-manager虚拟机管理界面

#virt-manager

3.通过virt-manager安装CentOS 6.6的虚拟机

点击如图所示图标新建虚拟机:

选择PXE引导,我的网络内存在一个系统自动化部署服务器:

选择操作系统类型和版本:

设置内存和CPU个数:

设置硬盘大小,这里采用动态扩展磁盘空间方式:

忽略这个错误,由于是虚拟磁盘,不用担心空间,只需要保证系统空间不会超过物理磁盘实际空间:

勾选选项是可以查看配置在安装前:

我们可以在这个界面进行设置,我这里就不设置了,直接点击Begin Installation:

我们选择安装个基本的系统:

进入安装了:

可以观察安装时Virt-manager界面的情况:

可以知晓虚拟机正在运行,可以查看CPU的使用情况:

安装完成后如图;

 关闭虚拟机,在虚拟机输入关机指令即可将虚拟机关闭;

基于virt-manager创建管理虚拟机就完成了,很简单的。

 

下面的实验我们还是使用cirros轻量级的linux系统。

 二.KVM虚拟化平台的网络模型

1.网络模型介绍

一般虚拟机虚拟网络的设置主要包括三种方式。主要如下:

  NAT模式

   也有人称此种模式为host模式。在这种模式下虚拟机可以理解成没有自己的独立网卡。所有访问虚拟机的请求其实是直接发送给宿主机,然后通过访问宿主机转发到虚拟机上的。相应的虚拟机访问其他网络,也是先转发到宿主机然后在转发出去。对于宿主机之外的网络,是不知道该虚拟机存在的。

 Bridge模式

  桥接模式是使用比较多的模式,它是虚拟机拥有自己的独立网卡和IP,然后通过借用宿主机的网卡对外连接网络。它把宿主机的网卡当作了一种桥,通过这个桥连接外网的世界。在这种模式下,可以简单的理解成虚拟机和宿主机是两个不同的机器,有独立IP可以相互访问。对于虚拟机的IP获取,一般可以直接指定也可以通过DHCP获取得到。

 Internal模式(host-only)

  这个是把虚拟机之间的网络和主机的网络隔离开来。虚拟机是一片网络,主机也是一片网络,彼此之间不能相互访问。

桥接模型我们前面使用的很多例子,我这里就不做介绍了,我重点介绍一下host-only模型和NAT模型。

2.host-only模式实例
1).我们创建一个host-only的桥设备,将虚拟机之间的网络和KVM虚拟化平台宿主机隔离开来;

# brctl addbr isolationbr

查看桥设备:

# brctl show
bridge name   bridge id        STP enabled   interfaces
br0       8000.000c293e6326    yes       eth0
isolationbr       8000.000000000000    no
virbr0     8000.525400305441    yes       virbr0-nic

但是这个桥设备是未激活的,我们需要使用ip命令激活桥设备:

# ip link set isolationbr up

激活后查看我们的桥设备:

# ip link show
1: lo: <LOOPBACK,UP,LOWER_UP> mtu65536 qdisc noqueue state UNKNOWN
  link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
2: eth0:<BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen1000
  link/ether 00:0c:29:3e:63:26 brd ff:ff:ff:ff:ff:ff
3: br0:<BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UNKNOWN
  link/ether 00:0c:29:3e:63:26 brd ff:ff:ff:ff:ff:ff
4: virbr0:<BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UNKNOWN
  link/ether 52:54:00:30:54:41 brd ff:ff:ff:ff:ff:ff
5: virbr0-nic: <BROADCAST,MULTICAST>mtu 1500 qdisc noop state DOWN qlen 500
  link/ether 52:54:00:30:54:41 brd ff:ff:ff:ff:ff:ff
16: isolationbr:<BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UNKNOWN
  link/ether 6e:5e:8d:39:56:b5 brd ff:ff:ff:ff:ff:ff
17: vnet1:<BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UNKNOWNqlen 500
  link/ether 3a:ce:49:1d:f4:a3 brd ff:ff:ff:ff:ff:ff
18: vnet2:<BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UNKNOWNqlen 500
  link/ether 62:fc:96:5c:1f:7d brd ff:ff:ff:ff:ff:ff

2).启动两个虚拟机:
第一台cirros虚拟机:

复制代码 代码如下:

# qemu-kvm -m 128 -name cirros1 -drive file=/kvm/images/cirros-0.3.0-x86_64-disk.img,media=disk,format=qcow2,if=ide -net nic -net tap,ifname=vnet1,script=/etc/qemu-ifup,downscript=/etc/qemu-ifdown -boot c -daemonize

启动后从vncviewer登录如图:

第二台cirros虚拟机,启动时需要指定mac地址;

复制代码 代码如下:

# qemu-kvm -m 128 -name cirros2 -drive file=/kvm/images/cirros-0.3.0-x86_64-disk2.img,media=disk,format=qcow2,if=ide -net nic,macaddr=52:54:00:65:43:21 -net tap,ifname=vnet2,script=/etc/qemu-ifup,downscript=/etc/qemu-ifdown -boot c -daemonize

启动后从vncviewer登录如图:

 

查看两台虚拟机的ip地址:

 

使用ping测试两台虚拟机的连通性:

现在是连通的哦!

我们启动两台虚拟机后我们的vnet1和vnet2网卡是桥接在br0上的;

# brctl show
bridge name   bridge id        STP enabled   interfaces
br0       8000.000c293e6326    yes       eth0
                            vnet1
                            vnet2
isolationbr       8000.000000000000    no
virbr0     8000.525400305441    yes       virbr0-nic

3).我们现在将vnet1和vnet2桥接到isolationbr上:
先将vnet1和vnet2从桥接设备br0上移除:

# brctl delif br0 vnet1
# brctl delif br0 vnet2

现在查看桥接设备的网卡,两个虚拟机的网卡未桥接在桥接设备br0上了:

# brctl show
bridge name   bridge id        STP enabled   interfaces
br0       8000.000c293e6326    yes       eth0
isolationbr       8000.000000000000    no
virbr0     8000.525400305441    yes       virbr0-nic

我们再去两台虚拟机进行ping连通性测试:

现在虚拟机的连通性是不通的。

下面我们将vnet1和vnet2的网卡桥接到我们刚创建的桥接设备isolationbr上:

# brctl addif isolationbr vnet1
# brctl addif isolationbr vnet2

去查看桥接设备的网卡关联:

# brctl show
bridge name   bridge id        STP enabled   interfaces
br0       8000.000c293e6326    yes       eth0
isolationbr       8000.3ace491df4a3    no       vnet1
                            vnet2
virbr0     8000.525400305441    yes       virbr0-nic

我们虚拟机的两个网卡已经关联到了isolationbr桥设备上;
我们再去虚拟机上测试连通性:

现在两台虚拟机之间是在同一个网络的,可以实现通信,但是跟宿主机之间是隔离的,我们虚拟机与宿主机之间的联通性是不能连通的。如果我们需要实现虚拟机与宿主机之间的通信,那么我们就需要开启NAT模型,下面就介绍NAT模型。

3.NAT模型实例
其实就是配置host-only网络内的主机同外部主机通信实验,开启桥设备的NAT功能。
1).我们虚拟机的地址是经过网络内的DHCP服务器分配的,我们为了实验来手动设置两台虚拟机的地址和桥接设备isolationbr的地址
两台虚拟机的ip设置如图:

桥设备isolationbr的ip设置如图:

[root@createOS ~]# ifconfig isolationbr 10.0.0.254/8 up
[root@createOS ~]# ifconfig isolationbr
isolationbr Link encap:Ethernet HWaddr 3A:CE:49:1D:F4:A3
     inet addr:10.0.0.254 Bcast:10.255.255.255 Mask:255.0.0.0
     inet6 addr: fe80::6c5e:8dff:fe39:56b5/64 Scope:Link
     UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
     RX packets:1 errors:0 dropped:0overruns:0 frame:0
     TX packets:6 errors:0 dropped:0 overruns:0 carrier:0
     collisions:0 txqueuelen:0
     RX bytes:28 (28.0 b) TX bytes:468(468.0 b)

设置完成后测试虚拟机之间网络连通性:

我们将虚拟机的网关指向isolationbr桥设备地址即可与宿主机进行连通:

2).我们还是不能与物理网络中的真实网关172.16.0.1通信,我们需要将宿主机的路由转发功能打开:

# sysctl -w net.ipv4.ip_forward=1
net.ipv4.ip_forward = 1

我们先来通过虚拟机ping一下网关,如图:

在进行ping连通性测试的时候我们再在宿主机上打开抓包功能查看数据包:

# tcpdump -i eth0 icmp -nn
tcpdump: WARNING: eth0: no IPv4 addressassigned
tcpdump: verbose output suppressed, use -vor -vv for full protocol decode
listening on eth0, link-type EN10MB(Ethernet), capture size 65535 bytes
10:24:52.377558 IP 10.0.0.2 >172.16.0.1: ICMP echo request, id 1793, seq 0, length 64
10:24:53.384063 IP 10.0.0.2 >172.16.0.1: ICMP echo request, id 1793, seq 1, length 64

数据报文能够到达网关设备,但是数据包不能回来了。

我们需要开启宿主机的路由功能,设置防火墙中的nat模式:

# iptables -t nat -A POSTROUTING -s 10.0.0.0/8 ! -d 10.0.0.0/8 -j MASQUERADE
# iptables -t nat -L POSTROUTING
Chain POSTROUTING (policy ACCEPT)
target  prot opt source       destination
MASQUERADE tcp -- 192.168.122.0/24  !192.168.122.0/24  masq ports: 1024-65535
MASQUERADE udp -- 192.168.122.0/24  !192.168.122.0/24  masq ports: 1024-65535
MASQUERADE all -- 192.168.122.0/24  !192.168.122.0/24
MASQUERADE all -- 10.0.0.0/8     !10.0.0.0/8

开始从虚拟机ping测试到达真实网关的连通性:

同时开始抓包,我们在宿主机eth0和桥接设备isolationbr上都要抓包:
桥接设备isolationbr的抓包:

# tcpdump -i isolationbr -nn
tcpdump: verbose output suppressed, use -vor -vv for full protocol decode
listening on isolationbr, link-type EN10MB(Ethernet), capture size 65535 bytes
10:35:35.391069 IP 10.0.0.2 >172.16.0.1: ICMP echo request, id 2305, seq 0, length 64
10:35:35.393619 ARP, Request who-has10.0.0.2 tell 10.0.0.254, length 28
10:35:35.395095 ARP, Reply 10.0.0.2 is-at52:54:00:65:43:21, length 28
10:35:35.395137 IP 172.16.0.1 >10.0.0.2: ICMP echo reply, id 2305, seq 0, length 64
10:35:36.394760 IP 10.0.0.2 >172.16.0.1: ICMP echo request, id 2305, seq 1, length 64
10:35:36.395943 IP 172.16.0.1 >10.0.0.2: ICMP echo reply, id 2305, seq 1, length 64
10:35:41.426182 ARP, Request who-has10.0.0.254 tell 10.0.0.2, length 28
10:35:41.427695 ARP, Reply 10.0.0.254 is-at3a:ce:49:1d:f4:a3, length 28

可以发现虚拟机的请求到达了网关,网关也回复了;这里的地址转换未显示,但是可以猜测是通过nat地址转换eth0将虚拟机的请求发送给网关。

宿主机的eth0抓包:

# tcpdump -i eth0 icmp -nn
tcpdump: WARNING: eth0: no IPv4 addressassigned
tcpdump: verbose output suppressed, use -vor -vv for full protocol decode
listening on eth0, link-type EN10MB(Ethernet), capture size 65535 bytes
10:35:35.392027 IP 172.16.31.7 >172.16.0.1: ICMP echo request, id 2305, seq 0, length 64
10:35:35.393361 IP 172.16.0.1 >172.16.31.7: ICMP echo reply, id 2305, seq 0, length 64
10:35:36.395052 IP 172.16.31.7 >172.16.0.1: ICMP echo request, id 2305, seq 1, length 64
10:35:36.395860 IP 172.16.0.1 >172.16.31.7: ICMP echo reply, id 2305, seq 1, length 64

宿主机的eth0通过nat功能将虚拟机的请求转换成本机地址向网关请求回复了;

3).上述的步骤可以通过脚本自动化实现哦!

安装dnsmasq软件给虚拟机提供DHCP服务自动分配IP地址:

# yum install -y dnsmasq

注意:由于我们的KVM平台存在一个vibrd0的网卡,它自动启动了dnsmasq服务,我们在使用NAT模型时如果不是使用的这个网卡,我们就需要将其dnsmasq服务关闭。

复制代码 代码如下:

# ps -ef | grep "dnsmasq" |grep-v "grep"
nobody   6378    1  0 11:49 ?        00:00:00 /usr/sbin/dnsmasq--strict-order --pid-file=/var/run/libvirt/network/default.pid --conf-file=--except-interface lo --bind-interfaces --listen-address 192.168.122.1--dhcp-range 192.168.122.2,192.168.122.254--dhcp-leasefile=/var/lib/libvirt/dnsmasq/default.leases --dhcp-lease-max=253--dhcp-no-override --dhcp-hostsfile=/var/lib/libvirt/dnsmasq/default.hostsfile--addn-hosts=/var/lib/libvirt/dnsmasq/default.addnhosts

关闭dnsmasq服务:
#kill 6378

nat模型脚本示例:
开启nat功能的脚本;

#vim /etc/qemu-natup
#!/bin/bash
BRIDGE=isolationbr
NETWORK=10.0.0.0
GATEWAY=10.0.0.254
NETMASK=255.0.0.0
DHCPRANGE=10.0.0.1,10.0.0.100
TFTPROOT=
BOOTP=
function check_bridge()
{
if brctl show | grep "^BRIDGE"&> /dev/null;then
  return 1
else
  return 0
fi
}
function create_bridge()
{
  brctl addbr "BRIDGE"
  brctl stp "BRIDGE" on
  brctl setfd "BRIDGE" 0
  ifconfig "$BRIDGE""GATEWAY" netmask "$NETMASK" up
}
function enable_ip_forward()
{
  echo 1 > /proc/sys/net/ipv4/ip_forward
}
function add_filter_rules()
{
   iptables -t nat -A POSTROUTING -s"$NETWORK"/"$NETMASK" ! -d"$NETWORK"/"$NETMASK" -j MASQUERADE
}
function start_dnsmasq()
{
ps -ef | grep "dnsmasq" |grep -v"grep" &> /dev/null
if [ $? -eq 0 ];then
  echo "warning:dnsmasq is already running"
  return 1
fi
dnsmasq --strict-order--except-interface=lo --interface=$BRIDGE --listen-address=$GATEWAY--bind-interfaces --dhcp-range=$DHCPRANGE --conf-file=""--pid-file=/var/run/qemu-dhcp-$BRIDGE.pid --dhcp-leasefile=/var/run/qemu-dhcp-$BRIDGE.leases--dhcp-no-override ${TFTPROOT:+"--enable-tftp"}${TFTPROOT:+"--tftp-root=$TFTPROOT"}${BOOTP:+"--dhcp-boot=$BOOTP"}
}
function setup_bridge_nat()
{
check_bridge "$BRIDGE"
if [ $? -eq 0 ];then
  create_bridge
fi
enable_ip_forward
add_filter_rules "$BRIDGE"
start_dnsmasq "$BRIDGE"
}
if [ -n "$1" ];then
  setup_bridge_nat
  ifconfig "$1" 0.0.0.0 up
  brctl addif "$BRIDGE""$1"
  exit 0
else
  echo "Error:no interfacespecified"
  exit 1
fi

关闭nat功能及从桥设备移除虚拟网卡脚本:

#vim /etc/qemu-natdown
#!/bin/bash
BRIDGE="isolotionbr"
if [ -n "$1" ];then
    ip link set $1 down
    brctl delif "$BRIDGE" $1
    ip link set "$BRIDGE" down
    brctl delbr "$BRIDGE"
    iptables -t nat -F
    exit 0
else
    echo "Error: no interface specified"
    exit 1
fi

设置脚本执行权限:

# chmod +x /etc/qemu-natup
# chmod +x /etc/qemu-natdown

启动第一台虚拟机:

复制代码 代码如下:

# qemu-kvm -m 128 -name cirros1 -drive file=/kvm/images/cirros-0.3.0-x86_64-disk.img,media=disk,format=qcow2,if=ide -net nic -net tap,ifname=vnet1,script=/etc/qemu-natup,downscript=/etc/qemu-natdown -boot c -daemonize

我们去查看dnsmasq服务启动与否:

# ps -ef | grep "dnsmasq" |grep-v "grep"
nobody 38355   1 0 11:49 ?    00:00:00 dnsmasq --strict-order--except-interface=lo --interface=isolationbr --listen-address=10.0.0.254--bind-interfaces --dhcp-range=10.0.0.1,10.0.0.100 --conf-file=--pid-file=/var/run/qemu-dhcp-isolationbr.pid--dhcp-leasefile=/var/run/qemu-dhcp-isolationbr.leases --dhcp-no-override

查看宿主机上的网卡设备:

# ifconfig |grep -Ei"(vnet1|vnet2)"
vnet1  Link encap:Ethernet HWaddr16:85:A7:5C:84:9D
vnet2  Link encap:Ethernet HWaddrE6:81:C9:31:4F:78

启动虚拟机后在vncserver上连接到虚拟机界面操作,我们进行查看IP地址,可以发现我们的dnsmasq已经自动分配IP地址给虚拟机了。

查看一下宿主机的防火墙中的NAT规则:

#iptables -t nat -L POSTROUTING
Chain POSTROUTING (policy ACCEPT)
target  prot opt source       destination
MASQUERADE all -- 10.0.0.0/8     !10.0.0.0/8

嘿嘿,我把防火墙NAT规则都给清空了,所以这里就只有一条规则了。o(∩_∩)o

在虚拟机上进行网络连通性测试:

在测试的同时开启抓包哦!
桥接设备网卡的数据报文如下:

# tcpdump -i isolationbr -nn
tcpdump: verbose output suppressed, use -vor -vv for full protocol decode
listening on isolationbr, link-type EN10MB(Ethernet), capture size 65535 bytes
12:05:14.655667 IP 10.0.0.83 >172.16.0.1: ICMP echo request, id 257, seq 0, length 64
12:05:14.658466 IP 172.16.0.1 >10.0.0.83: ICMP echo reply, id 257, seq 0, length 64
12:05:15.657273 IP 10.0.0.83 >172.16.0.1: ICMP echo request, id 257, seq 1, length 64
12:05:15.658252 IP 172.16.0.1 >10.0.0.83: ICMP echo reply, id 257, seq 1, length 64
12:05:19.659800 ARP, Request who-has10.0.0.83 tell 10.0.0.254, length 28
12:05:19.661522 ARP, Request who-has10.0.0.254 tell 10.0.0.83, length 28
12:05:19.661569 ARP, Reply 10.0.0.254 is-at16:85:a7:5c:84:9d, length 28
12:05:19.662053 ARP, Reply 10.0.0.83 is-at52:54:00:88:88:88, length 28
12:05:47.759101 ARP, Request who-has10.0.0.47 tell 10.0.0.83, length 28
12:05:47.760926 ARP, Reply 10.0.0.47 is-at52:54:00:12:34:56, length 28
12:05:47.761579 IP 10.0.0.83 >10.0.0.47: ICMP echo request, id 513, seq 0, length 64
12:05:47.765075 IP 10.0.0.47 >10.0.0.83: ICMP echo reply, id 513, seq 0, length 64
12:05:48.759703 IP 10.0.0.83 >10.0.0.47: ICMP echo request, id 513, seq 1, length 64
12:05:48.760848 IP 10.0.0.47 >10.0.0.83: ICMP echo reply, id 513, seq 1, length 64
12:05:52.775287 ARP, Request who-has10.0.0.83 tell 10.0.0.47, length 28
12:05:52.776601 ARP, Reply 10.0.0.83 is-at52:54:00:88:88:88, length 28
12:05:59.376454 IP 10.0.0.83 >172.16.31.7: ICMP echo request, id 769, seq 0, length 64
12:05:59.376548 IP 172.16.31.7 >10.0.0.83: ICMP echo reply, id 769, seq 0, length 64
12:06:00.482899 IP 10.0.0.83 >172.16.31.7: ICMP echo request, id 769, seq 1, length 64
12:06:00.483035 IP 172.16.31.7 >10.0.0.83: ICMP echo reply, id 769, seq 1, length 64
12:06:04.376987 ARP, Request who-has10.0.0.83 tell 10.0.0.254, length 28
12:06:04.378153 ARP, Reply 10.0.0.83 is-at52:54:00:88:88:88, length 28

物理网卡的数据报文如下:

# tcpdump -i eth0 icmp -nn
tcpdump: WARNING: eth0: no IPv4 addressassigned
tcpdump: verbose output suppressed, use -vor -vv for full protocol decode
listening on eth0, link-type EN10MB (Ethernet),capture size 65535 bytes
12:05:14.657680 IP 172.16.31.7 >172.16.0.1: ICMP echo request, id 257, seq 0, length 64
12:05:14.658427 IP 172.16.0.1 >172.16.31.7: ICMP echo reply, id 257, seq 0, length 64
12:05:15.657329 IP 172.16.31.7 >172.16.0.1: ICMP echo request, id 257, seq 1, length 64
12:05:15.658215 IP 172.16.0.1 >172.16.31.7: ICMP echo reply, id 257, seq 1, length 64

至此,我们的KVM虚拟化平台的网络模型就介绍完成了,这些模型对以后的云计算平台网络的虚拟化也是很重要的。

以上是小编为您精心准备的的内容,在的博客、问答、公众号、人物、课程等栏目也有的相关内容,欢迎继续使用右上角搜索按钮进行搜索virt-manager
kvm虚拟化技术、kvm虚拟化技术 pdf、kvm虚拟化技术原理、kvm虚拟化技术介绍、kvm虚拟化技术 mobi,以便于您获取更多的相关知识。

时间: 2024-10-26 01:04:40

KVM虚拟化技术之virt-manager使用及KVM虚拟化平台网络模型介绍_云其它的相关文章

《VMware、Citrix和Microsoft虚拟化技术详解与应用实践》一1.1 虚拟化概述

1.1 虚拟化概述 在了解虚拟化之前,你可能会提出以下一些问题:什么是虚拟化?为什么我们需要虚拟化?虚拟化技术有哪些?虚拟化的历史由来是怎样的?怎么才能实现虚拟化技术? 1.1.1 虚拟化的定义 什么是虚拟化?在这里不可能给出一个精准的定义.虚拟化是一个广义的术语,各行各业对虚拟化的理解均不同,不同的人对虚拟化的理解也不同,所以它没有一个标准的定义.但是,无论怎样理解,虚拟化的本质都是将现有的计算机资源通过虚拟化的技术分割成若干个计算机资源,这些计算机资源相互独立.其最终目标是提高计算机的利用效

《Linux KVM虚拟化架构实战指南》——1.2 KVM虚拟化介绍

1.2 KVM虚拟化介绍 Kernel-based Virtual Machine(基于内核的虚拟机)最初是由以色列的一个创业公司Qumranet开发的,作为他们的VDI产品的虚拟机. 1.2.1 KVM虚拟化技术简介为简化开发,KVM的开发人员并没有选择从底层开始新写一个Hypervisor,而是选择了基于Linux kernel,通过加载新的模块使Linux Kernel本身变成一个Hypervisor. 2006年10月,在先后完成了基本功能.动态迁移以及主要的性能优化之后,Qumrane

了解最新一代的Linux虚拟化技术Kernel Virtual Machine

尽管这种变化的动机主要与构建和支持相关,而不是技术,但事实是许多对虚拟化感兴趣的企业 IT 小组需要学习 KVM 所使用的管理和控制工具.类似地,已投资 Xen 虚拟化且正在转向使用 KVM 的 IT 小组,可能希望尽可能将现有的虚拟机转换为 KVM 支持的格式,而不是重新创建它们. 能够在单个服务器硬件平台上运行多个虚拟机 (VM) 的能力在如今的 IT 基础架构中实现了了成本.系统管理和灵活性等方面的优势.在单个硬件平台上托管多个虚拟机,可减少硬件开支并帮助最大限度降低基础架构成本,比如能耗

CPU中英特尔虚拟化技术(VT-x)是什么

  英特尔的硬件辅助虚拟化技术(Vanderpool Technology,简称VT技术)是一种设计更简单.实施更高效和可靠的方法,是世界上首个X86平台的硬件辅助虚拟化解决方案.它对如何在不同的情形下分配给Guest OS (虚拟机上的操作系统) 想要的Ring 特权级别做了很好的改进. 在 IT 环境中实现更高的可管理性.安全性和灵活性,硬件辅助的英特尔 虚拟化技术(英特尔 VT)之类的虚拟化技术与基于软件的虚拟化解决方案相结合,能够将多种环境整合到一台服务器或电脑中,从而最大限度提高系统利

数据中心网络虚拟化技术概要

随着云计算和大数据等新兴应用的快速发展,"数据中心即计算机"(data center as a computer)的技术发展趋势逐渐明朗.数据中心作为一台计算机,与传统的高性能计算机具有很大的不同.在高性能计算领域,因为服务器被独占式的分配给租户使用,所以其主要的优化目标是"算得快".但是在云计算领域,为了提高数据中心的利用率.降低其运营成本,服务器整合(server consolidation)技术将成为常态.此时,服务器内将同时运行不同租户.不同应用的实例.一般

探秘移动安全系列文章其五:虚拟化技术

本文讲的是 :   探秘移动安全系列文章其五:虚拟化技术 ,  [IT168 评论]编者按:移动支付在刚刚过去的春节掀起了2016中国互联网第一阵风潮,随之而来的是安全圈的一片质疑声.首先我们需要强调的是产品体验与安全机制是两个层面的问题.春节前夕,笔者发起了关于移动安全话题的讨论,从企业安全和用户安全角度,移动设备本身带来的便捷性就是一把双刃剑,如果说移动设备和移动应用提供给开发者无数的机遇,那么也正意味着有更多的诸如后门之类的可乘之机开放给了攻击者. 安全本身是一个悖论,针对移动安全笔者针对

全融合网络虚拟化技术

服务器虚拟化技术 使CPU.内存.磁盘.I/O等硬件变成可以动态管理的"资源池",从而提高资源的利用率,让IT对业务的变化更具适应力. IT系统是由网络服务器存储等诸多因素组成的,局部的创新并不会带来IT系统的整体升级,于是存储也需要虚拟化,而网络也需要革新来满足IT系统整体性能升级. 一. 服务器虚拟化带来的问题 大二层技术的部署问题 将多台服务器虚拟化为一个资源池需要所有的服务器都处在同一个二层域,因此像FabricPatch.Trill.SPB等各种各样的大二层技术应运而生,但是

深度分析云存储中虚拟化技术构成及应用

存储领域国际权威机构SNIA(存储网络工业协会)给出了存储虚拟化(StorageVirtualization)的定义:"通过将存储系统/子系统的内部功能从应用程序.计算服务器.网络资源中进行抽象.隐藏或隔离,实现独立于应用程序.网络的存储与数据管理".存储虚拟化技术将底层存储设备进行抽象化统一管理,向服务器层屏蔽存储设备硬件的特殊性,而只保留其统一的逻辑特性,从而实现了存储系统的集中.统一.方便的管理. 与传统存储相比,虚拟化存储的优点主要体现在:磁盘利用率高,传统存储技术的磁盘利用率

性能怎样无限扩大?透视虚拟化技术的一点一滴

我们都知道,现在正处在一个数据量每天成指数倍暴增的时代,这也是为什么催生了云计算和大数据时代如此快的来临和发展,作为用户而言,如何在有限的底层硬件设备投资的基础之上获得更多的网络资源以及数据资源,从而为推动自身企业发展做贡献是很多企业级用户的根本诉求. 虚拟化技术,作为诞生在云计算时代之上的一类IT技术,能够帮助我们实现上述的用户诉求,虚拟化能够让底层硬件设备的计算元件在虚拟的环境当中进行运行,从而不仅仅简化了IT运维的管理流程,而且还在有限的空间当中大大提升了用户的工作效率. 有一些业内专家就