大家好,我的宝宝发烧怎么物理降温机cpu为4路10核,内存512GB;能分配出多少台2Vcpu 32GB内存的虚拟机呢?VMware平台来的

桌面虚拟机方案配置清单_图文_百度文库
您的浏览器Javascript被禁用,需开启后体验完整功能,
享专业文档下载特权
&赠共享文档下载特权
&10W篇文档免费专享
&每天抽奖多种福利
两大类热门资源免费畅读
续费一年阅读会员,立省24元!
桌面虚拟机方案配置清单
&&桌面虚拟机方案配置清单(500个桌面,三种方案)。
阅读已结束,下载本文需要
想免费下载本文?
定制HR最喜欢的简历
下载文档到电脑,同时保存到云知识,更方便管理
加入VIP
还剩11页未读,
定制HR最喜欢的简历
你可能喜欢查看:47625|回复:32
各位高手,小弟。请教一下。如果1颗物理CPU、1核、6超线程的物理服务器,能虚拟出多少个VCPU。我理解应该是和主频有关,但是xencenter上的默认划分是按照什么原则划分了?
本帖最后由 redhat9i 于
19:38 编辑
论坛首席记者
这个没关注过
51CTO论坛有移动端啦,发帖回帖更方便~
优秀技术经理
我有最佳化的那个文档,我回头回复你,要过几天,这几天都不在电脑边,先开会去了。。。
在我历史回复里面回复过好几遍了其实。。。
中级工程师
据我统计,,xenserver 32核 开100多个双核的vps ,主机的CPU将达到%90以上。、
如果是一路一核
在vsphere 5.1中记得是最多32路1核,因为菜单只能到32,个人认为理论上可以设置无限多1核的vCPU。
【欢迎访问Tim2009的虚拟化技术博客】
助理工程师
我也想知道这个问题
助理工程师
vCPU,顾名思义,是虚拟CPU。 创建虚拟机时,需要配置vCPU资源。 因此vCPU是虚拟机的部件。 因此脱离VM,谈论vCPU是没有意义的。
虚拟化管理系统如何调度vCPU,取决于系统内的虚拟机数目以及虚拟机配置的vCPU的情况。
大致的情况如下:
1、当系统内VM所需的vCPU总数少于物理CPU的核数(包括超线程Core)时,虚拟化管理系统为vCPU分配的资源不超过一个物理CPU核。 vCPU与物理核的分配关系可以是绑定的,也可能是动态的。
比如服务器有20个核心,你创建了2个VM,每个VM 4个vCPU,那么这两个VM最多能够使用服务器的8个核心。
2、当系统内的VM所需要的vCPU核大于物理CPU核数时,虚拟化管理系统首先按照时间片轮流调度一遍,然后如果还有剩余的CPU资源,则给所需要的vCPU。 比如系统配置了40个vCPU,只有20个物理核。那么平均每个vCPU获取一个核心50%的资源。由于一些VM忙,一些VM空闲,虚拟化系统会在一个调度周期内,划分出若干时间片,轮流给每个vCPU使用。忙的vCPU可以使用完整个时间片,而闲的vCPU用不完整个时间片,会提前释放资源。这样在一个调度周期内,对每个vCPU都调度一遍后还有空闲的时间,调度器会把用这剩余的资源去调度忙的vCPU。 这样兼顾公平和效率。&&这中调度算法具体下来,大致是如下效果:系统有1个CPU 2.0 Ghz,两个VM,分配1个vCPU。 如果VM1 和 VM2都忙,那么各自相当于拥有一个1.0 Ghz的CPU。 如果VM1很忙,VM1只需要 500Mhz的处理能力,那么在VM1看来,相当于暂时获得了 1.5Ghz的处理器。
3、通过对Xen的测试,系统所有虚拟机的vCPU的总数目小于和等于CPU核数时,VM的性能是比较稳定的。 VM的vCPU基本上绑定到了一个CPU核。 当vCPU数目大于物理核数时,VM的性能稳定性变差。
优秀技术经理
引用:原帖由 yangtzi 于
13:19 发表
vCPU,顾名思义,是虚拟CPU。 创建虚拟机时,需要配置vCPU资源。 因此vCPU是虚拟机的部件。 因此脱离VM,谈论vCPU是没有意义的。
虚拟化管理系统如何调度vCPU,取决于系统内的虚拟机数目以及虚拟机配置的vCPU的情况。
大致的 ... 2,3的观点我就不评论了,我极度的好奇你的第一个观点是哪里得出来的。。。至少三家底层厂商都不是这样的。。。
优秀技术经理
我明天上班时间补充这个帖子,正在回来路上
引用:原帖由 yangtzi 于
13:19 发表
vCPU,顾名思义,是虚拟CPU。 创建虚拟机时,需要配置vCPU资源。 因此vCPU是虚拟机的部件。 因此脱离VM,谈论vCPU是没有意义的。
虚拟化管理系统如何调度vCPU,取决于系统内的虚拟机数目以及虚拟机配置的vCPU的情况。
大致的 ... CPU应该从物理CPU、核、线程。按照你说的如果VM数等于合数。那创建的虚拟机太少了吧!
引用:原帖由 爱喝可乐的小白 于
14:16 发表
我明天上班时间补充这个帖子,正在回来路上 非常感谢!
助理工程师
引用:原帖由 toudsf888 于
14:22 发表
CPU应该从物理CPU、核、线程。按照你说的如果VM数等于合数。那创建的虚拟机太少了吧! vCPU总数少于核数的时候,vCPU基本上可以独占一个核。 vCPU数目多于核数时,vCPU只能得到一个核的一部分时间片。&&
VM的数目不受限制啊,vCPU的数目也没有什么限制啊。 物理CPU好比一锅粥,vCPU好比和尚。和尚越多,能吃到的粥越少。
引用:原帖由 yangtzi 于
14:50 发表
vCPU总数少于核数的时候,vCPU基本上可以独占一个核。 vCPU数目多于核数时,vCPU只能得到一个核的一部分时间片。&&
VM的数目不受限制啊,vCPU的数目也没有什么限制啊。 物理CPU好比一锅粥,vCPU好比和尚。和尚越多,能吃到的 ... 非常感谢?有什么命令可以看到那个虚拟机在那个核上运行了?那主频在建立虚拟机的时候的作用是什么了?
助理工程师
引用:原帖由 toudsf888 于
17:57 发表
非常感谢?有什么命令可以看到那个虚拟机在那个核上运行了?那主频在建立虚拟机的时候的作用是什么了? 如果用的是 Xen 可以参见
有关vCPU的调度,以及与物理CPU核数的关系,可以参见
Xen里面是不能指定主频的。 XenServer好像也没有这个能力。 VMware 可以配置CPU的主频。 这是一个进步。&&Xen 里面可以指定 vCPU的权值。 这样设计的潜在问题是:VM实际获得的计算能力既和物理服务器的处理能力有关,同时服务器运行的其他虚拟机器的vCPU以及权值有关系。
还是继续做个比喻吧,一个物理机,好比一个庙,有20个核心,好比有20碗饭。 VM好比和尚,有些和尚饭量两碗(2vCPU),有些和尚饭量四碗(4vCPU)。 如果和尚吃的碗数,不超过20,那好办,按需分配。&&多出的碗数,就剩下了。
如果和尚的总需求超出了庙里的碗数,怎么办? 那就把一碗分成若干份。均分到和尚的碗里(vCPU)。 更进一步的需求是: 和尚又有不同的等级(CPU权重),均分就改进成了按照等级去分庙里的几碗饭。&&另外,有些和尚有特殊需求,只能从庙里的某几个碗中分饭吃,这就是 CPU 绑定(CPU pin)。
上述的一些分配方法都有一个缺点,就是和尚究竟能次多少饭,是不确定的。 取决于庙里有多少和尚、庙里有多少碗饭,以及没碗饭的大小。&&所以VMware改进了一下,干脆就定义了一个和尚吃几碗,每碗饭量多少克。 这样和尚无论到那个庙(与虚拟化环境无关),都保证能吃饱。 不过庙的管理就麻烦一些了,米饭不够时,可能就不能招收新的和尚了(CPU资源不足,就无法创建VM了)
本帖最后由 yangtzi 于
20:42 编辑
优秀技术经理
引用:原帖由 yangtzi 于
20:17 发表
如果用的是 Xen 可以参见
http://blog.sina.com.cn/s/blog_3cba7ec10100fq9t.html
有关vCPU的调度,以及与物理CPU核数的关系,可以参见
http://wiki.xen.org/wiki/Performance_of_Xen_VCPU_Scheduling
Xen里面是不能 ... 1. vCPU和pCPU的关系不是数量,当被底层虚拟化之后,任何一个vCPU都是用到所有的pCPU核心总体的百分比,不是某一个核心这么去看的,并没有对应的关系,也不是一个很绝对的分配到具体某个核心。虽然底层虚拟化是直接用到了底层硬件,但是底层毕竟也是一个系统,并不是旁路的。
2. xenserver是权重,vmware也是,hyperv是可以有频率的指定的,其实无效
3. 目前citrix,vmwar和hyperv都没有vCPU对应核心的绑定功能。
4. 虽然有最佳化计算公式,但是每一个项目都以POC为主导,计算公式说到底只是一种预销售的工具。
引用:原帖由 爱喝可乐的小白 于
23:05 发表
1. vCPU和pCPU的关系不是数量,当被底层虚拟化之后,任何一个vCPU都是用到所有的pCPU核心总体的百分比,不是某一个核心这么去看的,并没有对应的关系,也不是一个很绝对的分配到具体某个核心。虽然底层虚拟化是直接用到了底层 ... 非常感谢回复,能把你最佳化的公式给我分享一下吗?
优秀技术经理
(19.54 KB)
优秀技术经理
(14.33 KB)
优秀技术经理
XenServer will allow more VCPUs than physical CPUs which is fine for testing but provides poor performance
Rule: N – V &= P
N: Total vCPUs from all guest VMs
V: Number of VMs
P: Physical cores
Fewer, more powerful CPUs
vCPUs sharing a CPU = less power
(18.46 KB)
本帖最后由 爱喝可乐的小白 于
16:13 编辑
优秀技术经理
(12.22 KB)Windows Server 2012 Hyper-V:像物理机一样使用虚拟机_图文_百度文库
您的浏览器Javascript被禁用,需开启后体验完整功能,
享专业文档下载特权
&赠共享文档下载特权
&10W篇文档免费专享
&每天抽奖多种福利
两大类热门资源免费畅读
续费一年阅读会员,立省24元!
Windows Server 2012 Hyper-V:像物理机一样使用虚拟机
&&Windows Server 2012 Hyper-V:像物理机一样使用虚拟机
阅读已结束,下载本文需要
想免费下载本文?
定制HR最喜欢的简历
下载文档到电脑,同时保存到云知识,更方便管理
加入VIP
还剩25页未读,
定制HR最喜欢的简历
你可能喜欢OpenStack入门篇(四)之KVM虚拟机介绍和管理
时间: 20:50:19
&&&& 阅读:22
&&&& 评论:
&&&& 收藏:0
标签:&&&&&&&&&&&&&&&&&&&&&&&&&&&
1.查看虚拟机,启动虚拟机
[ ~]# virsh list --all
----------------------------------------------------
CentOS-<span style="color: #-x86_64
[-node1 ~]# virsh start CentOS-<span style="color: #-x86_64
通过TightVNC连接,修改网络vi /etc/sysconfig/network-scripts/ifcfg-eth0
tips:KVM虚拟机在宿主机上的体现是一个进程,可以通过ps axu |grep kvm进行查看。对KVM的管理,就是在宿主机上对KVM的进程进行管理。
2.libvirt介绍
libvirt组成部分:libvirt daemon后台进程,libvirt API库,User-space management tools
tips:(1)如果libvirtd服务停用了,会影响命令行管理虚拟机,但不会影响虚拟机本身的运行。(2)kvm是为openstack进行创建虚拟机,如果openstack服务停用,可以使用libvirtd服务命令行进行管理。
3.KVM常用管理:CPU,内存,网络
(1)libvirt通过对xml文件进行管理
[ ~]# cd /etc/libvirt/qemu
[-node1 qemu]# ls -l
total <span style="color: #
-rw-------.
<span style="color: # root root <span style="color: #55 Nov <span style="color: # <span style="color: #:<span style="color: # CentOS-<span style="color: #-x86_64.xml
drwx------. <span style="color: # root root <span style="color: #96 Nov <span style="color: # <span style="color: #:<span style="color: # networks
(2)CentOS-7-x86_64.xml是自动生成的,无法进行修改。如果需要修改,需要通过virsh edit进行编辑。但是在openstack上是无法进行修改的。
[ qemu]# virsh edit CentOS-<span style="color: #-x86_64
(3)KVM修改热添加:virsh edit CentOS-7-x86_64,热添加会影响系统的性能,不适合在生产环境使用tips:KVM支持热添加,公有云是不支持热添加的。需要宿主机和虚拟机的系统保持一致性。
①cpu的热添加,将cpu核数改为2,openstack不支持
[ qemu]# virsh setvcpus CentOS-<span style="color: #-x86_64 <span style="color: # --live
②内存热添加
a.查看KVM内存:
[ ~]# virsh qemu-monitor-command CentOS-<span style="color: #-x86_64 --hmp --cmd info balloon
balloon: actual=<span style="color: #24
b.修改,将内存调成512M:
[ ~]# virsh qemu-monitor-command CentOS-<span style="color: #-x86_64 --hmp --cmd
balloon <span style="color: #2
c.增加内存:修改xml文件,修改完xml文件需要重启虚拟机
&memory unit=‘KiB‘&<span style="color: #48576&/memory&
&memory unit=‘KiB‘&<span style="color: #48576&/memory&
&currentMemory unit=‘KiB‘&<span style="color: #48576&/currentMemory&
[-node1 ~]# virsh shutdown CentOS-<span style="color: #-x86_64
[-node1 ~]# virsh start CentOS-<span style="color: #-x86_64
(4)网络管理,配置KVM的桥接网络
[ ~]# brctl show
bridge name bridge id
STP enabled interfaces
<span style="color: #00.
virbr0-nic
①创建桥接网卡,写成脚本
[ ~]# vim bridge.sh
#!/bin/bash
brctl addbr br0
brctl addif br0 ens33
ip addr del dev ens33 <span style="color: #2.168.<span style="color: #.11/<span style="color: #
ifconfig br0 <span style="color: #2.168.<span style="color: #.11/<span style="color: # up
route add default gw <span style="color: #2.168.<span style="color: #.2
[-node1 ~]# brctl show
interfaces
<span style="color: #00.000c2903f3fe
<span style="color: #00.
virbr0-nic
[ ~]# virsh edit CentOS-<span style="color: #-x86_64
interface type=‘network‘
修改为 interface type=‘bridge‘
source network=‘default‘/ 修改为 source bridge=‘br0‘/
③重启KVM虚拟机
[ ~]# virsh shutdown CentOS-<span style="color: #-x86_64
Domain CentOS-<span style="color: #-x86_64 is being shutdown
[-node1 ~]# virsh start CentOS-<span style="color: #-x86_64
Domain CentOS-<span style="color: #-x86_64 started
④修改虚拟机网卡配置
[ ~]# vi /etc/sysconfig/network-scripts/ifcfg-eth0
TYPE=Ethernet
BOOTPROTO=static
ONBOOT=yes
IPADDR=<span style="color: #2.168.<span style="color: #.111
NETMASK=<span style="color: #5.255.<span style="color: #5.0
GATEWAY=<span style="color: #2.168.<span style="color: #.2
[ ~]# systemctl restart network
⑤验证宿主机上能否登陆
[ ~]# ping <span style="color: #2.168.<span style="color: #.111
PING <span style="color: #2.168.<span style="color: #.111 (<span style="color: #2.168.<span style="color: #.111) <span style="color: #(<span style="color: #) bytes of data.
<span style="color: # bytes from <span style="color: #2.168.<span style="color: #.111: icmp_seq=<span style="color: # ttl=<span style="color: # time=<span style="color: #.618 ms
<span style="color: # bytes from <span style="color: #2.168.<span style="color: #.111: icmp_seq=<span style="color: # ttl=<span style="color: # time=<span style="color: #.387 ms
<span style="color: # bytes from <span style="color: #2.168.<span style="color: #.111: icmp_seq=<span style="color: # ttl=<span style="color: # time=<span style="color: #.264 ms
<span style="color: # bytes from <span style="color: #2.168.<span style="color: #.111: icmp_seq=<span style="color: # ttl=<span style="color: # time=<span style="color: #.328 ms
--- <span style="color: #2.168.<span style="color: #.111 ping statistics ---
<span style="color: # packets transmitted, <span style="color: # received, <span style="color: #% packet loss, time 3002ms
rtt min/avg/max/mdev = <span style="color: #.264/<span style="color: #.399/<span style="color: #.618/<span style="color: #.134 ms
[-node1 ~]# ssh <span style="color: #2.168.<span style="color: #.111
The authenticity of host ‘<span style="color: #2.168.56.111 (192.168.56.111)‘ can‘t be established.
ECDSA key fingerprint is SHA256:k6ODnQ4pdtSMtYrfti2wB8eB5/XfCENW0SWApJrHTgY.
ECDSA key fingerprint is MD5:<span style="color: #:9f:<span style="color: #:<span style="color: #:b8:b2:a3:<span style="color: #:<span style="color: #:f9:3b:8c:dd:c0:e7:<span style="color: #.
Are you sure you want to continue connecting (yes/no)? yes
Warning: Permanently added ‘<span style="color: #2.168.56.111‘ (ECDSA) to the list of known hosts.
<span style="color: #2.168.<span style="color: #.111‘s password:
Last login: Mon Nov <span style="color: # <span style="color: #:<span style="color: #:<span style="color: # <span style="color: #17
&标签:&&&&&&&&&&&&&&&&&&&&&&&&&&&原文地址:https://www.cnblogs.com/linuxk/p/9277732.html
&&国之画&&&& &&&&chrome插件
版权所有 京ICP备号-2
迷上了代码!在应用使用多颗vCPU的时候,如何分配每颗插槽的CPU数量和插槽数,可以使CPU的性能得到最优化。
在应用使用多颗vCPU的时候,如何分配每颗插槽的CPU数量和插槽数,可以使CPU的性能得到最优化。
回答邀答的回答&
系统架构师
, 不知名的小公司、、等赞同了此回答
在物理主机上,每个物理CPU均对应若干内存,CPU可读写所有内存的数据,但对本身对应的内存做读写操作时性能最佳。基于此,虚拟机在使用多个CPU时,可通过设置虚拟机CPU插槽,使虚拟机的CPU平均地由多个物理CPU提供,此时对单个物理CPU的压力较小,同时也能达到更佳的内存读写性能。虚拟机CPU插槽数量即指定了虚拟机的多个CPU可平均分布到多少个物理CPU上。因此,虚拟机CPU插槽的数量必须能整除虚拟机的CPU个数。对于一台虚拟机来说,一般推荐CPU插槽数:每插槽的内核数=1:2,高计算力的虚拟机可能达到1:4甚至更高。
假设一个简单的场景:环境中每台主机拥有4颗8核的物理CPU,总物理核数为32个。一个未设置CPU插槽的虚拟机,CPU数量为8个,则可能由主机上一个物理CPU的8个内核组成虚拟机的8个虚拟CPU;或可能由一个物理CPU提供5个内核,另一个物理CPU提供3个内核,一同组成虚拟机的8个虚拟机CPU,等等。另一个虚拟机设置了CPU插槽数量为4,此时虚拟机的8个CPU平均地由主机上的4颗物理CPU提供,每个物理CPU提供2个内核,达到了最佳的计算性能。
赞同9浏览537系统架构师, 不知名的小公司评论215&
— talk with trend,talk with technologist
京ICP备号-30}

我要回帖

更多关于 孩子39度高烧物理降温 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信