长途服务器cpu(长途服务器返回错误403怎么办理)「服务器返回403什么意思」

  本文内容非贸易用途可无需授权转载,请务必注明作者及本微信公众号、微博ID:唐僧_huangliang,以便更好地与读者互动。

  

AMDZen架构的16-32核用了“胶水”封装已经不是消息,有朋侪曾经说过这次EPYC主攻单路服务器而不是双路,我也来凑个热闹聊聊。

  

点击可放大

  由于整合了SATA控制器等传统南桥芯片组的功能,AMDSP3插槽的新品也可以称之为SoC。固然具体的主板计划也可以用PCIe再连个南桥。

  本日写这个,很洪流平上是由于3月份我写过《逾越Xeon?AMDNaples服务器的抱负与实际》一文。当时对这两天发布的EPYC相识还很有限,简单从纸面上对比了AMD新一代CPU和IntelXeon(QPI/UPI)的互连带宽等方面。

  有位老朋侪还在文章下面留了言,本日看到更多资料后终于可以做个答复,并进一步讨论下EPYC处理惩罚器的插槽间、核间通讯服从,不但是纸面上的数字哦:)

  AMDppt乌龙?Die间毗连到底是4还是6

  

上图为了在微信文章中看着方便,我裁了一部分包涵

  在从国外网站放出的ppt图中,终于看到我想要的几个数字阐明。此中一颗CPU(同插槽)上4个Die之间的Fabric带宽为每4B(32bit宽度)毗连42.6GB/s,这里算的bi-dir双向,我更喜好用21.3GB/s全双工来看。

  那么,4个Die间的对开总带宽为4x42.6≈170GB/s(85GB/s全双工)?我在这里为什么要加一个问号,是由于对于该乘4还是乘6有疑问。假如只是按照AMD画出的“8”外形毗连符号来看好像公道,但实际的片上毗连假如只有这些服从有点低。下面我会列出一张图,并继承讨论。

  趁便提下别的两组数字。起首,跨CPU插槽之间的Fabric带宽为每2B(16bit)毗连37.9GB/s,即18.9GB/s全双工。我们知道在单路服务器中该Fabric可以重界说为PCIe,那么用于CPU间互连时其速率好像比PCIe3.0的8GT/s要高一些。

  插槽之间的对开总带宽为4x37.9≈152GB/s(76GB/s全双工),这里的x4没有题目,背面还会列出清楚的拓扑表示图,我将依此讨论服从题目。上图还写了内存带宽,本日先不聊它。

  

我在《IntelOptaneP4800XSSD系列评测》中利用的DellPowerEdgeR830服务器,采取的就是这种架构。

  上图是四路XeonE5-4600服务器的CPU互连表示图,它与E7的重要一点区别就是QPI通道的数量——每颗CPU由3条镌汰到2条,以是位于对角线上的两颗CPU通讯必要“2跳(2hop)”。网络上有篇文章《几轮PK帮你优选“真四路”!》提到有认真的技能偕行,发现某些低端XeonE7四路服务器在主板计划上缩水,以至于像XeonE5那样只用上2条QPI。

  我本日的讨论固然是在“片上”,却与之前的四路有相通之处。下面这张AMD的ppt,我以为才应该是实际精确的互连环境。

远程服务器cpu(远程服务器返回错误403怎么解决) 长途
服务器cpu(长途
服务器返回错误403怎么办理
)「服务器返回403什么意思」 行业资讯

  

  看这个4组8核Die之间的毗连,像不像XeonE7?细致的朋侪大概会发现,照此盘算Die-to-DieInterconnect总带宽好像应该按照6x42GB/sbi-dir。那么前面一页官方ppt中写错了吧?

远程服务器cpu(远程服务器返回错误403怎么解决) 长途
服务器cpu(长途
服务器返回错误403怎么办理
)「服务器返回403什么意思」 行业资讯

  没办法,我这人就喜好抠细节,真理不辩不明。刚说了AMD一颗EPYC就有点像Intel四路互连,这点是上风吗?不是的…

  据相识,AMD是受限于晶圆的良品率才选择计划8核的Die来切割,再做MCM封装。固然我还想到一点,就是桌面和服务器共用Die计划,低落研发本钱。

  IntelXeonScalable网格互连更换环形总线

  

在Skylake的Cache和每个Core之间,看来还是有局部对应的关系。有一点原则:Die内部通讯服从一样平常比跨Die要高。

  上图是即将发布的XeonSP(Skylake架构)表示图,各人可以看到CPU核心之间的毗连采取网格矩阵,与之前的环形总线有了很大差别。雷同架构在KNL代号的XeonPhi上已经采取,感觉核心数量多了还是如许相对高效。

  

  当前IntelXeon的计划拜见上图,我在《一项XeonE5-2600v4测试数据的背后》中也曾讨论过。24个核心的计划在v4上最多只开放了22个,而XeonSP第一代就到达28核。

  AMDEPYC双路互连服从:带宽不代表服从

  

  在看到这张图之前,我乃至想过本身手工画一个表示。2颗CPU之间的互连,实际上是靠4条Die-to-Die的跨插槽毗连来实现的。我们不要只看带宽数字,由于每个EPYCDie只在与另一个CPU插槽中直连的谁人Die通讯时服从最高——到别的3个Die都必要“2跳”。这种相对复杂的征象在Intel平台上不存在,而且双路Xeon之间的QPI/UPI毗连还可以有2条。

  举例来说,我标红的Core1和Core8,假如是Die之间没有那两条赤色的对角线毗连的话,就不大概做到“2跳”,而是必要“3跳”了。

  开个打趣,好像有朋侪说过AMD是ppt公司,果然又拿插槽间带宽数值跟Intel现有的XeonE5来比力了:)

  

  末了,该肯定的地方还是要肯定。单路AMDEPYC就能提供128lanePCIe信道,这一点扩展性没的说,有偕行朋侪说用来连NVMeSSD符合。不外我也有个小小的题目,24-32个M.2/U.2SSD一起跑要斲丧多少CPU资源?这里更多指的是实际应用环境而不是某种特定Benchmark条件。假如只是要容量的话,SATA还自制吧?

  扩展阅读:《IntelOptaneP4800X评测(3):Windows绑核优化篇》

  

  尚有内存子体系,8通道、单条最大支持128GB。这个在单颗CPU上就要留意NUMA优化了吧?

  

  着实我以为以AMDEPYC如许的计划规格,能做到现有功耗已经是乐成了。假如再辅以符合的代价,信托能在Intel独大的服务器市场搅动出一些新的波涛。

  注:本文只代表作者个人观点,与任何构造机构无关,如有错误和不敷之处欢迎在留言中品评指正。进一步交换技能,可以加我的QQ/微信:490834312。假如您想在这个公众号上分享本身的技能干货,也欢迎接洽我:)

  恭敬知识,转载时请保存全文,并包罗本行及如下二维码。感谢您的阅读和支持!《企业存储技能》微信公众号:huangliang_storage

  汗青文章汇总(传送门):https://chuansong.me/account/huangliang_storage

  ↓↓↓

客户评论

我要评论