澳门新浦京娱乐场网站-www.146.net-新浦京娱乐场官网
做最好的网站

澳门新浦京娱乐场网站:需要配置服务器的朋友

CIO有很多职责,其中一个重要的职责就是采购。本文为大家讲述CIO在采购服务器是要注意的五个问题。

1. 内存分析方法

  1. 什么是服务器 就像他的名字一样,服务器在网络上为不同用户提供不同内容的信息、资料和文件。可以说服务器就是Internet网络上的资源仓库,正是因为有着种类繁多数量庞大内容丰富的服务器的存在,才使得Internet如此的绚丽多彩。
  2. 服务器的种类和功能
    (1) WWW服务器(WWW Server) WWW服务器也称为Web服务器(Web Server)或HTTP服务器(HTTP Server),它是Internet上最常见也是使用最频繁的服务器之一,WWW服务器能够为用户提供网页浏览、论坛访问等等服务。
    比如:我们在使用浏览器访问 http://www.discuz.net的时候,实际上就是在访问Discuz!的WWW服务器,从该WWW服务器获取需要的论坛资料和网页。
    (2) FTP服务器(FTP Server) FTP服务器是专门为用户提供各种文件(File)的服务器,FTP服务器上往往存储大量的文件
    例如:软件、MP3、电影、程序等等。用户只要使用FTP客户端软件登录到FTP服务器上就可以从FTP服务器下载所需文件和资源到自己的电脑上,同时, 你也可以把自己电话上的文件上传到FTP上供其他用户下载,以实现文件资源的共享。
    (3) 邮件服务器(Mail Server) e-mail是Internet上应用最频繁的服务之一,而Internet上每天数亿百亿计的电子邮件的收发都是通过邮件服务器实现的。邮件服务器就像邮局一样,可以为用户提供电子邮件的接收存储和发送服务。
    除了以上介绍的3种主要服务器之外,还有很多其他类型的网络服务器,例如:数据库服务器(DatabaseServer)、代理服务器(Proxy Server)、域名服务器(Domain Name Server)等等……
  3. 服务器的操作系统 目前服务器中使用的操作系统主要有两类:Windows和Unix。
    (1) Windows Windows是美国微软公司(Microsoft)开发的操作系统,在服务器领域,主要有Windows2000Server/Advanced Server/Data Center与Windows2003 Standard Edition/EnterpriseEdition操作系统,Windows的优点是操作简 单,由于Windows使用图形界面进行操作,因而对各种服务器软件功能配置简便。但它的缺点也不可忽视
    例如:Windows操 作系统成本较高;安全性相对较低;能承受的访问量较低等等。
    (2) Unix Unix的历史很久远,其种类和分支错综复杂。就目前来说应用最广泛的Unix系统是Linux,Linux并非由哪家公司发行,Linux由世界各个角落的热爱程序与网络人共同开发、维护。Linux完全免费,与Windows相比,Linux的成本为0。 Linux除了成本上的优点之外,还具备很多非常优秀的特点,例如:性能极高、稳定性很好、安全等等。目前,大多数大中型 企业(包括电信企业和Google、百度、新浪、搜狐等等)的服务器都运行在Unix/Linux系统之上。
  4. Apache与IIS Apache与IIS都属于WWW服务器,是世界上使用最多的两种WWW服务器。
    (1) IIS IIS的全称是:InternetInformation Server,由微软(Microsoft)公司开发,是Windows操作系统的一部分。IIS是允许在Internet上发布信息的Web服务器。IIS通过使用超文本传输协议(HTTP)传输信息。还可配置IIS 以提供文件传输 协议(FTP)服务。FTP服务允许用户从Web节点或到Web节点传送文件。
    IIS的特点是配置简单,配置界面很友,功能较强,同时提供对ASP/ASP.NET的支持。但IIS的性能和安全性相对较差,并且IIS只能在Windows中使用,无法在UNIX中运行。
    (2) Apache Apache是世界排名第一的WWW服务器, 根据Netcraft(www.netcraft.com)所作的调查,世界上百分之六十以上的Web服务器在使用Apache。
    1995年4月, 最早的Apache(0.6.2版)由Apache Group公布发行. Apache Group 是一个完全通过Internet进行运作的非盈利机构, 由它来决定Apache Web服务器的标准发行版中应该包含哪些内容。
    Apache 的特性:

目 录

开篇一: 服务器主板 服务器主板概述
  对于服务器而言,稳定性才是首要,服务器必须承担长年累月高负荷的工作要求,而且不能像台式机一样随意的重起,为了提高起可靠性普遍的做法都是部件的冗余技术,而这一切的支持都落在主板的肩上。下面我就来看看有关服务器主板的一些特性:
  1、 首先,服务器的可扩展性决定着它们的专用板型为较大的ATX,EATX或WATX。
  2、 中高端服务器主板一般都支持多个处理器,所采用的CPU也是专用的CPU。
  3、 主板的芯片组也是采用专用的服务器/工作站芯片组,比方Intel E7520、ServerWorks GC-HE等等,不过像入门级的服务器主板,一般都采用高端的台式机芯片组(比如Intel 875P芯片组)
  4、 服务器通常要扩展板卡(比如如网卡,SCSI卡等),因此我们通常都会发现服务器主板上会有较多的PCI、PCI-X、PCI—E插槽。
  5、 服务器主板同时承载了管理功能。一般都会在服务器主板上集成了各种传感器,用于检测服务器上的各种硬件设备,同时配合相应管理软件,可以远程检测服务器,从而使网络管理员对服务器系统进行及时有效的管理。
  6、 在内存支持方面。由于服务器要适应长时间,大流量的高速数据处理任务,因此其能支持高达十几GB甚至几十GB的内存容量,而且大多支持ECC内存以提高可靠性(ECC内存是一种具有自动纠错功能的内存,由于其优越的性能使造价也相当高)。
  7、 存储设备接口方面。中高端服务器主板多采用SCSI接口、SATA接口而非IDE接口,并且支持RAID方式以提高数据处理能力和数据安全性。
  8、 在显示设备方面。服务器与工作站有很大不同,服务器对显示设备要求不高,一般多采用整合显卡的芯片组,例如在许多服务器芯片组中都整合有ATI的RAGE XL显示芯片,要求稍高点的就采用普通的AGP显卡。而如果是图形工作站,那一般都是选用高端的3DLabs、ATI等显卡公司的专业显卡。
  9、 在网络接口方面。服务器/工作站主板也与台式机主板不同,服务器主板大多配备双网卡,甚至是双千兆网卡以满足局域网与Internet的不同需求。
  10、 最后是服务器的价格方面。一般台式机主板顶天也不过1、2千,而服务器主板的价格则从1千多元的入门级产品到几万元甚至十几万元的高档产品都有!
推荐品牌:泰安、超微、Intel

选购IA服务器时应考察的主要配置参数有哪些?
CPU和内存的类型、处理器主频在相当程度上决定着服务器的性能;服务器应采用专用的ECC校验内存,并且应当与不同的CPU搭配使用。芯片组与主板即使采用相同的芯片组,不同的主板设计也会对服务器性能产生重要影响。

  • 内存分析用于判断系统有无内存瓶颈,是否需要通过增加内存等手段提高系统性能表现。
  • 内存分析需要使用的计数器:Memory类别和Physical Disk类别的计数器。内存分析的主要方法和步骤:
  1. 服务器虚拟化的相关配置建议 1
    1.1. 服务器的基本配置建议 1
    1.1.1. CPU配置 1
    1.1.2. 服务器内存配置 2
    1.1.3. 物理网卡配置 2
    1.1.4. 服务器磁盘配置 2
    1.1.5. vSAN服务器磁盘配置 3
    1.1.6. 服务器配置参考 3
    1.2. 集群配置规划 4
    1.2.1. 管理类集群 4
    1.2.2. 业务类集群 4
    1.2.3. 边界类集群 5
    1.2.4. vSAN集群 5
    1.3. 存储配置规划 5
    1.4. 机柜配置规划 5
    1.4.1. 高密度机柜 6
    1.4.2. 低密度机柜 7
    1.5. 机房配置规划 8
    1.6. 虚拟机配置规划 9

开篇二: 服务器CPU 服务器CPU概述
  服务器是网络中的重要设备,要接受少至几十人、多至成千上万人的访问,因此对服务器具有大数据量的快速吞吐、超强的稳定性、长时间运行等严格要求。所以说CPU是计算机的“大脑”,是衡量服务器性能的首要指标。
  目前,服务器的CPU仍按CPU的指令系统来区分,通常分为CISC型CPU和RISC型CPU两类,后来又出现了一种64位的VLIM(Very Long Instruction Word超长指令集架构)指令系统的CPU。
  一、CISC型CPU
  CISC是英文“Complex Instruction Set Computer”的缩写,中文意思是“复杂指令集”,它是指英特尔生产的x86(intel CPU的一种命名规范)系列CPU及其兼容CPU(其他厂商如AMD,VIA等生产的CPU),它基于PC机(个人电脑)体系结构。这种CPU一般都是32位的结构,所以我们也把它成为IA-32 CPU。(IA: Intel Architecture,Intel架构)。CISC型CPU目前主要有intel的服务器CPU和AMD的服务器CPU两类。
  (1)intel的服务器CPU
  (2)AMD的服务器CPU
  二、RISC型CPU
  RISC是英文“Reduced Instruction Set Computing ” 的缩写,中文意思是“精简指令集”。它是在CISC(Complex Instruction Set Computer)指令系统基础上发展起来的,有人对CISC机进行测试表明,各种指令的使用频度相当悬殊,最常使用的是一些比较简单的指令,它们仅占指令总数的20%,但在程序中出现的频度却占80%。复杂的指令系统必然增加微处理器的复杂性,使处理器的研制时间长,成本高。并且复杂指令需要复杂的操作,必然会降低计算机的速度。基于上述原因,20世纪80年代RISC型CPU诞生了,相对于CISC型CPU ,RISC型CPU不仅精简了指令系统,还采用了一种叫做“超标量和超流水线结构”,大大增加了并行处理能力(并行处理并行处理是指一台服务器有多个CPU同时处理。并行处理能够大大提升服务器的数据处理能力。部门级、企业级的服务器应支持CPU并行处理技术)。也就是说,架构在同等频率下,采用RISC架构的CPU比CISC架构的CPU性能高很多,这是由CPU的技术特征决定的。目前在中高档服务器中普遍采用这一指令系统的CPU,特别是高档服务器全都采用RISC指令系统的CPU。RISC指令系统更加适合高档服务器的操作系统UNIX,现在Linux也属于类似UNIX的操作系统。RISC型CPU与Intel和AMD的CPU在软件和硬件上都不兼容。
  目前,在中高档服务器中采用RISC指令的CPU主要有以下几类:
  (1)PowerPC处理器
  (2)SPARC处理器
  (3)PA-RISC处理器
  (4)MIPS处理器
  (5)Alpha处理器
  从当前的服务器发展状况看,以“小、巧、稳”为特点的IA架构(CISC架构)的PC服务器凭借可靠的性能、低廉的价格,得到了更为广泛的应用。在互联网和局域网领域,用于文件服务、打印服务、通讯服务、Web服务、电子邮件服务、数据库服务、应用服务等用途。
推荐品牌:Intel-Xeon、 AMD-Opteron

网卡应当连接在传输速率最快的端口上,并最少配置一块千兆网卡。对于某些有特殊应用的服务器如FTP、文件服务器或视频点播服务器),还应当配置两块千兆网卡。硬盘和RAID卡硬盘的读取/写入速率决定着服务器的处理速度和响应速率。除了在入门级服务器上可采用IDE硬盘外,通常都应采用传输速率更高、扩展性更好的SCSI硬盘。对于一些不能轻易中止运行的服务器而言,还应当采用热插拔硬盘,以保证服务器的不停机维护和扩容。磁盘冗余采用两块或多块硬盘来实现磁盘阵列;网卡、电源、风扇等部件冗余可以保证部分硬件损坏之后,服务器仍然能够正常运行。热插拔是指带电进行硬盘或板卡的插拔操作,实现故障恢复和系统扩容。同时,在选择IA服务器时通常需要考虑可管理性、可用性、可扩展性、安全性以及可靠性等几方面的性能指标。

(1)首先查看MemoryAvailable Mbytes指标
如果该指标的数据比较小,系统可能出现了内存方面的问题,需要继续下面步骤进一步分析。
注:在UNIX/LINUX中,对应指标是FREE(KB)

  1. 几乎可以运行在所有的计算机平台上(包括Windows)

  2. 强大的功能配置;

  3. 支持通用网关接口(CGI);

  4. 支持虚拟主机;

  5. 支持HTTP认证;

  6. 内部集成了代理服务器;

  7. 具有用户会话过程的跟踪能力;

  8. 支持FASTCGI;

  9. 支持JAVA SERVLETS;
    什么是服务器?   
    服务器是网络上一种为客户站点提供各种服务的计算机,它在网络
    操作系统的控制下,将与其相连的硬盘、磁带、打印机、Modem及昂贵的专用通讯设备提供给网络上的客户站点共享,也能为网络用户提供集中计算、数据库管理等服务。
    ● 网络服务器的作用:  
     A. 运行网络操作系统。通过网络操作系统控制和协调网络各工作站的运行,处理和响应各工作站同时发来的各种网络操作请求。  
     B. 存储和管理网络中的软硬件共享资源,如数据库、文件、应用程序、打印机等资源。   
    C. 网络管理员在网络服务器上对各工作站的活动进行监视控制及调整。  
     从结构来说,目前服务器正从RISC服务器向IA服务器发展,在中小型网络中尤其如此。
    ● 热插拔技术
    ○ Hot Swap,又称为热交换技术、热插拔技术。允许服务器在不关机状态下更换故障硬盘等热插拔设备。 ○ 热切换技术与RAID技术配合起来,可以使服务器在不关机状态下更换故障硬盘,并且自动恢复原盘上的数据,极大地提高了服务器系统的容错能力。
    ○ 硬盘热插拔有两种方式:
     A. 采用热插拔硬盘盒配以普通SCSI硬盘,多用于磁盘阵列中。
     B. 采用具有热插拔能力的专用硬盘,是高性能服务器的标准配置。 ○ 热插拔技术今后将向热插拔电源、热插拔PCI插卡等方向发展。
    ● 硬盘接口技术  
    IDE: (Intergraded drive electronics) 现在PC机使用的主流硬盘接口。   
    SCSI:(Small Computer System Interface) 小型计算机系统接口。SCSI技术源于小型机,目前已移植到PC服务器及高档PC机上。
    相对于IDE接口,SCSI接口具备如下的性能优势:   
    a. 独立于硬件设备的智能化接口:减轻了CPU的负担。   
    b. 多个I/O并行操作:因此SCSI设备传输速度快。   
    c. 可联接的外设数量多:可扩展多个外设(如硬盘、磁带机等)。   
    当同时访问到服务器的网络用户数量较多时,使用SCSI硬盘的系统I/O性能明显强于使用IDE硬盘的系统。   
    SCSI总线支持数据的快速传输。不同的SCSI设备通常有8位或16位的SCSI传输总线。在多任务操作系统,如Windows NT下,在同一时刻可以启动多个SCSI设备。SCSI适配器通常使用主机的DMA(直接内存存取)通道把数据传送到内存。这意味着不需要主机CPU的帮助,SCSI适配器就可以把数据传送到内存。为了管理数据流,每一个SCSI设备(包括适配卡)都有一个身份号码。通常,把SCSI适配器的身份号码设置为7,其余设备的身份号码编号为0到6。   
    大部分基于PC的SCSI总线使用单端接的收发器发送和接受信号。但是,随着传送速率的增大和线缆的加长,信号会失真。为了最大限度的增加总线长度并保证信号不失真,可以把差分收发器加到SCSI设备中。差分收发器使用两条线来传送信号。第二条线为信号脉冲的反拷贝。一旦信号到达目的地,电路比较两条线的脉冲,并生成原始信号的正确拷贝。   
    一种新的差分收发器 - LVD(低压差分收发器),能够增加总线长度并且能够提供更高的可靠性和传输速率。LVD能连接15个设备,最大总线长度可达12米。 目前常用的SCSI系列:
    Narrow Wide

    Wide

    接口

    传输速率

    接口

    传输速率

    Fast Fast SCSI

    10 MB/S

    Fast Wide SCSI

    20MB/S

    Ultra Ultra SCSI

    20MB/S

    Ultra Wide SCSI

    40MB/S

    Ultra2 Ultra2 SCSI

    40MB/S

    Ultra2 Wide SCSI

    80MB/S

    /
    

    Ultra 3

    160MB/S

 

开篇三: 服务器风扇 服务器风扇概述
  服务器风扇的作用是加快散热片表面空气的流动速度,以提高散热片和空气的热交换速度。风扇作为风冷散热器的两大重要部件之一,它的性能的好坏往往对服务器散热器效果和使用寿命起着一定的决定性作用。我们在选购服务器风扇的时候,考虑风扇的基本指标有以下几点:
  1、风扇功率
  功率越大,风扇风力越强劲,散热效果也就越好。而风扇的功率与风扇的转速又是有直接联系的,也就是说风扇的转速越高,风扇也就越强劲有力。
  2、风扇转速
  风扇的转速与风扇的功率是密不可分的,转速的大小直接影响到风扇功率的大小。风扇的转速越高,向CPU传送的进风量就越大,CPU获得的冷却效果就会越好。但是一旦风扇的转速超过它的额定值,那么风扇在长时间超负荷运作之下,本身产生热量也会增高,而且时间越长产生的热量也就越大,此时风扇不但不能起到很好的冷却效果,反而会“火上浇油”。
另外,风扇在高速动转过程中,可能会产生很强的噪音,时间长了可能会缩短风扇寿命;还有,较高的运转速度需要较大的功率来提供“动力源”,而高动力源又是从主板和电源中的功率中获得的,一旦超出主板的负荷就会引起系统的不稳定。因此,我们在选择风扇的,同时应该平衡风扇的转速和发热量之间的关系,最好选择转速在3500转至5200转之间的风扇。
  3、风扇材质
  CPU发出热量首先传导到散热片,再由风扇带来的冷空气吹拂而把散热片的热量带走,而风扇所能传导的热量快慢是由组成风扇的导热片的材质决定的,因此风扇的材料质量对热量的传导性能具有很大的作用,为此我们在选择风扇时一定要注意风扇导热片的热传导性能是否良好。
  4、风扇噪声
  太大的噪音将会影响我们操作电脑的心情。噪音太小通常与风扇的功率有关,功率越大、转速也就越快,此时一个负影响也就表现出来了,那就是噪声。我们在购买风扇时,一定要先试听一下风扇的噪音,如果太大,那么最好是不要买。如今风扇为了减轻噪声都投入了一些设计,例如改变扇叶的角度,增加扇轴的润滑度和稳定度等。
  现在有很多便宜的风扇用的轴承都是油封的,由铜质外套和钢制轴芯组成,长时间工作之后扇轴润滑度不够,风扇噪音增大、转速减低,这很容易导致机器过热而出现死机现象,严重的时候还有可能把机芯烧坏。
现在有许多知名品牌的风扇开始使用滚珠轴承,这种轴承就是利用许多钢珠来作为减少摩擦的介质。这种滚珠风扇的特点就是风力大,寿命长、噪音小,但成本比较高,只有高档风扇才可能使用到它。
  5、风扇排风量
  风扇排风量可以说是一个比较综合的指标,因此我们可以这么说排风量是衡量一个风扇性能的最直接因素。如果一个风扇可以达到5000转/分,不过如果扇叶是扁平的话,那是不会形成任何气流的,所以关系到散热风扇的排风量的时候,扇叶的角度也是很重要的一个因素。测试一个风扇排风量的方法很容易,只要将手放在散热片附近感受一下吹出的风的强度即可,通常质量好的风扇,即使我们在离它很远的位置,也仍然可以感到风流,这就是散热效果上佳的表现。
  6、风扇叶片
  同一风扇如果其他部分保持不变,只将叶片由五扇叶改为七扇叶,风量变化可能不会增加多少。但是就风扇的转速而言,七扇叶的转速会低于五扇叶(通风量相同的情况下),相对的如果采用七扇叶风扇,轴承的磨损,漏油情况较少,风扇的寿命较长。如果五扇叶和七扇叶的转速相同,七扇叶的通风量会更大。风扇的转速越高,相应的寿命就越短,噪音也越大。另外,风扇的扇叶越厚,叶片斜角越大,则风压也越大。扇叶的入口角(以45度为最大)也是决定风扇通风量的重要因素之一。
  我们知道,服务器AMD CPU的发热量比INTEL大,但是AMD CPU所能承受的最高温度也比INTEL高。正由于AMD CPU发热量大,相对与AMD CPU来说,风扇散热片底部的厚度越厚越好,而INTEL的发热量小,散热片的厚度可以小一些。由于散热片的厚度要求不同,最终对风扇的要求也不同。
  对于底部较厚的散热片,它可以很快吸收到CPU的热量,存储的热量也更多。为了不使CPU长期工作在高温环境下。除了要求散热片本身的导热性较好以外,还需要更大的风流来吹散CPU热量。如果要把底部的热量吹走,就需要风扇产生足够的风压,能将风流吹到散热片的底部,对流方式的散热才能从底部开始进行。

64位服务器覆盖的应用范围?
这里要说的,仍然是安腾、AMD64等一些新型64位服务器。从应用类型来看,大致可分为主域服务器、数据库服务器、Web服务器、FTP服务器和邮件服务器、高性能计算集群系统几类。

(2)注意Pages/sec、Pages Read/sec和Page Faults/sec的值
操作系统会利用磁盘较好的方式提高系统可用内存量或者提高内存的使用效率。这三个指标直接反应了操作系统进行磁盘交换的频度。
如果Pages/sec的计数持续高于几百,可能有内存问题。但Pages/sec值不一定就表明有内存问题,可能是运行使用内存映射文件的程序所致。Page Faults/sec说明每秒发生页面失效次数,页面失效次数越多,说明操作系统向内存读取的次数越多。此事需要查看Pages Read/sec的计数值,该计数器的阀值为5,如果计数值超过5,则可以判断存在内存方面的问题。
注:在UNIX/LINUX系统中,对于指标是(page)si和(page)so.

SCSI与IDE的区别   
○ IDE的工作方式需要CPU的全程参与;这种情况在Windows95/NT的多任务操作系统中,自然就会导致系统反应的大大减慢。而SCSI接口,则完全通过独立的高速的SCSI卡来控制数据的读写操作,CPU就不必浪费时间进行等待,显然可以提高系统的整体性能。   
○ SCSI的扩充性比IDE大,一般每个IDE系统可有2个IDE通道,总共连4个IDE设备,而SCSI接口可连接7~15个设备,比IDE要多很多,而且连接的电缆也远长于IDE。   
虽然SCSI设备价格高些,但与IDE相比,SCSI的性能更稳定、耐用,可靠性也更好 ● RAID技术
○ RAID:(Redundant Array of Inexpensive Disk)廉价冗余磁盘阵列。由于磁盘存取速度跟不上CPU处理速度的发展,从而成为提高服务器I/O能力的一个瓶颈。RAID技术利用磁盘分段、磁盘镜像、数据冗余技术来提高磁盘存取速度,同时提供磁盘数据备份、提高了系统可靠性。
○ 磁盘分段(Disk Striping):数据以"段"为单位依次读写多个磁盘,多磁盘相当于同时操作,存取速度极大地提高。
○ 磁盘镜像(Disk Mirroring):用一个控制器控制两个磁盘,同时读写相同的数据,数据100%备份。
澳门新浦京娱乐场网站,○ 数据冗余技术:数据读写时做校验,校验数据以紧凑格式存于磁盘上,可用于纠错及恢复数据。
○ RAID技术目前常用的有几个系列:
RAID 级别

  1. 服务器虚拟化的相关配置建议
    此处所阐述的配置建议为最佳配置建议,旨在帮助我们优化架构,提升系统的稳定性和可扩展性,非强制要求。
    1.1. 服务器的基本配置建议
    服务器虚拟化配置主要包括了服务器CPU、内存、网卡(网口)数量、HBA卡、服务器的磁盘配置等; 如果要部署vSAN,对于磁盘规划和配置尤为重要。
    服务器的配置还包括单一物理机的整体虚拟化比例(即单一物理服务器上能够运行的虚拟机数量),取决于单一物理服务器上的CPU和内存资源,为了提高整合比,建议为单一物理服务器配置更多的CPU和内存资源,以实现更少的服务器运行更多的应用虚拟机。

推荐品牌:COOL MASTER、九州风神、富士康、TT

主域控制器:网络、用户、计算机的管理中心,提供安全的网络工作环境。主域控制器的系统瓶颈是内存、网络、CPU、内存配置。

(3)根据Physical Disk计数器的值分析性能瓶颈
对Physical Disk计数器的分析包括对Page Reads/sec和%Disk Time及Aerage Disk Queue Length的分析。如果Pages Read/sec很低,同时%Disk Time和Average Disk Queue Length的值很高,则可能有磁盘瓶颈。但是,如果队列长度增加的同时Pages Read/sec并未降低,则是内存不足。
注:在 UNIX/LINUX系统中,对应的指标是Reads(Writes)per sec、Percent of time the disk is busy和Average number of transactions waiting for service.

描述

1.1.1. CPU配置
服务器CPU的资源取决于服务器CPU的总核数和CPU的主频 。内存资源取决总体物理内存空间。
目前服务器多为NUMA架构,在NUMA架构下更要考虑单一虚拟机的性能。

开篇四 服务器内存
服务器内存概述
服务器运行着企业关键业务,一次内存错误导致的宕机将使数据永久丢失。本身内存作为一种电子器件,很容易出现各种错误。因此,面临着企业事实的压力和本身的不足,各个厂商都早已积极推出自己独特的服务器内存技术,像HP的“在线备份内存”和热插拔镜像内存;IBM的ChipKill内存技术和热更换和热增加内存技术。而随着企业信息系统的扩展所需,内存的密度和容量也将会得到相应的发展。
  服务器内存也是内存,它与我们平常在电脑城所见的普通内存在外观和结构上没有什么实质性的 区别,它主要是在内存上引入了一些新的技术,仅从外观上是不得出什么结论的。这样或许你就担心了,如果别人拿普通PC机的内存条当服务器内存条卖给你,杂办?这一般来说可以放心,其可能性几乎为零。因为普通PC机上的内存在服务器上一般是不可用的,这也说明服务器内存不能随便为了贪便宜而用普通PC机的内存来替代就可了事。
如今常用的服务器内存主要有DDR、DDR2二类,还有另一种RAMBUS内存,是一种高性能、芯片对芯片接口技术的新一代存储产品。 从技术层面来说,服务器内存之所以与普通内存有着区别,都是因为ECC,这是 Error Checking and Correcting的简写。它广泛应用于各种领域的计算机指令中。ECC和奇偶校验(Parity)类似。然而,在那些Parity只能检测到错误的地方,ECC实际上可以纠正绝大多数错误。经过内存的纠错,计算机的操作指令才可以继续执行。这在无形中也就保证了服务器系统的稳定可靠。但ECC技术只能纠正单比特的内存错误, 当有多比特错误发生的时候,ECC内存会生成一个不可隐藏(non-maskable interrupt)的中断 (NMI),系统将会自动中止运行。
推荐品牌:金士顿、英飞凌、

文件服务器:文件服务器作为网络的数据存储仓库,其性能要求是在网络上的用户和服务器磁盘子系统之间快速传递数据。

 

技术

澳门新浦京娱乐场网站 1

开篇五 服务器硬盘
服务器硬盘概述
  服务器专用的硬盘就是服务器硬盘。我们知道,服务器是运行在一个大数据量交换、超长工作时间的工作环境里,因此对硬件的要求都较高;而作为网络数据核心仓库的硬盘来说,储存其上的各种用户数据及管理软件更需要一个安全稳定的环境,因此硬盘的可靠性是非常重要的!而现在服务器上一般都采用SCSI硬盘,因为它高速、稳定而且安全性高。
  总的说来,服务器硬盘应具有高稳定性,高速度性及采用SCSI接口的特点,才能适应服务器工作的需要。
  1、 高稳定性。一般说来服务器硬盘主要从两个方面保证其稳定性。一个就是采用S.M.A.R.T技术(自监测、分析和报告技术,当然这一技术在普通硬盘上也有体现),同时硬盘厂商都采用了各自独有的先进技术来保证数据的安全。另一方面就是冗余磁盘阵列(RAID)技术,RAID技术简言之就是把同样一份数据分别保存在不同的硬盘,这样当其中一个硬盘发生损坏可以从另一个硬盘进行恢复。
  2、 高速度性。主要通过增加后写缓存来实现。服务器硬盘一般都配备了2MB到4MB不等的高速缓存,这样平均访问时间将缩短、外部传输率和内部传输率就会更高。有资料提及:采用Ultra Wide SCSI、Ultra2 Wide SCSI、Ultra160 SCSI等标准的SCSI硬盘,每秒的数据传输率分别可以达到40MB、80MB、160MB!
  3、 采用SCSI接口。其全称是Small Computer System Interface,小型计算机系统接口。有的服务器主板上内置有此接口,否则就要加装一块SCSI接口卡。正因为其速度、性能和稳定性都比IDE要好,所以其价格当然也要贵得多,且主要面向服务器和工作站市场。另外一个主要特点就是SCSI接口的硬盘数据吞吐量大、CPU占有率极低!
注: SCSI硬盘通常按针角分有:68PIN ,80PIN, 按容量分: 73G, 146G, 300G
推荐品牌:IBM、希捷

数据库服务器:数据库引擎包括DB2、SQLServer、Oracle、Sybase等。数据库服务器一般需要使用多处理器的系统,以SQLServer为例,SQLServer能够充分利用SMP技术来执行多线程任务,通过使用多个CPU,对数据库进行并行操作来提高吞吐量。另外,SQLServer对L2缓存的点击率达到90%,所以L2缓存越大越好。内存和磁盘子系统对于数据库服务器来说也是至关重要的部分。


速度

 

开篇六 服务器电源
服务器电源概述
  服务器电源就是指使用在服务器上的电源(POWER),它和PC(个人电脑)电源一样,都是一种开关电源。另一方面,服务器硬件的安全以及系统的稳定,都需要一个优质的电源作保障,因此如其它服务器专用硬件一样,电源也要“服务器化”!我们知道,一般普通PC的电源分为ATX和TX电源(TX电源如今已被淘汰);而服务器电源按照标准则分为ATX和SSI电源两种。其中ATX标准使用较为普遍,主要用于台式机、工作站和低端服务器;而SSI适用于各种档次的服务器。
  一、ATX电源
  ATX标准是Intel在1997年推出的一个规范,输出功率一般在125瓦~350瓦之间。ATX电源通常采用20Pin(20针)的双排长方形插座给主板供电。随着Intel推出Pentium4处理器,电源规范也由ATX修改为ATX12V,和ATX电源相比,ATX12V电源主要增加了一个4Pin的12V电源输出端,以便更好地满足P4处理器的供电要求

Web服务器:Web服务器用来响应Web请求,其性能是由网站内容来决定的。如果Web站点是静态的,系统瓶颈依次是:网络、内存、CPU;如果Web服务器主要进行密集计算例如动态产生Web页),系统瓶颈依次是:内存、CPU、磁盘、网络,因为这些网站使用连接数据库的动态内容产生交易和查询,这都需要额外的CPU资源,更要有足够的内存来缓存和处理动态页面。

 

容错能力

• 非一致存储访问结构(NUMA:Non-Uniform Memory Access):
• 特征是每个CPU模块由多个CPU(如4个)组成,CPU具有独立的本地内存、I/O槽口等。节点之间通过互联模块(称为Crossbar Switch)进行连接和信息交互,每个CPU可以访问整个系统的内存(这是NUMA系统与MPP系统的重要差别)。
• 利用NUMA技术,可以较好地解决原来SMP系统的扩展问题,在一个物理服务器内可以支持上百个CPU和核
• 访问本地内存的速度将远远高于访问远地内存(系统内其它节点的内存)的速度。因此为了更好地发挥系统性能,系统和应用程序需要尽量减少不同CPU模块之间的信息交互。比较典型的NUMA服务器包括HP的Superdome、SUN15K、IBMp690等,现在的X86服务器也多为NUMA架构。

小提示:一个质量合格的电源应该通过安全和电磁方面的认证,如满足CCEE和FCC-B等标准,这些标准的认证标识应在电源的外表上会有所体现。
  二、SSI电源
  SSI(Server System Infrastructure)规范是Intel联合一些主要的IA架构服务器生产商推出的新型服务器电源规范,SSI规范的推出是为了规范服务器电源技术,降低开发成本,延长服务器的使用寿命而制定的,主要包括服务器电源规格、背板系统规格、服务器机箱系统规格和散热系统规格等。它又可以细分为TPS、EPS、MPS、DPS四种子规范。
  关于服务器电源的技术指标
  一、 多国认证标记:优质的电源具有FCC、美国UR和中国长城等认证标志,认证在生产流程、电磁干扰、安全保护等方面都进行了严格的标准制订,具有一定的权威性。
  二、 电压保持时间:一般优质的电源的保持时间可以达12-18ms,确保UPS切换期间的正常供电。
  三、 电磁干扰:在国际上有FCC A和FCC B的标准,在国内也有国标A(工业级)和国标B级(家用电器级)标准,优质的电源都可以通过B级标准。
  四、 电源寿命:一般电源寿命按照3-5年计算元件的可能失效周期,平均工作时间在80000-100000小时之间。
  除此之外,还有电源效率、过压保护、开机延时、噪音和滤波、瞬间反应能力等多种技术指标可循, 以充分保证服务器电源的可靠!
  关于服务器电源的选购建议
  1、 安规认证是我们选购电源的重要指标,这应该是我们选择电源时最重要的一点。因为它关系着我们的安全和健康。不好的电源噪声很大,对人的身体也有影响。在这方面省下几百块钱是得不偿失的。
  2、 在功率的选择上,对于个人用户来说选用300W的已经够用,而对于服务器来说,因为要面临升级以及不断增加的磁盘阵列,就需要更大的功率支持它,为此使用400W电源及以上应该才是比较合适的。
  除此之外,还应考虑服务器电源对主板的支持问题、是否需要冗余电源以及电压保持时间等方面。
总结:
  虽然目前服务器电源存在ATX和SSI两种标准,但是随着SSI标准的更加规范化,SSI规范更能适合服务器的发展,以后的服务器电源也必将采用SSI规范。而在实际选择中,大家应按不同的应用对服务器电源进行不同的选择。

高性能计算用的集群系统:一般在4节点以上,节点机使用基于安腾、AMD64技术的Opteron系统,这种集群系统的性能主要取决于厂商的技术实力、集群系统的设计、针对应用的调优等方面。

2.处理器分析法

RAID 0

单一虚拟机计算性能与CPU数量的增加不成正比,即不是简单增加CPU数量就能明显增加计算能力,特别是在分配的CPU和内存资源超越单一NUMA节点时,反而会出现性能下降的情况。特别是对于JAVA应用来讲,JVM对于NUMA的支持更不好。因此,如果要求虚拟机的计算资源较高,在硬件采购时可以考虑采购物理CPU的核数更多一点、CPU的主频更高一点。

推荐品牌:新巨、鑫谷

  多处理器服务器选购的策略如何?

(1)首先看System%Total Processor Time 性能计数器的计数值
该计数器的值体现服务器整体处理器利用率,对多处理器的系统而言,该计数器提醒所有CPU的平均利用率。如果该值持续超过90%,则说明整个系统面临着处理器方面的瓶颈,需要通过增加处理器来提高性能。
注:多处理器系统中,该数据本身不大,但PUT直接负载状况极不均衡,也应该视作系统产生处理器方面瓶颈。

磁盘分段

1.1.2. 服务器内存配置
虚拟化环境中,服务器资源的消耗主要体现在内存的消耗,CPU资源消耗较少。在不设置虚拟机资源保留值时,每启动一个虚拟机,消耗255M物理内存,CPU按内核和时间片分配。建议每一个CPU的内核,配置6GB以上的内存;如1台物理服务器配置4CPU,12核/每CPU的,建议内存配置是4 x 12 x 6GB = 288GB内存以上。
1.1.3. 物理网卡配置
在虚拟化平台中,为了实现管理、迁移、生产等的网络流量分离和网卡硬件冗余,一般建议配置多网卡、多个网口,同理在实现冗余的时候,上连交换机也要考虑冗余。
原有网络为千兆网络,建议为该网络中的物理服务器配置2个以上的物理网卡,6-8个千兆网口;网络支持万兆网络,除了配置4个千兆物理网口(2块物理网卡), 建议配置2块万兆网(4个万兆网口)。
1.1.4. 服务器磁盘配置
服务器的内置磁盘主要用于安装虚拟化管理软件,虚拟化管理软件vSphere总体在200M以内,在考虑到冗余的情况下,服务器内置磁盘配置2块300G或600G的磁盘,在服务器内部做RAID1,用于安装服务器虚拟化软件vSphere。
如果服务器支持USB Key 启动,也可以考虑在服务器出厂时,在USB Key中预装虚拟化软件,这种情况下,服务器可以不配置内置盘。

开篇七 服务器机箱
服务器机箱概述
  企业用户的需求与一般家庭用户明显不同,才使得其服务器单从外观上看就要比普通PC要特别得多。服务器机箱通常有一般的机箱或是中型塔式机箱所不具备的附加功能,以确保服务器能够长时间连续正常运做。因此选择一款合适的机箱产品,对于服务器系统的正常和稳定的应用具有重要意义。
企业服务器机箱
  一、漫谈
  对于服务器机箱的选择来说,散热性、冗余性和可靠性是三个不可或缺的元素,一款出色的服务器机箱,必然在这三个方面有着出众的表现,而PC机箱中很重要的外观,在服务器机箱上却是华而不实的毫无用处。
  1、 服务器要求的是长年累月24小时运行,因此,对系统稳定性的要求甚至超过了性能。热量是主机长期稳定运行的头号敌人,而在机架式服务器狭小的空间内,又云集了高主频CPU、专用内存和万转SCSI硬盘这些发热大户。在这种情况下,服务器机箱内通常配备了多个大口径的涡轮风扇,保证机箱前后方向的空气流通,及时带走热量。而专业的服务器机箱更是专门配备了冗余式的风扇,当某个风扇在运行中出现停转或者转速过低的情况,备用风扇立刻就可以自动启动接替故障风扇,保障系统的正常散热。
  2、 无论PC或者服务器,电源都是当之无愧的动力源泉。作为整台系统的心脏,专业服务器机箱也会采用冗余电源的设计,当一台电源故障或者输出电压不正常时,另一块电源立即自动接替其工作,保证系统的正常运行。
  3、 另外,机箱的用料方面也很重要,钢板的厚薄,用料的好坏,直接反应的就是屏蔽电磁干扰、保证系统稳定运行的能力。
  二、特性面面观
  1、 电源部分。双电源系统对于企业网络服务器来说非常重要,现在的服务器机箱可以在不关闭服务器的情况下更换出现问题的电源,而无需关闭服务器进行调试;这是一个极大的改进,因为在正常情况下关闭服务器会影响到很多用户。
  2、 系统风扇部分。要保证服务器全天正常运做就必须确保所有的组件都工作在正常温度下,服务器机箱通常都需要在关键位置上配备多个散热风扇以确保机箱内的空气流通。
  3、 驱动器扩充槽。良好的服务器机箱应该充分考虑其升级能力。一个服务器机箱通常都要配备足够的驱动器扩充槽以满足目前使用及未来的升级所需。比如3.5"扩充槽(软驱/ZIP驱动器)、5.25"扩充槽,可以安装光驱、磁带机,当然还可以配置多个硬盘。

在购买多处理器系统之前,你必须了解工作负载有多大,还要选择合适的应用软件和操作系统,然后再确定使它们可以运行起来的服务器。值得注意的是,你最好购买比你目前所需的计算能力稍高一些的服务器,以便适应未来扩展的需要。

(2)其次查看每个CPU的Processor%Processor Time 和 Processor%User Time 和 Processor%Privileged Time
Processor%User Time 是系统非核心操作消耗的CPU时间,如果该值较大,可以考虑是否能通过友好算法等方法降低这个值。如果该服务器是数据库服务器, Processor%User Time 值大的原因很可能是数据库的排序或是函数操作消耗了过多的CPU时间,此时可以考虑对数据库系统进行优化。

没有校验数据

1.1.5. vSAN服务器磁盘配置
vSAN的部署需要更多的服务器内置磁盘,建议使用2C服务器,该服务器除了系统磁盘外,一般还有24个磁盘插槽。vSAN是使用服务器的内置SSD硬盘做为缓存层,HDD硬盘做为容量层。建议使用4块SSD硬盘建立4个HDD磁盘组实现,每组配置HDD硬盘5块,根据具体的容量需求,配置相应类型和容量的HDD硬盘,HDD硬盘分为SAS和SATA,SAS访问速度高容量相对小,SATA速度相对低容量大。一般要求作为缓存的SSD硬盘容量是同组HDD硬盘的10%以上,一组HDD硬盘的容量为磁盘裸容量之和,可用容量的计算根据虚拟机副本要求计算。如虚拟机副本要求为1,则虚拟机的vmdk文件存2份,可用容量为50%,如果虚拟机副本为2,则vmdk文件存3份,可用容量为33%以此类推。
1.1.6. 服务器配置参考

推荐品牌:iok、联志、金河田

首先,处理器的选择与主要操作系统平台和软件的选择密切相关。你可以选择SPARC、PowerPC等处理器,它们分别应用于SunSolaris、IBMAIX或Linux等操作系统上。大多数用户出于价格和操作系统方面的考虑也采用Intel处理器。

(3)研究系统处理器瓶颈
查看 SystemProcessor Queue Length 计数器的值,当该计数器的值大于CPU数量的总数+1时,说明产生了处理器阻塞。在处理器的%Process Time很高时,一般都随处理器阻塞,但产生处理器阻塞时,Processor%Process Time 计数器的值并不一定很大,此时就必须查找处理器阻塞的原因。
%DOC Time 是另一个需要关注的内容,该计数器越低越好。在多处理器系统中,如果这个值大于50%,并且Processor%Precessor Time非常高,加入一个网卡可能回提高性能。

磁盘并行I/O,存取速度提高最大

澳门新浦京娱乐场网站 2

开篇八 操作系统
网络操作系统
  网络操作系统(NOS),是网络的心脏和灵魂,是向网络计算机提供网络通信和网络资源共享功能的操作系统。它是负责管理整个网络资源和方便网络用户的软件的集合。由于网络操作系统是运行在服务器之上的,所以有时我们也把它称之为服务器操作系统。
  网络操作系统与运行在工作站上的单用户操作系统(如WINDOWS98等)或多用户操作系统由于提供的服务类型不同而有差别。一般情况下,网络操作系统是以使网络相关特性最佳为目的的。
  如共享数据文件、软件应用以及共享硬盘、打印机、调制解调器、扫描仪和传真机等。一般计算机的操作系统,如DOS和OS/2等,其目的是让用户与系统及在此操作系统上运行的各种应用之间的交互作用最佳。
  目前局域网中主要存在以下几类网络操作系统:
  1. Windows类
  对于这类操作系统相信用过电脑的人都不会陌生,这是全球最大的软件开发商--Microsoft(微软)公司开发的。微软公司的Windows系统不仅在个人操作系统中占有绝对优势,它在网络操作系统中也是具有非常强劲的力量。这类操作系统配置在整个局域网配置中是最常见的,但由于它对服务器的硬件要求较高,且稳定性能不是很高,所以微软的网络操作系统一般只是用在中低档服务器中,高端服务器通常采用UNIX、LINUX或Solairs等非Windows操作系统。
  在局域网中,微软的网络操作系统主要有:Windows NT 4.0 Serve、Windows 2000 Server/Advance Server,以及最新的Windows 2003 Server/ Advance Server等,工作站系统可以采用任一Windows或非Windows操作系统,包括个人操作系统,如Windows 9x/ME/XP等。
  在整个Windows网络操作系统中最为成功的还是要算了Windows NT4.0这一套系统,它几乎成为中、小型企业局域网的标准操作系统,一则是它继承了Windows家族统一的界面,使用户学习、使用起来更加容易。再则它的功能也的确比较强大,基本上能满足所有中、小型企业的各项网络求。虽然相比Windows 2000/2003 Server系统来说在功能上要逊色许多,但它对服务器的硬件配置要求要低许多,可以更大程度上满足许多中、小企业的PC服务器配置需求。
  2. NetWare类
  NetWare操作系统虽然远不如早几年那么风光,在局域网中早已失去了当年雄霸一方的气势,但是NetWare操作系统仍以对网络硬件的要求较低(工作站只要是286机就可以了)而受到一些设备比较落后的中、小型企业,特别是学校的青睐。人们一时还忘不了它在无盘工作站组建方面的优势,还忘不了它那毫无过份需求的大度。
  且因为它兼容DOS命令,其应用环境与DOS相似,经过长时间的发展,具有相当丰富的应用软件支持,技术完善、可靠。目前常用的版本有3.11、3.12和4.10 、V4.11,V5.0等中英文版本,NetWare服务器对无盘站和游戏的支持较好,常用于教学网和游戏厅。目前这种操作系统有市场占有率呈下降趋势,这部分的市场主要被Windows NT/2000和Linux系统瓜分了。
  3. Unix系统
  目前常用的UNIX系统版本主要有:Unix SUR4.0、HP-UX 11.0,SUN的Solaris8.0等。支持网络文件系统服务,提供数据等应用,功能强大,由AT&T;和SCO公司推出。这种网络操作系统稳定和安全性能非常好,但由于它多数是以命令方式来进行操作的,不容易掌握,特别是初级用户。正因如此,小型局域网基本不使用Unix作为网络操作系统,UNIX一般用于大型的网站或大型的企、事业局域网中。
  UNIX网络操作系统历史悠久,其良好的网络管理功能已为广大网络 用户所接受,拥有丰富的应用软件的支持。目前UNIX网络操作系统的版本 有:AT&T;和SCO的UNIXSVR3.2、SVR4.0和SVR4.2等。UNIX本是针对小型机 主机环境开发的操作系统,是一种集中式分时多用户体系结构。因其体系 结构不够合理,UNIX的市场占有率呈下降趋势。
  4. Linux
  这是一种新型的网络操作系统,它的最大的特点就是源代码开放,可以免费得到许多应用程序。目前也有中文版本的Linux,如REDHAT(红帽子),红旗Linux等。在国内得到了用户充分的肯定,主要体现在它的安全性和稳定性方面,它与Unix有许多类似之处。但目前这类操作系统目前使仍主要应用于中、高档服务器中。
  总的来说,对特定计算环境的支持使得每一个操作系统都有适合于自己的工作场合,这就是系统对特定计算环境的支持。例如,Windows 2000 Professional适用于桌面计算机,Linux目前较适用于小型的网络,而Windows 2000 Server和UNIX则适用于大型服务器应用程序。因此,对于不同的网络应用,需要我们有目的有选择合适地网络操作系统。

其次,要选择合适的I/O架构。目前最常见的总线结构是PCI、PCI-X。PCI迅速发展为包括32位和64位数据通道,并对33MHz和66MHz时钟速度提供支持。PCIExpress是一种全新的串行技术,它彻底变革了原来的并行PCI技术,同时又能兼容PCI技术。PCIExpress总线采用点对点技术,能够为每一块设备分配独享通道带宽,不需要在设备之间共享资源。充分保障各设备的带宽资源。

 

数据无备份

1.2. 集群配置规划
在虚拟化中大规模部署时,需要考虑通过多服务器集群方式部署方式,建议按照服务器功能、CPU型号方式建立不同集群,同一集群中的服务器CPU型号保持一致,系统扩容的服务器建立单独集群。

推荐品牌:Windows XP、Windows 2003、Linux

然后,还要选择合适的内存。大多数多处理器系统目前都支持ECC校验的DDRSDRAM。


RAID 1

集群的主要目的是避免单一物理机故障对业务虚拟机的影响,但集群HA虚拟建立心跳监测,集群中服务器不宜太多,业务集群虚拟机能够分属不同的集群。

开篇九 硬盘阵列卡
轻松认识RAID卡
  我们都知道,在服务器上实施RAID(冗余磁盘阵列)是保护数据不受硬件故障影响的必要手段,但是许多客户其实还并不熟悉RAID。
  RAID是英文Redundant Array of Independent Disks的缩写,翻译成中文即为独立磁盘冗余阵列,或简称磁盘阵列。简单的说,RAID是一种把多块独立的硬盘(物理硬盘)按不同方式组合起来形成一个硬盘组(逻辑硬盘),从而提供比单个硬盘更高的存储性能和提供数据冗余的技术。
  组成磁盘阵列的不同方式称为RAID级别(RAID Levels)。RAID技术经过不断的发展,现在已拥有了从 RAID 0 到 6 七种基本的RAID级别。另外,还有一些基本RAID级别的组合形式,如RAID 10(RAID 0与RAID 1的组合),RAID 50(RAID 0与RAID 5的组合)等。不同RAID 级别代表着不同的存储性能、数据安全性和存储成本。
  RAID卡就是用来实现RAID功能的板卡,通常是由I/O处理器、SCSI控制器、SCSI连接器和缓存等一系列零组件构成的。不同的RAID卡支持的RAID功能不同。RAID卡第一个功能是可以让很多磁盘驱动器同时传输数据,而这些磁盘驱动器在逻辑上又是一个磁盘驱动器,所以使用RAID可以达到单个的磁盘驱动器几倍、几十倍甚至上百倍的速率。第二个重要功能就是其可以提供容错功能。
  这里注意,接口是指RAID卡支持的硬盘接口。目前主要有三类:IDE接口、SATA接口和SCSI接口。
  IDE接口
  IDE的英文全称为“Integrated Drive Electronics”(即电子集成驱动器),IDE这一接口技术从诞生至今就一直在不断发展,性能也不断的提高,其拥有的价格低廉、兼容性强的特点,综合这些因素,使其造就了其它类型硬盘无法替代的地位。
  IDE代表着硬盘的一种类型,但在实际的应用中,人们也习惯用IDE来称呼最早出现IDE类型硬盘ATA-1,这种类型的接口随着接口技术的发展已经被淘汰了,而其后发展分支出更多类型的硬盘接口,比如ATA、Ultra ATA、DMA、Ultra DMA等接口都属于IDE硬盘。
  SATA接口
  使用SATA(Serial ATA)口的硬盘又叫串口硬盘,是未来PC机硬盘的趋势。2001年,由Intel、APT、Dell、IBM、希捷、迈拓这几大厂商组成的Serial ATA委员会正式确立了Serial ATA1.0规范。
  Serial ATA采用串行连接方式,串行ATA总线使用嵌入式时钟信号,具备了更强的纠错能力,与以往相比其最大的区别在于能对传输指令(不仅仅是数据)进行检查,如果发现错误会自动矫正,这在很大程度上提高了数据传输的可靠性。串行接口还具有结构简单、支持热插拔的优点。
  SCSI接口
  SCSI的英文全称为“Small Computer System Interface”(小型计算机系统接口),是同IDE完全不同的接口。SCSI接口具有应用范围广、多任务、带宽大、CPU占用率低,以及支持热插拔等优点,但较高的价格使得它很难如IDE硬盘般普及,因此SCSI硬盘主要应用于中、高端服务器和高档工作站中。

最后,是存储的问题。服务器所支持的驱动舱个数必然会影响到服务器的外形和高度。如果将服务器连接到SAN上,则对内部存储没有太多的要求。但是,如果设备安放在没有SAN的远程位置上,那么可以购买支持多达8个可外部访问的热插拔SCSI驱动器的系统。

 

磁盘镜像

澳门新浦京娱乐场网站 3

推荐品牌:Adptec、Lsi、Rocket

刀片服务器用武之地何在?

3.磁盘I/O分析方法

没有校验数据

 

开篇十 双核处理器
Intel双核处理器
  说起Intel双核处理器,它与AMD相比的确晚了一些,尤其是双核服务器处理器。但作为CPU领域的巨人英特尔,一直也是双核心处理器推广的积极拥护者,凭借着其先进的技术率先将主力双核Pentium D投放市场。
  2005年5月26日,英特尔正式发布了双内核Pentium D处理器,这款处理器并不是面向服务器市场,而是面向桌面市场。2005年10月11日,英特尔公司在北京发布其首款面向入门级双路服务器的双核、超线程英特尔至强处理器。
  全新的至强处理器预计将可以帮助提高当今双路64位服务器的性能高达50%,其它特性包括英特尔64位内存扩展技术、超线程(HT)技术、英特尔病毒防护技术、按需配电等。基于这些处理器的服务器非常适合用于诸如网络服务器、基础设施和电子邮件等应用。
 1、Pentium D处理器
  Pentium D处理器是将两颗独立的处理器核心集成在一块LGA 775基板,每一个独立的核心都支持HyperThreading,这样,Pentium D处理器就可以支持两个虚拟处理器,另外每一个独立的物理核心都提供了1MB 的二级缓存。
现在我们已经认识到多线程“Multithread”和多任务“multitask”技术的重要和先进性,也许今后的计算机将会重点发展这两项技术。微软的windows 操作系统就支持多线程技术,可以充分发挥英特尔双核心Pentium D处理器的最大效能。我们有理由相信,随着越来越多的支持双核心处理器软件的发布,英特尔双核心Pentium D处理器的表现将会越来越出色。
  戴尔推出了安装英特尔Pentium D处理器的双内核服务器,此举使戴尔双内核处理器的促销攻势又出新彩,双内核处理器将增强通用型服务器的处理能力。 英特尔公司修改了个人电脑的主流芯片,将双内核处理器用于处理简单企业业务的服务器,这类简单业务有电子邮件、文件服务和共享网络接入。
新型戴尔PowerEdge SC430服务器的市场目标是小企业,与前一型号PowerEdge SC420相比,戴尔将服务器储存能力和高速数据传输通道数量提高了两倍。经设计,SC430可运行Windows Sever 2003、红帽子或Suse Linux操作系统
2、双核至强处理器
  英特尔的双核至强服务器处理器提供了全新水平的服务器性能和灵活性,为企业提供了更出色的平台,以更好地处理复杂、同步交易和不断加重的工作负载。基于双核英特尔至强 处理器的服务器平台是多线程和多任务应用环境的理想解决方案。
  它拥有2.80 GHz的运行速度和800 MHz系统总线,每个内核独享2 MB二级高速缓存,并将采用英特尔E7520芯片组。由于每个内核都配置了其自己的高速缓存,所以系统总线上的数据量将大为减少,而且每个内核都可以更快地存取数据。
  双核至强处理器能够在不大幅增加功耗的情况下显著提升处理能力,从而使企业能够更有效地扩展其计算解决方案,同时降低成本。通过在每个处理器中集成更多核,未来的英特尔 处理器将可进一步扩展这些优势,从而有望不断提高服务器性能。
  全新双核英特尔至强处理器显著提升了关键业务应用的性能,能够通过提高计算密度、安全性与可扩充性、降低功耗以及更多其它方式来帮助企业抑制数据中心的成本。随着双核至强处理器的推出,国内外服务器厂商象戴尔、方正、IBM、惠普、联想、宝得、浪潮等都推出双核至强服务器产品。
3、双核安腾处理器
  双核安腾(核心代号Montecito),Montecito的性能提升主要来自于双核架构、超线程技术和大容量缓存。由于它集成了两个安腾2处理器的核心,它每时钟周期可并行处理的指令数就从安腾2的6条增加到了12条,超线程技术则提升了它的工作效率。
  它容量高达26.5MB的二级和三级缓存(每核心独享12MB三级缓存和1.25MB二级缓存)与二三级缓存总容量最高达9.25MB的安腾2相比,提高了近两倍。
  采用90纳米制程的双核处理器在性能上得到了非常大的提升,已经超过了Itanium 2 9M近四分之一的性能,这主要是得益于两颗核心、高达27MB的缓存、改进的超线程技术等。
  在系统带宽上,由于前端总线时钟频率速度从安腾2的400MHz提升到了667MHz,加上DDR2、双独立总线等技术的导入,Montecito平台的系统带宽可达目前安腾2系统的3倍。
开篇十一 双核处理器
AMD双核处理器
一、双核心处理器的由来
我们知道,在处理器的技术发展中,处理器制造商无不把频率的提升放在首位,而且这似乎已成为一种标准,由此展开了竞相追逐的频率竞赛。目前处理器的发展就处于这样一种状态,越来越高的处理器率频带来惊人的高功耗。因此,处理器技术的发展再次成为人们关注的焦点,也成为CPU大厂角逐市场主导地位的筹码
  所以在发展的处理器技术中,双核心处理器技术就初露端倪,成为技术开发热点。在这种技术中,通过新的封装技术,将两颗处理器芯片,整合成为一颗处理器,一颗处理器中有两个核心,在操作系统看来,它是实实在在的双处理器,可以同时执行多项任务,理论上说,这可以将系统性能提高50%至70%的幅度。
  实际上,在服务器领域里,我们已看到了双核心处理器,甚至多核心处理器;在多核心处理器的发展中,也经历了几个发展阶段。最初采用SMP(Simultaneous Multi-Processor,同步多处理器)方式,将多个处理器置于一个系统之下协同工作,以此来提升性能。
后来为了降低成本开发人员逐渐考虑是否能够将两个处理器或是处理核心集成到一个芯片上面来,为此而出现了SMT(Simultaneous Multi-Threading,同步多线程)技术和CMP(Chip Multi-Processor,单芯片多处理器)架构。因而,技术人员将开发重点更多地投入在CMP架构上面,相应地在服务器市场也推出了一些双核心和多核心处理器的身影。
二、认识AMD双核处理器
  AMD双核产品的架构在单核的时代就已经做了充分的考虑,AMD Opteron核心内部拥有三个Hyper Transport总线控制单元,分别用于处理其与北桥芯片、PCI-X控制器和其它处理器的连接,这个与其它处理器的连接指的就是多处理器技术。
在与其它处理器的连接上,如果是双路系统,两枚Opteron可以借助16位、6.4GBps带宽的Hyper Transport总线直接连接。
  双核心处理器是AMD64的直连架构所带来的又一个突破性成果。因为AMD64技术一开始就是为双核心技术而设计的;与其他双核心系统不同,基于AMD64技术的双核心处理为现有基础设施提供了一种无需中断正常业务的升级方式.
  双核皓龙处理器采用了独特的设计,可兼容现有的x86软件,无论是单线程还是多线程应用。这意味着来自300多家ISV的1300多种应用软件都将能够支持双核皓龙处理器,用户只需要进行一次简单的BIOS升级,而不需要改动任何代码。包括市场领先的操作系统、开发软件、数据库、IT基础设施和图形设计工具供应商在内的30多个战略性软件合作伙伴先后对双核皓龙的问世表示大力支持。一些著名的操作系统包括Solaris 10和兼容双核心Linux操作系统,以及即将面世的Windows 64位版本都针对AMD64双核心技术进行了专门的优化。
  双核心架构对于目前的x86服务器来说肯定是一次重大的升级,通常升级时摆在我们面前的无非是新型cpu接口不兼容和对功耗需求更高等问题,但这些问题在这个新设计的AMD双核心Opteron中完全不存在。处理器的另一个问题就是功耗了,在功耗方面AMD将把双核心产品的功耗维持在95W甚至更低的水平,这就意味着你在升级到双核心系统后仍可以继续使用以前的机箱和散热系统。

刀片服务器最初定位于寻求将大量的计算能力压缩到狭小空间中的服务提供商和大型企业。现在,许多系统厂商把能够整合数据中心基础设施、去除杂七杂八的线缆和优化管理、高性价比等作为卖点来销售这些薄片状的服务器。刀片服务器大小仅为标准的1U服务器几分之一,并且需要电能更少,安装在使它们可以共享资源的专用机箱中。

(1)计算梅磁盘的I/O数
每磁盘的I/O数可用来与磁盘的I/O能力进行对比,如果经过计算得到的每磁盘I/O数超过了磁盘标称的I/O能力,则说明确实存在磁盘的性能瓶颈。
每磁盘I/O计算方法
RAID0计算方法:(Reads Writes)/Number of Disks
RAID0计算方法:(Reads 2*Writes)/2
RAID0计算方法:[Reads (4*Writes)]/Number of Disks
RAID0计算方法:[Reads (2*Writes)]/Number of Disks

读数据速度有提高

1.2.1. 管理类集群
服务器数量为3,为管理类虚拟机建立单独服务器集群,运行管理类虚拟机,如AD、DNS、FTP Server、vCenter Server、vCenter Server 数据库、文件共享服务虚拟机等等,包括未来部署网络虚拟化时,运行NSX manager和NSX Controler等虚拟机;
1.2.2. 业务类集群
一般建议8-16台服务器为一集群,服务器规模较大时可以建立多个集群,集群中的服务器选自不同的机柜。

三、AMD双内核处理器的优点   1、架构优势
  AMD皓龙处理器从一开始设计时就考虑到了添加第二个内核,两个CPU内核使用相同的系统请求接口SRI、HyperTransport技术和内存控制器,兼容90纳米单内核处理器所使用的940引脚接口。因此可以说,AMD的技术架构为实现双核和多核奠定了坚实的基础。AMD直连架构(也就是通过超传输技术让CPU内核直接跟外部I/O相连,不通过前端总线)和集成内存控制器技术,使得每个内核都自己的高速缓存可资遣用,都有自己的专用车道直通I/O,没有资源争抢的问题,实现双核和多核更容易。
  2、平滑升级
  AMD的双核CPU跟现有单核CPU接口规格(管脚数)、功耗一样,因此从单核换成双核,不需要更换芯片组、主板、电源,只需要升级BIOS软件、拔下单核处理器插上双核处理器就行了,芯片组、主板、电源厂商不用投入新的研发成本,价格会按半导体市场的规律自然降低,用户现有的设备也可以通过升级CPU提升性能。因此在应用上具备一个非常大的优势,那就是功耗不变。对于高密度的服务器如数据中心来说,就具备了很大的优势,不需要增加额外的散热设备,就可以立即提升系统的性能,降低总拥有成本。
  3、低功耗
  AMD公司用于服务器和工作站的双核皓龙处理器,其功耗在95W以下。AMD将内存控制器集成在处理器之内,内存控制部分不需要额外的能源消耗,处理器能耗的降低还可以带来整机系统散热方面的能源节约。因此,采用AMD处理器生产的服务器,能源效率有很大的提高。
  最新的AMD双核皓龙处理器还采用了支持优化电源管理的AMD PowerNow!TM技术,这项技术能够让操作系统根据处理器的负荷量,动态地调整电源供应,减少用电成本,提高IT投资回报率。试验表明,采用AMD PowerNow!TM技术的皓龙处理器在系统空闲时,节电比例高达75%。
  4、众厂商的支持
  近来AMD双核皓龙处理器荣获“2005年TechEd最佳”奖,该奖是由Windows IT Pro和SQL Server杂志在微软2005 TechEd大会上评选出来的。这是AMD64技术连续两年在微软为IT专业人士和开发商举办的盛会上获此殊荣。2004年,AMD64平台凭借在行业标准64位架构方面的技术创新,荣膺“2004年TechEd最佳”大奖。
  在服务器方面,惠普、IBM、Sun、曙光、Cray、Supermicro、Egenera等在内的众多国内外顶级计算机厂商都推出了基于AMD双核处理器的系统。随着众多OEM厂商的加盟,包括微软技术中心(MTC)在内的众多商业用户逐步加大基于AMD双核皓龙处理器的企业级计算平台的部署力度。
四、小结
  AMD的双核技术是真正在一个晶元(芯片)集成两个内核,内核之间可以高速通信,计算性能大幅提高。而且,AMD可以实现从单核到双核的平滑升级,不需要上下游厂商开发新的主板、电源、风扇等,最终为客户省钱。在中国构建节约型社会的大环境下,AMD技术和产品的显著节能特性更具使用价值和深远意义。
  双核处理器最能发挥它的效能的地方目前应该是服务器市场。由于服务器通常要求高性能的计算,这样双核就比单核有明显的优势,所以在商业的运用和企业级的运算里要比家用对双核的需求多得多。AMD强大的计算平台在数字内容制作(DCC)领域的应用尤其如火如荼,在中国乃至全球,各大电视台、动画、漫画设计公司等,均采用AMD的64位平台。
  凭借强大的性能和出色的应用优势,AMD将64位计算能力服务于全球的各个行业。其在远程教育、石油勘探、电信、互联网、金融、高性能计算等各个领域的成功应用,进一步印证了AMD双核处理器创新的价值。

刀片服务器除了在计算密度上带来回报外,成本会节约吗?
专家认为,部署刀片服务器将得到节省空间费用的回报。在使用刀片服务器时,能够在每机架单位上达到10GHz的计算能力,而在使用传统平台时,每机架单位实际为0.5GHz的计算能力,这是20倍的改进。现在数据中心空间费用非常昂贵,而这正是使用刀片服务器得到巨大回报的地方:计算密度。

(2)与ProcessorPrivileged Time 合并进行分析
如果在Physical Disk 计数器中,只有%Disk Time 比较大,其他值都比较适中,硬盘可能会是瓶颈。若几个值都比较大,且数值持续超过80%,则可能是内存泄漏。

数据100%备份(浪费)

集群名称可以根据业务名称、部门名称等自定义。

安装完操作系统,就需要对服务器进行配置了,脚本之家特为大家准备了一些服务器常用的软件,都是大家经常用的,没有病毒,大家放心使用,地址http://s.jb51.net

早期采用者也指出刀片服务器并不是对所有人都适用。有的厂商会说你必须拥有刀片服务器,他们将用刀片服务器代替所有的服务器。对于用户来说,应该在最合适的地方使用它,如果你试图更高效率地利用空间的话,就应当考虑选择刀片服务器。

(3)根据Disk sec/Transfer进行分析
一般来说,定义该数值小于15ms为Excellent,介于15~30ms之间为良好,30~60ms之间为可以接受,超过60ms则需要考虑更换硬盘或是硬盘的RAID方式了。

RAID 2

1.2.3. 边界类集群
对于部署网络虚拟化NSX的环境,建议部署此类集群,实现网络边界通讯或南北向通讯,主要运行NSX的Edge类组件。
1.2.4. vSAN集群
对于采用vSAN虚拟化存储的服务器,单独建立集群。该集群主要考虑vSAN网络规划、磁盘规划等。
1.3. 存储配置规划
在存储配置建议1个DataStore对应于1个LUN,在需要较大的存储空间时,不要在DataStore层面去拼接多个Lun来扩大存储空间,可以考虑在存储层扩大Lun的存储空间,再在DataStore层来扩容空间;或者是对虚拟机添加新的vmdk(disk)文件,在OS层面去扩容应用使用的数据空间。
LUN的名称建议包含数据中心、存储厂家、LUN ID等,总之便于看到名称,就能快速定位物理位置,便宜差错。
根据VMware的最佳实践,按照每个DataStore存放10-15个虚拟机的方式规划,每个LUN和DataStore规划为1.5-2TB,同时每个LUN的在线访问路径,不要超过4条(VMware的上限是8条),每个集群的总存储路径不能超过1024,因此,LUN不宜划得太小和太多,LUN的ID必须在0-255之间,不能超过255。
1.4. 机柜配置规划
标准化数据中心机柜配置,提升数据中心规模效应,简化运维。
交换网络:机柜网络采用标准化配置,以2个机柜为冗余单元规划。每个机柜配置2x48=96口IP置顶交换机,机柜内服务器管理网络、虚拟机生产网络采用双网卡网口冗余,一条链路连接本机柜内交换机,一条链路连接相邻机柜类的交换机,实现网卡、链路、交换机冗余,参见下图。

选购IA服务器时应考察的主要配置参...

 

磁盘分段 汉明码数据纠错

远程管理网:配置1台48口IP交换机配置带外管理,管理机柜内服务器的远程访问,远程管理无需冗余。
数据网络:如果使用共享存储,则配置48个光纤交换机,服务器的光纤网络一条连接本机柜内的光纤交换机,一条连接相邻机柜内的光纤交换机,实现光纤HBA卡、链路、光纤交换机冗余。参见下图。
1.4.1. 高密度机柜


/

澳门新浦京娱乐场网站 4

 

没有提高

 

4.进程分析方法

允许单个磁盘错

单一标准42U机柜中,安装较多的服务器,服务器计算性能相对较低,运行Web应用和普通应用,以Web群集方式提高并发性能为主的应用。
每个机柜,配置12-16台2U服务器,服务器配置为2CPU,12核,144GB内存,4个千兆网口,2块HBA卡(8GB)。如果是配置vSAN的服务器则不需要配置HBA卡,增加2块万兆网卡。

(1)查看进程的%Processor Time值
每个进程的%Processor Time反映进程所消耗的处理器时间。用不同进程所消耗的处理器时间进行对比,可以看出具体哪个进程在性能测试过程中消耗了最多的处理器时间,从而可以据此针对应用进行优化。

RAID 3

1.4.2. 低密度机柜

(2)查看每个进程产生的页面失效
可以用每个进程产生的页面失效(通过PRCESSPAGE FAILURES/SEC计数器获得)和系统页面失效(可以通过MEMORYPAGE FAILURES/SEC计数器获得)的比值,来判断哪个进程产生了最多的页面失效,这个进程要么是需要大量内存的进程,要么是非常活跃的进程,可以对其进行重点分析。

磁盘分段 奇偶校验

澳门新浦京娱乐场网站 5

(3)了解进程的Process/Private Bytes
Process/Private Bytes是指进程所分配的无法与其他进程共享的当前字节数量。该计数器主要用来判断进程在性能测试过程中有无内存泄漏。例如:对于一个IIS之上的 WEB应用,我们可以重点监控inetinfo进程的Private Bytes,如果在性能测试过程中,该进程的Private Bytes计数器值不断增加,或是性能测试停止后一段时间,该进程的Private Bytes仍然持续在高水平,则说明应用存在内存泄漏。
注:在UNIX/LINUX系统中,对应的指标是Resident Size

专用校验数据盘

 

 

磁盘并行I/O,速度提高较大

单一42U机柜中,安装较少的服务器,服务器配置相对高,运行应用服务器、数据库等相对负载较大的应用。
每个机柜,配置8台4U服务器,服务器配置为4CPU,12核,512GB内存,4个千兆网口,2个万兆网卡,2块HBA卡(8GB) 。


允许单个磁盘错,校验盘除外

1.5. 机房配置规划

 

RAID 4

澳门新浦京娱乐场网站 6

5.网络分析方法

磁盘分段 奇偶校验

 

(1)Network InterfaceBytes Total/sec为发送和接收字节的速率,可以通过该计数器值来判断网络链接速度是否是瓶颈,具体操作方法是用该计数器的值和目前网络的带宽进行相除,结果小于50%。
1Mdit/sec(兆比特/秒)=131072bytes/sec(字节/秒)
1byte=8bit
IOMeter安装、配置
IOMeter是业界广泛使用的IO性能测试软件。通过使用不同的IOMeter设定值来呈现文件服务器(选择范围为512Bytes到64KB)和网站服务器(选择512Bytes到512KB作为I/O范围)的相应负载。

异步专用校验数据盘

1. 为了实现未来云计算中心不同计算需求,机房规划实现高密度中低性能和低密度高性能区划分;
2. 高密度中低性能区使用2U2C服务器,承载如Web/APP类应用虚拟机或是使用vSAN的应用;低密度高性能区为4U4C服务器,承载负载较重的APP或前置数据库等。
3. 资源池管理分为高性能区和低性能区,硬件资源扩容使用同一标准,按照应用区的容量,分别扩容。服务器采购,考虑6个月内为同一标准,6个月后再评估产生新标准。
4. 应用系统不再以物理设备方式申请资源,而是通过计算方式,按应用类别申请计算资源。
1.6. ESXi服务器名称规划

在实际测试过程中可以使用IOMeter进行如下测量:

磁盘并行I/O,速度提高较大

 

Max IO:
为了得到完整的磁盘性能数据,可以测试512Bytes到512MBytes等多种数据块大小,并分别测试了100%读取操作或100%写入操作下的表现,测试随机率可以从0%-100%,用于检测磁盘子系统的最大输入输出能力。从所有的数据中,可以分别得到的数据指IOps(每秒操作数)以及MBps(传输速率)。

允许单个磁盘错,校验盘除外

  准备安装ESX/ESXi的服务器   

File Server:
文件服务器应用在一个多用户或网络化的环境中专门用于文件的储存,恢复和管理。不同用户的访问形成了多线程,因此,其工作负载是随机性的。输入输出大小是可变的,取决于所操作的文件大小。读/写分布也是变化的。总的来说,一个频繁使用的多用户服务器应该采用较高的队列深度来模拟。

RAID 5

  安装ESX/ESXi就像安装任何一个Linux的套件一样,在确定你的机器匹配VMware的HCL之后即可以放心开始安装。但在安装之前,还是有些准备任务,包括了BIOS的配置,磁盘安全机制RAID,以及远程键盘鼠标屏幕KVM的配置。   

Web Server:
网站服务器应用于处理多用户通过Internet或Intranet进行的访问。这些请求具有典型的随机性,并且在用户访问不同页面或视频应用时大量偏向于读请求。同样,一个访问频繁网站服务器也应该采用较高的队列深度来模拟。最后,测试读取尺寸从512Bytes到512KB不等,100%读取操作,随机率为100%,用于模拟Web服务器的性能。在实际的桌面环境中,小于4KB的块访问数量不少,但是由于操作系统的缓存的存在而具有一定的降低,主要的块大小基于4KB。

磁盘分段 奇偶校验

  准备服务器的BIOS配置   

IOMeter硬盘性能测试对CPU、内存等参数并不是很敏感——当然CPU要保证在测试中不能出现100%的占用率。

校验数据分布存放于多盘

    一般来说,任何通过VMware HCL认识的服务器都可以顺利运行,但在安装ESX/ESXi之前,还是别忘了将BIOS中相关的地方激活。   

磁盘并行I/O,速度提高较大,比RAID 0稍慢

  服务器BIOS中虚拟机选项的激活   

允许单个磁盘错,无论哪个盘

    VT-X:在BIOS会显示Virtualization Technology.   

磁盘系统作好RAID 5后,任一块磁盘出现故障后,系统仍可运行,故障盘上的数据可通过其它盘上的校验数据计算出来(此时速度要慢一些)。如果磁盘系统中有备份盘,则数据自动恢复到备份盘中。如果具备热插拔硬盘,则在开机状态下即可换下故障硬盘,数据将自动恢复到新硬盘上。在这些过程中,系统并没有停止运行。
SMP技术简介  
○ SMP:Symmetric Multiprocessing . 即对称多处理。指在一个计算机上汇集了一组处理器(多个CPU)。多处理是指一台计算机中的多个处理器通过共享同一存储区来协调工作。真正意义上的多处理要求系统中的每个CPU能访问同一物理内存。这意味着多CPU必须能使用同一系统总线或系统交换方式。   
操作系统对多处理体系结构的支持是与其核心紧密相连的,这将涉及两个用于支持多处理的基本序列算法:对称和非对称处理。非对称处理中,CPU各有各的任务;对称处理中,每个CPU可执行任何任务。SMP系统通过将处理负载分布到各个空闲的CPU上来增强性能。处理分布或执行线程中,各CPU的功能是相同的。它们共享内存及总线结构,系统将处理任务队列对称地分布于多个CPU上,从而极大地提高了系统的数据处理能力。  
○ 对称多处理首先在网管方面表现出高性能,这应归因于SMP系统强大的处理能力和SMP操作系统的兴起。支持SMP的网络操作系统:Novel Netware、SCO UNIX、Microsoft Windows NT等。  
○ SMP技术特别适合于需要集中使用处理器的服务,如应用服务器、通信服务器。很多应用程序升级到SMP平台后并不需要重写。
○ SMP技术是今后PC服务器的发展方向。
机箱技术
○ 立式机箱   
立式机箱是高度大于宽度的计算机机箱(也称为侧立式计算机)。与卧式计算机相比,立式机箱的优势在于其"占地面积"(所占用的桌面空间)更小。立式机箱的高度通常为 18到 27英寸。微型立式机箱大约有14英寸高,而中型立式机箱通常是16英寸左右。
○ 基座式   
基座式机箱通常比立式机箱更宽、更高。与立式机箱相比,基座式机箱能够提供更灵活的配置选择和扩充能力,并且通常可以提供热插拔和磁盘阵列功能。
○ 机架安装式   
机架安装系统允许用户在一个金属架上安装多个节点或机箱,并利用轨道来回滑动。典型的机架是77英寸高、24英寸宽、40英寸深。机架是以垂直方向的度量单位来衡量的,以字母"U"来表示。   
l U=l.75英寸或4.445厘米。77英寸的垂直机架是40U。   
机架系统可由显示器、磁盘驱动器、不间断电源 (UPS)、网络组件和服务器节点组成。机架机箱的扩展概念是将服务器节点分成若干个独立的部分,它们通过一个服务器域网络进行通信,可能有独立的处理节点、内存节点、扩展总线节点和磁盘阵列。
●** 内存技术**   
内存的家族也很庞大,有许多不同的类别。按照存储信息的功能,内存可分为RAM(Random Access Memory,随机存取存储器)和ROM(Read Only Memory,只读存储器)。ROM是非易失性的元件,可靠性很高,存储在ROM里的数据可以永久的保存,而不受电源关闭的影响,所以,ROM一般用来存储不需修改或经常修改的系统程序,像主板上的BIOS程序。根据信息的可修改性难易,ROM也可分为MASK ROM,PROM,Flash Memory等,其中,MASK ROM,PROM属于早期的产品,ROM这一族经过一连串的演化,从使用只能写一次的PROM,利用紫外线清除的EPROM,利用电气方式清除的EEPROM,一直到现在主板上经常使用的一般电压就可清除的Flash Memory。现在计算机的发展速度相当快,主板厂商也需经常升级BIOS,所以用Flash Memory存储BIOS程序就成为首选,RAM既是我们通常所说的内存,也是我们需关注的主要方面,现做一下介绍。
○ RAM的分类   
RAM主要用来存放各种现场的输入、输出数据,中间计算结果,以及与外部存储器交换信息和作堆栈用。它的存储单元根据具体需要可以读出,也可以写入或改写。由于RAM由电子器件组成,所以只能用于暂时存放程序和数据,一旦关闭电源或发生断电,其中的数据就会丢失,故属于易失性元件。现在的RAM多为MOS型半导体电路,它分为动态和静态两种。动态RAM(DRAM)是靠MOS电路中的栅极电容来记忆信息的。由于电容上的电荷会泄漏,需要定时给与补充,所以动态RAM需要设置刷新电路(Refresh),如此一来,需要花费额外的时间;而静态RAM(SRAM)是靠双稳态触发器来记忆信息的,不须重复的做刷新的动作即可保存数据,所以存取速度要比DRAM快上许多。但动态RAM比静态RAM集成度高、功耗低,从而成本也低,适于作大容量存储器。所以高速缓冲存储器(Cache)使用SRAM,而主内存通常采用DRAM。我们平常所接触的内存条就是由DRAM芯片构成的。
○ DRAM的种类   
FPM DRAM(Fast Page Mode DRAM),即快速页面模式的DRAM。是一种改良过的DRAM,一般为30线或72线(SIMM)的内存。工作原理大致是,如果系统中想要存取的数据刚好是在同一列地址或是同一页(Page)内,则内存控制器就不会重复的送出列地址,而只需指定下一个行地址就可以了。   
EDO DRAM(Extended Data Out DRAM),即扩展数据输出DRAM。速度比FPM DRAM快15%~30%。它和FPM DRAM的构架和运作方式相同,只是缩短了两个数据传送周期之间等待的时间,使在本周期的数据还未完成时即可进行下一周期的传送,以加快CPU数据的处理。EDO DRAM目前广泛应用于计算机主板上,几乎完全取代了FPM DRAM,工作电压一般为5V,接口方式为72线(SIMM),也有168线(DIMM)。  
BEDO DRAM(Burst EDO DRAM),即突发式EDO DRAM。是一种改良式EDO DRAM。它和EDO DRAM不同之处是EDO DRAM一次只传输一组数据,而BEDO DRAM则采用了"突发"方式运作,一次可以传输"一批"数据,一般BEDO DRAM能够将EDO DRAM的性能提高40%左右。由于SDRAM的出现和流行,使BEDO DRAM的社会需求量降低。   SDRAM(Synchronous DRAM)即同步DRAM。目前十分流行的一种内存。工作电压一般为3.3V,其接口多为168线的DIMM类型。它最大的特色就是可以与CPU的外部工作时钟同步,和我们的CPU、主板使用相同的工作时钟,如果CPU的外部工作时钟是100MHZ,则送至内存上的频率也是100MHZ。这样一来将去掉时间上的延迟,可提高内存存取的效率。
○ REGISTERED 内存   
Register IC 内存条底部较小的集成电路芯片(2-3片), 起提高驱动能力的作用。服务器产品需要支持大容量的内存,单靠主板信号线的电流无法驱动如此大容量的内存,而使用带Register的内存条,通过Register IC提高驱动能力,使服务器可支持高达32GB的内存。
○ ECC内存   
错误检查与校正内存(ECC)提供了一个强有力的数据纠正系统。ECC内存不仅能检测一位错,而且它能定位错误和在传输到CPU 之前纠正错误,将正确的数据传输给CPU。允许系统进行不间断的正常的工作,ECC内存能检测到多位错(而奇偶校验内存就不能达到这一点)并能在检测到多位错时产生报警信息,但它不能同时更正多位错。  
ECC的工作过程是这样的:当数据写到内存中时,ECC将数据的一个附加位加识别码,当数据被回写时,存储的代码和原始的代码相比较,如果代码不一致,数据就被标记为"坏码",然后坏码会被纠正,并传输到CPU中,如果检测到多位错时,系统就会发出报警信息。
常见操作系统  
○ MicrosoftWindows NT Server 4.0 中/英文  
○ MicrosoftWindows 2000/2003 中/英文  
○ SCO OpenServer5.0.5  
○ SCO UnixWare7.1.1  
○ Red Hat 6.2/7.0  
○ TurboLinuxServer 6.1
○ SUN Solaris 7/8中/英文
○ Windows NT / Windows 2K/2003  
· 与windows客户机集成较好  
· 提供一定的文档和应用服务器兼容能力  
· 简化安装和管理工作,操作系统易于使用,用户界面好  
· 提供更多的开发工具,第三方厂商应用支持较多  
· 目前在中小用户中的增长势头较快  
· 大型环境中目录不易管理  
· 与其他操作系统相比,可靠性较差  
· 改变配置后,系统需重新启动
○ SCO UNIX  
· 在高性能的RISC机器中扩展性较好  
· 可轻松改变网络配置  
· 安全性、可靠性高  
· 提供内置的多用户能力  
· 最早,最广泛地支持Internet标准  
· 该平台上的应用极为丰富  
· 在国内金融等重要行业中用户较多  
· 用户界面较差,维护、管理、使用复杂  
· 没有可靠的开发工具
○ NetWare  
· 单CPU的文件服务器性能优异  
· 高性能的目录服务可轻松管理大型环境  
· 在国内早期中小用户中使用较多  
· 关键服务与SMP无关  
· 缺乏第三方厂商支持  
· 没有可靠的开发工具
○ LINUX  
· 免费的多任务多用户的操作系统  
· 性能稳定,占用空间小  
· 可运行在Intel、SPARC、Alpha平台  
· 没有专门的技术支持部门  
· 对一些设备的驱动能力还不是很完善
○ Solaris  
· 安装方式多样,自动化程度高  
· 处理数据的能力很高  
· 可与各种平台实现互操作  
· 软件价格昂贵  
澳门新浦京娱乐场网站:需要配置服务器的朋友可以参考,服务器基础知识。· 对基于Intel的服务器技术支持较弱

    VT-D:在BIOS中会显示VT-D或是IOMMU.   

  RAID的规划及安装   

    ESX/ESXi虽然是一个Hypervisor,但也是一个操作系统,因此也需要有些安全防护,因此在安装前,先要规划Hypervisor的存放位置,本地硬盘则一定要使用RAID才能确保Hypervisor的常规运行。   

  RAID的常见名称   

    Volume:卷,即RAID落实后的组合。   

    Virtual Device:和卷同意,但一个VD可以只有一台硬盘。   

    IM:即RAID1,通常是Mirror的意思。   

    IS:即RAID0,即Stripping的意思。   

    IME:即IM Enhance的意思,通常为RAID1 Hot Spare.   

    PD:Physical Device,即物理硬盘。   

  准备主机的总控KVM   

    在机房环境中,如果每一次安装或配置服务器都要跑到计算机旁边,安装上键盘,鼠标,屏幕,不但麻烦,一不小心还会把服务器的电源或网线给碰掉,带来无谓的困扰。在IDC中,一般会使用所谓的KVM转移设备,将这台服务器的键盘,鼠标,屏幕(通称KVM)的输出入都转移出来。   

  1、KVM的种类:交换机   

    最常见的KVM转移设备就是网卡,一般做法有通过KVM的交换机,再利用客户端程序或浏览器上交换机来操作给定IP的服务器。KVM交换机通常会有一个屏幕界面和USB界面,并且将这些界面集成CAT网络界面。   

  2、KVM的种类:专属总控卡   

    另一种就是在服务器中直接插上网络界面的KVM over IP卡,可以将这个KVM over IP的卡配置一个私有的IP,再将这个卡连上公用的交换机,只要通过IP就可以直接操作这台计算机,大部分的服务产品都是使用这种方式。   

  在VMware Workstation上安装ESX/ESXi   

    ESX必须匹配VMware HCL的硬件上才能安装,因此一般的PC要安装上必须靠运气,但如果只想评估ESX。事实上,VMware为了让每一个人都可以体会ESX的强大,特别在新版的VMware Workstation 7及以后的版本中加入了对ESX的支持,让你可以在"虚拟"的环境中再安装Hypervisor,并且也可以在上面再安装VM。虽然效果无法应用正规环境,但至少可以评估ESX的各项功能,如HA、VMotion、DRS等。   

  1、在workstation上安装ESX/ESXi的必要条件   

    虽然大部分个人计算机都可以安装VMware Workstation,但ESX/ESXi是一个64比特的Hypervisor,因些VMware Workstation的机器必须拥有64比特的CPU,而CPU也必须支持VT-X技术,满足这两个条件才能在上面安装ESX/ESXi.   

  2、创建给ESX/ESXi用的VM   

    VMware Workstation很贴心地在其上特别准备了给ESX/ESXi运行环境,只要经过简单的配置步骤即可。   

  3、创建给ESX/ESXi用的VM   

    在VMware Workstation下创建给ESX/ESXi的VM和创建其他的VM一样简单。   

    (1) 进入VMware Workstation并且选择New Virtual Machine选项。   

    (2) 选择Custom单选按钮,单击next按钮   

    (3) 选择VMware Workstation的版本,这里选默认值即可。   

    (4) 选择“I will install the operating system later”,然后next.   

    (5) 在操作系统的选择上,选择VMware ESX,在Version中选择VMware ESX/ESXi4,next   

    (6) 键入这个VM名称,选择存放位置,然后next。   

    (7) 接下来选择CPU数量,next   

    (8) 接下来是内存的大小,默认值是2GB,单击next按钮   

    (9) 再接下来是网络,选择bridge方便管理,单击next.   

    (10) 接下来是硬盘的界面卡,以默认值为主,单击next   

    (11) 接下来是创建这个ESX VM的硬盘,选择创建新硬盘,单击next   

    (12) 接下来是硬盘的界面,ESX以SCSI为主,单击next按钮   

    (13) 给定VM硬盘的大小,默认为40GB,单击next   

    (14) 接下来是这个VM使用硬盘VMDK的名称,也使用默认值,单击next按钮   

    (15) 接下来是信息汇总   

    (16) 单击finish完成创建。     

  

1.7. 虚拟机配置规划

澳门新浦京娱乐场网站 7

鉴于服务器NUMA架构的原因,虚拟CPU(vCPU)和内存的分配,不要跨单一NUMA节点,即CPU不要超过CPU的核数,内存不超过NUMA的本地内存。如4CPU,每物理CPU为8核,内存192GB的服务器,虚拟机资源的配置最大为8个vCPU,内存小于48GB(192/4)。
对于应用架构为B/S的虚拟机,Web应用虚拟机一般建议vCPU的数量为2-4个,且每个虚拟机内部运行1-2个JVM,通过运行多个虚拟机实现Web和JVM集群扩展。

 

本文由澳门新浦京娱乐场网站发布于服务器,转载请注明出处:澳门新浦京娱乐场网站:需要配置服务器的朋友