2011数据中心大会_释放云价值 给力数据中心

  会议时间:2011年4月26日
  会议地点:上海龙之梦丽晶大酒店宴会C厅

    刘嶷:欢迎各位朋友参加由网络世界报社主编的2011年数据中心大会,这次我们数据中心大会的主题是:释放云价值,给力数据中心,谈到云计算,可能大家或多或少的用过,包括我们用的界面,包括126油箱,总编说这也是云计算的应用,这么大的应用的前景,在后端数据库需要提供什么能力和功能?下面有请网络世界出版人兼报社社长张群英为大家开幕致辞!

    张群英:大家早上好!我是来自北京的问候!谢谢!首先代表网络世界的全体同仁热烈欢迎各位来参加今天的会议,大家看到我的同事刘嶷介绍,主次会议的主题是:释放云价值,给力数据中心,这个主题大家应该知道这是非常好的,非常热门的,其实网络世界的数据大会已经是第六次开,为什么我们会选择跟云挂钩的主题?一方面我们时代剧烈变化,云计算带给社会各个角度的冲击相当大,还有一方面对于数据中心从业人员来说,思考在云计算架构下建设状况,以及未来发展的趋势是重要的方面,所以我们选择了这样的话题。

    首先我在这里要特别感谢这次大会赞助商,大家应该能够看到LOGO,有来自上海阿尔卡特朗讯同事,还有深信服、威图等,就是这些赞助商,我们也特别在这里欢迎来自我们赞助商的技术专家,在一整天给我们带来不同角度的云计算的演讲。记得在五年以前在数据中心的领域全球楷模是谷歌,大家都在研究谷歌的数据中心是什么样?谷歌的数据中心是怎么部署的?是怎么搭建的?五年以后谷歌已经变成全球最大的供应云计算提供商之一,这个也是我们为什么会把数据中心落脚点在云计算架构下的非常重要的原因,同时今天我们看到全世界年轻的楷模FACEBOOK,他们成为新一代全球的风向标,在座的各位听说,大概两个星期以前FACEBOOK宣布对业界开放数据中心的建设密集,我自己的心情非常激动,当时也跟业界的朋友探讨,觉得可能是FACEBOOK的举动就像五年以前谷歌披露运营状况的情况一样,对全球数据中心的经理人是一次大的洗礼和冲击。

    我相信这个事情大家很想了解,我们今天有一位嘉宾会在他的演讲中,对上述的这些热点问题给予更深入的阐述,这位嘉宾就是我们请到的来自IBM中国研究院云计算首席科学家陈滢,谢谢陈滢从北京来到上海带来演讲,大家应该知道,这两天在数据中心非常热门的话题就是亚马逊宕机,这个是大事,作为全球共有的云计算最大的三大巨头之一,也是全球数据中心建设的出色的代表竟然出现了宕机事故,这个是大家没有想到的,我相信在我们的演讲嘉宾中肯定会有人讲到这个事情,我自己的理解是从这个事情发生以后,业界的反映看,大家怎么对数据中心架构有更好保证,更智能,更高效的重新认识,在这个方面几天有几个赞助厂商的专家,比如说来自Avocent,来自威图的,其他技术专家会给大家带来非常精彩精密的答案。

    从另外一个方面来说,在数据中心底层的网络技术架构,永远是最永恒的话题,因为是大楼的地基。今天有来自阿朗的技术专家,有国内IT优秀代表深信服专家,给大家带来相关不同角度的陈述。今天下午请到的数据港总工程师分享他们的经验,还有威图技术专家给大家带来高效数据中心结果之道,还有一个非常热烈地互动时间,请到三位用户代表和厂商的代表探讨这样的话题,因为我们数据中心在北京站的时候,这个互动也有举办,当时的现场氛围非常热烈,所以我希望耐心留下来,听到下午的互动时段,今天演讲主题非常丰富,希望大家认真聆听,不虚此行,最后再次感谢大家和所有的赞助厂商。

    刘嶷:我们开始正式演讲,下面有请上海贝尔企业通信有限公司技术顾问张巍先生,为各位带来阿尔卡特朗讯数据中心解决方案的演讲。

    张巍:谢谢主持人,也谢谢大家来到网络世界的数据中心研讨大会,下面我介绍一下阿朗的解决方案,首先张社长也有提到谷歌、FACEBOOK都是新一代最大的共有云提供商,可以看到我们有一个题目,因为我们现在的沟通方式发生了很大变化,不像在以前主要也是变化的沟通,现在大家都会觉得FACEBOOK在国内不太好用,大家会有GMIALL,用社区沟通方式,用微博等等,我们沟通方式发生了翻天覆地的变化,对于网络带来有什么要求?可以看到整个应用需要一个非常流畅才会有很好的用户体验,这就给网络带来很大压力,所以我们阿朗提出应用流畅的网络,基于这样的理念如何打造全新的数据中心?能够提供给大家更好的应用?一个交流方式的更好的体验?

    这是我们今天这样一个议题,首先我们看一下当今在基础架构上面临什么样的挑战?我们阿朗的应用流畅的数据中心方案是怎么样?最后会有一个总结。首先来看一下挑战,第一我们看到,现在的带宽是越来越足够,因为我们的应用会越来越多,可能现在大家在家里都是传统的娱乐模式发生了改变,越来越多或者在线看娱乐的信息,从以前不是高清的影片,到现在至少720P的电影点播,在公司里可能从以前的画面质量很低的视频会议,到高清的视频会议,所有的多媒体需求对于带宽的要求越来越高,像上海电信都有10兆近乎的带宽,比以前带宽要求越来越大,还有越来越多的各种通信设备,不止是IPOHNE、IPAD,平板电脑使用越来越多,可能越来越多平板电脑进入企业当中,进入接入的终端,除了笔记本之外,还有很多设备进入网络当中,在终端上应用的爆炸性的增长,带给我们的网络有新的挑战。最重要的最热的可能是虚拟化,不止说在可能服务器数据中心有虚拟化,在前端也越来越多虚拟化出现,可能最极端所有的桌边都是虚拟化,都是在远端的数据中心,我的桌面上运行一个浏览器,让所有东西在云端提供,所有虚拟化的挑战,也带给了网络新的压力。

    作为整个网络以及应用核心的平台数据中心来说,他同样面临着重中之重,我们总结,一个在数据中心的合并,为什么会有这样一个趋势?因为现在的数据中心可以通过各种技术做到越来越大,因为多个数据中心来说分散各个数据中心,管理成本非常高,能源成本怎么管理等等?这个带来数据中心合并,就是全球化的趋势,建立数据中心越来越大,一个数据中心可能有上万台服务器在里面。还有一个趋势就是虚拟化,虚拟化一个在于服务器上,因为原来的硬件资源来说,可能单点只能利用10%-20%,通过虚拟化技术以后,可以提高到60%利用率,可以大大降低投资成本,而且优化管理成本。还有在于融合,传统来说可以看到,这是我们传统的数据中心的标准三能架构,在传统数据中心和现代园区网没有区别,所以很难面对虚拟化的要求,还有一个对传统来说,可以看到专用的存储网络,通过交换机连接存储,还有一个在并行计算里面,在电脑数据中心,在新一代中心有融合计算,可以把存储网络,把并行计算网络融合在以太网上去,简化成本,提高运行效率,还有实时云端的视频应用,延迟越少你的用户体验越高。

    阿朗提出了应用流畅的架构,通过三方面实现一个应用的流畅,一个在架构上我们采用了比较简化的两层架构,能够扩大数据中心的规模,我们还通过自动控制,对于网络上应用的了解,我们自动调整网络的优先级,QIS等等,特别是视频进行自动识别,这样能够给用户更好的用户体验。还有在运维上怎么样通过这样的一些ASA监控,通过简化自动部署,因为对于大范围网络,大范围数据中心来说,比如增加一台虚拟机,删除一台虚拟机怎么样实现自动优化管理,是非常重要的。基于优化流程的概念,阿朗提出了一个实践概念,比如两层架构,网络上虚拟化的数据中心等等,在后面会有详细地介绍,在自动控制上有我们的虚拟的网络档案技术等等。

    我们先来看整个应用流畅的演进的路标,我们刚才讲到有虚拟化的技术,有融合网络技术,我们可以看到,我们是一步步实现的,因为针对用户实际需求来说可能很难一步做到很多东西,对老的数据中心第一步可能做到了服务器的虚拟化,在当今的一个阶段,网络开始做虚拟化的工作,我通过网络设备的虚拟化,可以和服务器的虚拟化做这样的联动,任何虚拟机的漂移可以做自动跟踪和优化,在下一步我们会支持进一步支持SOE,对网络来说不能丢包,整个以太网发生根本性的变化,支持无损,最后支持超大规模云计算的概念,可能有100G网络等等,这是整个服务器演进的过程。

    阿朗数据中心交换解决方案是怎么样?这个是我们整个架构图,中心来说这是我们两层网络,在核心有我们专门数据中心的交换机,这边是架构的演进的方式,这个可能是当今传统数据中心来说,可能还在说当今矩阵模式,我们的关注点不是这样,我们的关注是应用已经怎么样转为服务?像应用及服务的理念,怎么样更好向用户提供服务。另外一个单站点怎么样演进到多站点数据中心?可以做多站点数据中心虚拟化,比如企业有一个数据中心,有一个灾备中心,通过多站点数据虚拟中心的优化,可以把整个硬件资源利用率提供到最高,提供服务。还有一个从核心服务连接,以前从传统来说通过核心做,现在来说我们整个架构可以做到相互直连架构,提高所有服务器之间的通讯流量。还有一部分就是在数据中心来说,最重要的是怎么看管理?我们有专门的可视化的软件,可以来监控所有网络设备的性能以及虚拟机性能的状况,给整个管理者可视化的性能管理。

    还有一个做到在网络层面和虚拟机联动,不管虚拟机移动在哪里,可以了解网络虚拟的应用,所有的网络配置跟随你做移动,这是我们数据中心交换的整体方案。我们详细看一下阿朗提出的详细的MESH,因为和传统的数据中心区别在哪里?传统的数据中心考虑南北向数据流向,因为我们很多应用可能都是WEB模式,没有考虑到服务器和服务器之间东西向流向的数据流向,特别是体验SOA软件架构,越来越多流量放在服务器之间,怎么样更好体现服务器之间的数据流量,模型?我们提出了MESH和TOR概念,我们通过网络虚拟化,在接入层横向虚拟化以及核心层横向虚拟化,来消除延迟,还有消除在数据网络可能大的网络才能满足漂移机的需求,通过虚拟网络档案,VMP技术和虚拟机的漂移做自动联动,实际上阿朗整个MESH完全演进的状态是怎么样的?我们叫做POD  MESH,可以看到机顶最大6900,可以作为POD原子,6台原子组成POD分子的架构,所有的设备之间都是直连的架构,来提供给相应的服务器提供最优的服务,所有服务器的流量只有1跳,可以做到最低的延迟2微妙的延迟,来提供很好的DH架构,一个POD里面可以提供240个全限时端口,越来越多的应用SOA的架构里面,这个是服务器之间的通讯架构,还有一个做服务器虚拟化之后,服务器之间的相互漂移是非常频繁的,服务器在做虚拟机移动的时候,所有的内存需要做相应的径向,通过这个方式更好利用硬件池的资源,还有提供很好的高耗性,通过虚拟机的技术,如果一个硬件资源失效,可以漂到另外一个资源上,持续不断给用户提供应用服务,但是这种漂移造成非常大的服务器之间的通讯量,所以会看到越来越多在机顶架结构上服务器需要万兆接入,并且万兆接入要求服务器和服务器之前有很低的延迟,因为做内存拷贝的动作,所以我们提出POD的概念,在一个POD提供相应的一组服务,可能数据中心服务器在POD,前端和外段服务器在POD里面,还可以相应做成POS集群,相应的服务可以放在POS里面。

    一个POS和上层的核心10K之间,可以通过5个40G连入做连接,不仅在模型上考虑了东西向流量,还必须考虑南北的流向,从用户来访问数据中心流量,必须考虑这个,通过这个架构可以做到很大规模的容量,可以提供14000多个万兆权限在一个数据中心里,同时向南北收敛很低,可以达到1:8:1达到访问数据中心要求,平均延迟从1个POD访问另外一个POD做到5微妙延迟,这是一个MESH架构,对于多站点数据中心来说,我们也可以做到,可以把一个数据中心看成一个MESH的节点多个数据中心之间通过MESH架构自动做互联,所有虚拟机通过多个站点做多种漂移,通过MESH技术可以组成大的虚拟二层网络,来满足虚拟机漂移的要求,并且我们这些设备,能耗对于数据中心来说,是一个每天日常运维的电费,可能是非常大的一块,我们的所有设备会支持绿色节能的功能,可以做到非常低的耗电能力,并且所有设备都有经典化的设计,大家在门外看到我们在16邮机箱里面可以提供15设备,在48标准机架用10个可以提供到10000多台接入,对于空间要求非常节约,这也是数据中心瘦身怎么通过优化设计的设备?可以用最小的空间提供最高密度地接入。

    前面提到我们的POD和MESH技术非常好的支持多站点的数据中心,多站点的私有云的建立,还有混合云的建立,数据中心1和2,通过MESH技术,建立数据中心,为不同应用部门建立私有的虚拟化数据中心,人力资源有自己的应用服务,生产部门、财务部门等等,可以最高效应用所有的技术设计,而不是像以前专门建立一个灾备,现在数据中心动态建立设备。建立云计算以后,特别是财务部门到了月末大量计算,可能自己的数据建设不够,不用再投资很大,再扩设备,平常只用到20%,高峰时用到80%,这时候我们向共有云运营商提供服务,私有云和共有云怎么对接?通过MESH进行对接,在企业里面实现混合云的业务,只是说向共有云服务商买两天的设备可以,不用再花大笔钱买投资架构,通过共有云和私有云混合交户大大降低我们的成本。

    这里简单展示一下我们的数据产品,一个是6900,作为每个机架品服务器的接入交换器,提供64全线速的万兆接入,这是非常高密度全线速的万兆接入器,在我们这些平台上都会支持今后无损以太网的嫌疑,有很多在调用过程中,我们所有的硬件都已经完全支持新的标准和协议,通过无损以太网才能真正有SOA的功能。另外我们非常高的能源使用效率,我们利用尾气传输能源设备。在16EM高度上提供256个全线速的万兆端口,我们全先素第三方,我们都有做测试。可能有一些万兆端口有4个,真正做到全线速没有的,我们第一个做到32个全线速核心交换机,来保证无损以太网的通讯要求。作为气象来说,有非常好的能源效率,能够提供小于2瓦尾气的能耗比。前面也提到对于数据中心来说,怎么做管理是非常重要的,怎么了解在你的数据中心上这些网络应用的情况?通过VMP技术,自动了解顶上虚拟机怎么样应用?如果虚拟机做漂移的时候我们怎么样跟随虚拟机进行漂移?这幅图比较好的展示,当一个虚拟机从一个虚拟机移另外一台虚拟机,跟随虚拟机到另外的交换机上,自动实现,通过软件和虚拟机管理软件做协同工作,所有的移动都是自动完成所有的QS参数和安全参数增加,都可以实现像虚拟机一样自动漂移,不管是漂移到数据中心的另外一台交换机上,还是另外一台私有云另外一台虚拟机上,自动实现漂移,大大提高数据中心管理的自动化管理的自动性。

    这个是对于我们阿朗创新数据中心架构的总结,首先对于我们来说,我们认为应用器管理,数据中心来说作为基础架构,上面交付给我们用户所需要使用的应用,如果能够保障我们的应用流畅,这是我们这样的理念,不管你的应用移动到哪里,我们可以做自动调整和适应。还有我们可以非常好交付混合云,企业建自己的私有云,怎么和共有云互联?通过MESH架构能够非常好的实现,能够构筑一个多站点的私有云,以及向服务提供商对接。我们可以拓展数据中心规模,并且提供在5微妙之内高达10万台服务器端口,只是硬件服务器端口,还有我们对于40G、100G以及CLE支持等等,通过应用流畅的网络数据中心,希望带给用户更高品质的体验。谢谢大家!

    刘嶷:谢谢张巍的精彩演讲,流畅的数据中心,这个词很美妙,特别是流畅这个词,我们更需要流畅访问,下面有请Avocent(中国)和技术服务部经理张智轩带来DCIM-构建云时代智能化数据中心的演讲。

    张智轩:各位上午好!我是Avocent公司的工程师张智轩,这次主要和大家就数据中心的一些想法和经验做一些交流和分享。首先我们看一下数据中心基础设施的定义,从数据中心基础设施的定义角度来说,从不同角度看,我们可能会得到非常多种的定义,长期以来把数据基础设施定义分割成两个部分,一个部分是物理支撑,还有支撑所有物理设计的设施,我们更倾向于放在物理机房之内的所有设施,IT设施以及支撑设施都看成是数据中心的基础设施,对于我们用户来说,最后交互到我们手上,一个是云计算数据中心是一揽子工程,最后得到实实在在物理服务器、交换器、放火墙,以及供电、制冷设备,他们之间相互关联,需要我们掌握和控制。如何能够使得这些支撑的基础设施更好为我们物理IT资产更好服务?使他们发挥出全部功效,当我们环境发生变化的情况下,它们自己本身的状况发生变更,如何影响到基础设施进行调整和优化?从而为我们整个数据中心良好稳定的运作情况,提供必要的服务,这也是我们需要关注的重点。

    接下来我们看一下整个数据中心基础设施的生命周期,包括四个阶段,设计、实施、运行和优化,大家可以看到这是一个比较循环的状态,首先从设计角度来说,一开始定义数据中心的等级标准是TH,需要知道数据中心容量规划,并且知道整个IT基础架构整体管理目标和方法,对于整个设计初衷来说需要把握所有对IT需求,针对IT需求再对未来1-3或者3-5年整体规划作把握。还有就是针对设计,根据所有设计定出来的标准,对所有的一些设备进行实施,部署的阶段,部署包括智能化、电源、安防等等,当整个过程结束以后到运营阶段,运营除了很多情况下发现,一开始设计的初衷是这样,但是实际运营情况并不这么好,或者两者之间发生不匹配的方法,当不匹配发生以后发生了管理需求,而且它们是两者发生不匹配的情况下,对所有运营状况进行监控,进行一些具体的处理,得到优化策略,需要大量把握历史的数据,根据这些数据可以对以后的机房的部署进行预判分析或者对以后机房布局进行相应的调整,这样又回到了一开始对设计进行进一步深化和优化,从而使得整个数据中心的运维,随着业务不断调整,IT业务不断调整,从而使得基础设施也在进行不断调整,形成周而复始地不断调整,形成持续优化的阶段。

    按照基础设施中心出发点,有供电、制冷、空间、安防和布线,对于IT采购而言,制定出来标准,最后都是落在5个物理需求之上,最后体现出来都是在5个具体物理需求之上,当我们整个数据中心处于运营状况下,IT基础设施本身的变化随着业务的变化不断调整,拿具体服务器来说,上面跑了多少应用,和有多少制冷和供电有关系,时时刻刻把握现行关系,需要时时刻刻知道当前的服务状态,就有可能对整个机房动态环境做更好把握,从而提出更好的管理理念和管理的调整,使得整个机房可以为我们的数据中心提供更好,更持续,更稳定的IT服务。对于整个数据中心基础设施运营目标来说,可以分为三个,第一点重中之重就是保障所有的IT可流性,分成以下三层,一个IT,一个数据中心的目标,为我们各个职能部门,各个职能单位提供必要,可靠稳定持续的IT服务。第二层产生有效持续IT基础架构层,为了使得IT基础架构层正常访问和正常工作,第三个基础设施层,从中可以看出保证IT可用性能,提供持续可靠IT技术服务,是我们数据中心运营的重要目标。在保障了同一目标之下,剩下的两点非常好解释,一个提升我们的运营效率,第二控制成本。一个云计算能够包可用性前提下能够满足,势必运营效率或者降低成本比一般企业做得更好,对于所有IT运维人士来说是比较大的挑战。

    如何控制好两点?使得我们本身运营效率或者运营成本得到很好的控制,也是我们以后要花心思想的问题。对于数据中心基础设施运营过程,也是内在循环,比如从一开始不足的规划,到一个系统上限再各节点控制,到绿色优化,也是周而复始循环过程,在系统上限和各节点监控之中,可以得到大量的有用的信息,因为这里的信息包括一个IT设备,每一个IT资产,每一个基础设施放在机房里面的具体属性,和当前的使用状态和运营状态,以及如何访问,如何控制,最终能不能使用结构图表使得领导看到整个过程,这些信息非常重要,因为我们的业务不断进行调整,在进行调整的过程中,我们的基础设施也在随之进行相应的调整,但是对于维护来说这两者不脱节的解释,一般的基础设施维护业务应用,两者之间就是IT的运维,所以有可能业务运维没有直接反映到基础设施上来,而技术设施进行自我调整,如何把这两者衔接起来也是我们关注的问题。

    对于五个挑战,首先第一重中之重的可用性,它的可用性是决定这个数据中心是否应该存在,或者存在意义的重要枢纽,在云计算前提下,下面两个挑战显得非常重要,如何控制成本?如何提升我的效率以应对云时代到来?为了实现控制成本和提升效率,用什么手段或者方法或者工具实现两个手段?就要提高整体IT运维或者IT基础设施运营可用性和管理性,只有把服务提高了,才能使得获得非常好的竞争的能力。回到设计这一块,FACILTY对IT技术设计整体需求的预估,这个预估是比较概念或者比较毛糙的东西,对于用户来说最终关心的不是有多少服务器,多少个网络设备,因为这些一开始都是根据业务定不下来,我们能够定的,只是最后需要我们数据中心具备多少运算能力,多少存储能力或者多少网络交换能力?这些用户可以定下来,设计阶段只能是这样的框架。对于数据中心运营过程中,IT基础设施技术需求和设计需求差异在不断慢慢显现出来,逐渐体现业务流程也在不断调整和变化,当有业务进行调整和变化的时候,可能对IT需求产生一定的影响,而IT需求的具体的影响就会直接反映到整个基础设施也需要进行相应的调整。

    旁边这张图就是气流分布图,是实际的气流分布图,但是这张气流分布图和一开始设置的气流分布图有很大区别,这就导致了可能在机房区域里面,某些会形成过渡热,气流非常其中会非常热,从而导致服务器设备可能产生过热的状态,从而使整个机房可用性一下子拉低了,有些地方过渡制状态从而使机房POE值会升高,使应用效率下降了,产生这种原因因为业务不断变化,进行调整了之后联动关系,对用户来说实现的并不是那么好。对于DCIM概念来说,目标在于运营过程中,通过有效的管理缩小这个差距,从而使得机房建设更为和谐。一般来说可以从两个方向缩小这个差距。

    第一个构建能够适应基础的架构,也就是说模块化的概念,也就是说可以把每个机房每个系统作为模块化形式,在整个机房部署里面进行实施。另外一块掌握基础设施的趋势,通过这一点知道当前设备运行的状况,当前设备自己本身所处的工作环境,是不是能够满足应该有的条件?这样非常好的对整个工作运维进行指导作用。

    第二个方向就是优化对基础设施的使用,也就是我们需要有组织、有目的、有规划分步走对IT基础设施,进行有目的的使用,并且可以对它们进行精确的了解,精确的了解可以使我们非常清楚定义设备,知道它在哪里,知道它量化级状态,当它出现问题的时候我们可以访问和控制设备,进行操作,从而的使得我们可用性能进一步提升。所以在设计的时候,要考虑运营情况的需求,DCIM管理目标不一样,广度和深度也是不一样,有些用户对于市场来说,已经有了一定了解,或者在自己运营过程中已经有了体会,他可能会攫取自己关心的话题,对整个系统进行控制。另外DCIM的需求,针对所有机房里面的IT基础设施,我们如何把这些数据能够整合起来展现在一起?供每个数据中心运营的工作人员进行有必要的处理和分析。这一点也是我们整个在设计阶段,需要考虑的一个问题。

    对于DCIM而言,它里面比较大的重点就是监控,但是监控其实包含了在这里看到三个层面的意思,首先是监测,监测在绝大多数机房里面,可能实施已经有一定的规模了,因为通过各种各样的先进的手段,先进的工具,知道当前的设备,知道当前制冷参数,都有能力和手段获取,这一点应该做到普及了,通过监测我们得到一个数据,接下来非常重要的是做决策,这些数据到底反映什么意思?代表了什么?需要做什么样的调整?怎么样调整才是正确的?怎么样调整才能使数据中心维护更为简单更有意义?通过维护得到指令进行相应控制,控制的目的保障可用性,提升数据中心的应用效率,降低运营成本,对于云计算我们这边的控制所得不够,大多数情况下基于自己长期以来积累的经验或者理论的数据,对所有的监测出来的数值进行比对,再人为进行自发性的操作,对云计算整个环境下,如果还采用手动方式对整个数据中心进行控制,不可能构建一个非常理想的,需要自动控制的概念。通过自动控制的方式,使得整个响应度和响应的准确性得到比较好的提升,从而使得各项服务能够在用户手里,保证可用性和运营效率得到提升。

    DCIM只是概念,但是不是某家厂商都有的概念,它的本质是协助完成整个运营过程中决策的形成,从监测到控制当中的决策的形成,通过决策的形成指导数据中心运营,我们碰到过很多用户,跟我们说我们买了很多电源条,买了CEO,我们有很多数据,但是没有办法制定相应的流程,通过这种方式,通过DCIM可以非常好的解决之一点。而对于DCIM而言另外非常重要的一点,就是充分的数据,如果有的用户能够制定流程,我们有非常大的智库,根据数据流程进行合理的判断,我们慢慢采集数据,因为对于所有用户来说数据是整个DCIM变化管理的基础的东西,缺少数据整个DCIM管理是空的。如何采集和收集这些数据?有很多种方式,从这张图分为FACILITY、环境、优化,从FACILITY都有智能管控界面,像PTU都可以读取了解的信息。

    另外针对IT设备,我们很长一段时间可能大家都在使用,但是长期被忽略的东西,是共同提出的协议,通过协议我们获得对主板上的信息采集,最终落脚点是CPU之外的小芯片,通过芯片非常直接知道主板温度是多少等等,如果把IT设备也进行读取,对数据采集有很好帮助。

    第三块是环境监控,可以通过各种各样的探讨,或者传感器,知道当前所有设备工作的温度和使用度等等其他的一些信息。当我们所有信息采集来之后,所有数据采集以后,我们需要对它们进行在一个平台之上进行统一的分析,因为对于我们数据中心来说,包含了非常多的技术,非常多的厂商,共同作用出来构建的,来建设的数据中心。所以每个厂商对自己的信息读出格式都有定义,对于DCIM管理决策建立在综合的数据之上,需要大量的数据参与,从而使决策更为准确,所以从一的数据模型使得综合数据分析成为密必要的和有效的基础。对于DCIM基础由多个管理阶层管理空间,我们需要运行空间中知道当前机房里面分布是多少?在我们的DCIM得到资产体现。

    另外一块需要在运行空间中知道配置怎么样?插的盘有几块?硬盘有几块?哪个连接到核心交换机上是哪个端口?所有的这些都是属于配置管理的概念,我们同样可以在DCIM里面找到,此外DCIM运行空间还包括能够当前监测到运营设备和运营状态,当前工作状态以及当前工作的环境状态,是不是能够满足应该有的环境的要求?另外当一些突发事件状况发生的时候,我们可能需要用到访问管理,如何使得我们所有用户,使得操户,使得所有技术人员或者专家,能够及时有效安全的建立自己的一条通道,访问所有的设备,并且能够对突发设备进行底层操作,从而在第一时间知晓并且获得对所有设备故障解决的能力,这些也是我们需要考虑的问题。所有这些共同组成了DCIM大的框架,我们实现这种整个容量的管理,变更的管理,对于整个DCIM而言,容量管理也是非常重要的一块,因为当数据中心在运维过程中,变更时时刻刻发生,当变更发生的时候,比如有一批服务器进行上限的过程,现在到机房里面看,或者是拍脑袋想,这些服务器应该放在哪边?有了DCIM之后,通过容量管理,非常清楚界定好哪些机柜符合服务器上架需求?对整个网络单口网络消耗也能够实现很好的匹配,使得运营效率得到进一步提升。

    我们可以事先通过DCIM空间,知道变更前和变更后发生了什么变化?造成的影响是怎么样?是不是对现有的系统产生一些不良的影响或者提升的影响,所有这些都应该在DCIM里面得到这么一种解释。对于DCIM解决方案,贴合用户管理的实践,因为不同的用户的DCIM的管理实践,他们根据自己的发展意识不一样,侧重点不一样,可能有些客户关注监控,而有些客户确实配置管理、容量管理,这时候有的放矢针对客户不同需求,提出自己不同的概念。而且在同一个子领域中,不同客户管理实践也会导致他对整个系统复杂程度要求不同,可能因为大的客户我们推荐APERTURE  VISTA,因为对超大机房是非常好的数据中心。这张图就是投资的一个图,我们刚才说提到的DCIM中的有众多分层,但是对于投资来说,并不是投资越多,你的回报和你想像中一样,这里需要平衡节点,各个方面对于用户来说是需要做到有效有机的平衡,如何把握平衡?如何找到平衡点?也是我们需要考虑的问题。

    对于艾默生而言,我们给用户提供了非常多的东西,包括UPS,包括空调等等,对数据中心建设参与了很多,对于艾默生我们一直致力于管理的提升,我以前在参加数据机房研讨的时候,记得别人谈到过一点,中国机房的一流设备,二流设计和三流管理,我们提升管理,我们有能力和信心给用户提供最佳的DCIM实践,通过整个TRELLIS平台,可以提供软件和硬件解决方案,在TRELLIS之上,我们有设备可以采集到用户关注的信息和指数,通过PLOTFORM访问设备,当我们把信息采集过来的时候,在这个平台之上图形化展示所有知道的信息,并且通过用户知道的要求,产生报表,给所有参与者得到非常直观的展示,最终的目标和刚才提到的一样,三个目标,保障整个数据中心可用性,提升数据中心效率,降低数据中心的成本,使得数据中心工作人员能够为各个企业提供更好的服务。

    刘嶷:谢谢张先生的精彩演讲。我们会碰到各种各样的人,上次碰到一个信息中心的主任,他说他有一个摋子,有6个面,其他都是洗衣、做饭都是好的,他把另外一个面每到周六,贴上一个签,就是拔电,如果把摋子甩下来,到了拔电,再看数据中心有多少信息,他的手下非常紧张,如果每次上DCIM可以解决很多问题。下面有请深信服公司副总裁张开翼带来快速、安全、便捷的迈向云端-深信服云端统一接入解决方案的演讲。

    张开翼:各位大家好,很荣幸和大家一起探讨云计算,深信服关注的是我们如何帮助用户高效、安全、便捷使用云计算,帮助云计算落地,所以我们今天在这里跟大家分享的是我们云端的统一接入的解决方案。云计算作为这两年不断热门的话题,几乎所有厂商和用户都在讨论云计算,我们通过云计算像使用水电一样使用计算能力,可控能力,大部分厂商如何让云平台计算能力强,存储更方便,拓展更便捷,但是我们有很多疑问,比如云的安全,包括信息安全和业务安全,最近我想大家听说过亚马逊的云服务因为断电问题导致了中断,到现在还没有恢复,加剧了我们对云计算的担忧。再好的理念只是一种理念没有有效保证措施落地,就是阳春白雪,高高在上。所以我们在这里需要讨论的是我们如何帮助云有效的落地?

    深信服在这里分享的是我们针对云接入安全,云接入优化和云接入门户提供统一的云接入方案,不管私有云和共有云,做云平台很重要的理念就是便于获取,加剧了我们对云的安全性的顾虑,也就是说我们看到,云可能会是一个敞开的大门,同时云这种架构使得我们在过程中,我们会发现需要更复杂的列入,原来使用我内部体系可以了,现在需要考虑更为复杂的列入和更多样化环境,原来只考虑WINDOWS现在考虑更多接入平台,所以我们更进一步考虑将面临哪些风险?下面简单介绍我们汇总出来的常见的问题。首先在数据接入这一块,云是一个开放的平台,既然是开放的平台,如果我们有效用户身份的措施以及基于云可控性管理,我相信没有哪个用户敢真正把他核心业务迁移到云上去。除了身份确认和访问控制,还需要进一步确认如何保证合法用户在正确或者安全的状态下,去访问他的可用的在他权限内的资源?并且我们针对云平台,能够提供针对这些合法和安全的或者在授权中访问提供安全保护。云平台本身如何提升它的安全措施?这是我们首先需要面对的第一个问题。

    第二个问题当我们的业务迁移到云平台上以后,原本在局域网当中使用顺畅应用,可能面临可用性的问题,相对于局域网千兆或者万兆,广域网和英特耐特大为削减,带宽适用性和稳定性明显下降,我们很快到云上去以后,效率低,速度慢了,对于共有云服务商来说,如果我们在云上面提供很好的客户体验,对我们的业务带来的后果非常严重,举个简单例子,比如您同样购买这个商品,会介绍快速呈现商品,能够让你获得很流畅的购买体验的供应商,还是会选择刷新非常缓慢半天都没有呈现出来的供应商,答案是显而易见,我们需要进一步规范我们的业务在迁移到云上去以后,如何保障内部用户和外部用户的云体验。

    第三个问题,可能很多客户感受非常明显,因为我们每个人现在都在经历了这样的变化越来越习惯于移动终端,获取咨询,访问应用,获得体验,当我们的业务试图到云上去,会发现原来在局域网内业务,只需要考虑WINDOWS,当云上面去以后,必须适应终端用户对应的习惯,不能挑战,原来我们是1:N,N个平台只需要在一个终端上实现,而现在必须考虑包括IPAD移动终端商。这些使我们的用户把业务迁移到云的过程面临艰巨的问题。

    我们看到不管在数据接入的安全方面,还是在应用体验方面,还是在跨平台部署的复杂性方面,都需要考虑如何有效把我们的云计算,或者是哪怕是现在的数据中心实现有效落地?所以这里深信服想和大家分享的是,针对我们刚才提到的现实的问题,我们该如何去有效的解决?深信服的云端统一接入解决方案,从纵向来说分成三个层面,首先在云端和我们的终端之间,通过比如说SOA,下一代应用防火墙提供云的数据安全和云的终端安全,可以简化终端接入的部署,提高跨平台的可用性,通过广域网应用交付优化云计算交付过程,在终端过程,通过一体化可跨统一门户,使得大幅度减轻我们的业务再迁移到云上以后,需要考虑的部署,也能够使得用户不需要付出很大学习成本,就可以快速转换,从原来的WINDOWS平台,从移动终端可以访问原来的用户,而不会产生很大的学习成本。

    第三个层面我们对云之间的特别是私有云之间的优化,能够使得我们的私有云平台或者说多个数据中心之间的备份,数据同步和备份在内效率更高成本更低。针对云安全问题,提供了身份安全到应用安全的完整解决方案,在用户体验方面,我们利用应用体验监控到应用性能优化,针对客户体验优化解决方案,帮助我们的业务向云迁移过程中保证用户获得很好的访问体验,提高访问效率。用户能够在统一云门户上面,迅速完成对云的访问,在云接入方面,我们提供了接入平台,使得管理员在一个平台上面对对所有用户安全问题进行有效的访问。这个就是解决的云安全问题。

    下面介绍一下我们在这三个层面提供的产品和技术,说到云的安全,深信服一直希望提供的是一个端到端的安全防护,希望能够帮助解决用户云身份合法性,确保他们在正确的安全状态下,通过安全的列入,访问他访问权限的资源,并且通过基于云应用安全保护技术,保护云平台和数据中心,应对互联网和广域网的风险。谈到安全,很重要的一个基础就是我们的身份安全,大家都知道,我们很多的业务在局域网内或者在存储内部问题不大,但是访问上面安全面临问题,我们的客户管理系统,张三以他的身份访问云平台的时候,张三是合法的用户,但是在这个状况下他使用李四访问云上的客户管理系统,而李四权限很大,他看到组织所有客户信息,甚至还有可能能够把这个信息打出一个表格,这个风险对组织造成潜在的伤害有多大?如果我们不能够确保我们的用户的身份和他对应的权限,我们必然没有办法真正放心大胆把我们的核心业务迁移到云上去,所以我们深信服提供的云的接入方案,首先解决的是身份安全问题,可以通过比如说USPK,短信和硬件特征绑定技术,确保用户身份稳定性,我们也可以和第三方认证的方法,降低用户在云迁移过程中云的用户身份认证复杂性和成本。有了身份的安全和稳定性不够,我们只是保证了用户在接入云的时候身份是合法的,但是并不能不能用户在云的操作和他的行为合法性,我们对于比较关注用户行为安全和数据安全,对于某些特别敏感的业务信息,比如说我们在组织内涉及到流程或者涉及到业务流,审批系统,财务系统,这些数据没有几个人敢把它放在云上去,因为担心风险,我们经常在网上爆料,但是如果爆料的是自己,大家都不想。

    怎么样保证云的技术又能够保证用户身份安全性?深信服提出控制关键数据外泄技术。我们外乎访问云的技术时候,必须在访问上开一个虚拟化桌面,所有的虚拟化安全桌面上数据不能保存到本地,不能打印,不能拷贝,不能通过网络传播,所以我们控制了信息传播范围,而一旦用户退出安全桌面,所有反存到本地数据被彻底销毁,这样才能真正有效保证核心数据迁移到云上去以后整个可控性。另外刚才提到案例,其实还表明了另外一种风险,也就是我们传统业务做相应的权限控制,以及身份的合法性的唯一确认的时候,是存在一定隐患,或者存在缺陷,针对这一点我们在云用户业务授权和他身份确认方面提出了云技术,我们对云技术应用或者访问授权甚至细化到UI,比如同一个WEB应用不同地址访问权限,都可以予以不同云用户。还有张三登录到云上面是合法的,但是当张三以李四身份登录上去是不合法的,深信服提供了应用技术,能够进一步核对张三以什么身份访问客户管理系统?当张三试图以李四身份访问系统的时候,我们会直接拒绝对这个系统访问,这个系统访问是非常简单,而不需要改变原有的技术系统,通过这个技术实施我们把用户对云接入身份,和对具体业务身份,进行了唯一的绑定,通过这种绑定我们能够确保开放到云上的业务,是被可信的人在可信的状态下进行访问的。

    至于云平台本身我们看到的风险问题其实很简单,传统的安全方案是把一些多样化的安全技术,比如说防火墙,比如说APS,比如说WEB进行了叠加,而这种叠加像一个木桶,不说木桶每一块板是不是一样的高低,板与板之间的缝隙导致这个木桶根本流不出水,所以深信服推出基于下一代应用防火墙技术,通过一体化制冷分析,把多样的安全需求,相应的功能和技术进行统一的整合,像一次成型的木桶,不会有缝隙,不会存在高低不平的地方。所以站在业务和应用的角度帮助用户提升云平台的安全。

    讲完了安全问题必须面对另外一个问题,所谓的优化,优化到底优化什么?在我看来云接入优化最重要的是优化用户,对云对数据中心,对业务访问体验,访问体验直接决定组织的业务效率和对公众用户的吸引力。刚才已经提到了数据,我们的业务在局域网内使用很顺畅,但是迁移到云上去以后,由于广域网和英特耐特带宽的大小和稳定性,远远比不上千兆、万兆局域网,所以当迁移到云上去以后,必然会面临效率的问题,原来在局域网内使用非常快的业务在云上可能没有办法保证可用性,速度可能从原来箭步如飞一下子缓慢使用,这样的情况下我们组织业务效率会受到影响,我们对租用用户体验,将因为体验的差异而损失客户,我们还有必要或者说我们还敢把我们的业务迁移到云上去吗?

    云计算是大势所趋,所以我们今天讨论的不是能不能做?要不要做?而是怎么样做?能够做好的问题。深信服提出理念,我们要真正感知用户体验,我问大家一个问题,你给你的内部客户或者外部客户提供的客户体验怎么样?好还是不好?有人能够回答吗?我相信很难回答,至少是没有量化,没有办法量化回答这个问题,所以我们提出的理念,要优化先感知,怎么感知?我们的客户体验到底是好还是不好?深信服提供的是基于用户管理用户感知方案,通过这个方案分析业务流量,分析用户,我们很清楚地有哪些用户通过什么环境,访问了哪些应用?这些访问速度怎么样?有没有出错?并且提供非常完整清晰地报表,帮助我们展现整个业务优化过程,通过这个过程知道终端用户包括内部客户和外部客户,他们对我们提供的业务,访问权限到底如何?有的数据基础,有了感知的节才能感知用户的体验。所以深信服解决优化解决方案,主要从互联网和广域网的整个优化来帮助客户提升我们迁移到云上去以后的业务的可用性。

    说到接入优化,我们可以从几个层面看,比如互联网用户体验怎么提升?传统的解决方式把来自互联网的用户,尽可能分配到合理的线路上去,让每个用户都获得相应的用户体验,但是只是说基本的保障,还谈不上优化,那么深信服提出云接入优化,针对互联网自动优化方案,主要是单边加户技术,通过这个技术不需要终端软件或者浏览器插件的情况下,让用户能够获得更快的访问速度,这种访问速度针对这种高实验和高丢包的移动客户端效果更为明显,不需要客户端安装软件和插件,我们提供电子商务或者在线交易服务,这个技术非常好,因为在不改变外部条件情况下,直接提升终端客户访问速度。对于我们的广域网端,比如说私有云之间,我们的私有云和分支机构之间,还有包括现在传统的数据中心和分支机构之间,他们的用户体验该如何提升?这里的技术非常多,我们主要通过流量的可视与带宽的管理,基于广域网技术优化加速,来提高广域网端的用户言论,这里分享一个简单的技术,这个就是数据流荒技术,通过这个技术把原来专线上否认用度的流量,缺点50%-90%,我们的专线上的流量能够迅速削减,进一步减少带宽成本,至少帮助我们延缓带宽获取的压力。同时我们还使用了一些基于TCP协议的优化部署,使得我们在部署了广域网技术以后,在两端用户的应用,使用速度平均能够达到3-5倍的提升,这个效果非常明显。

    这个是我们采用的广域网优化,以后它的效果的直观体系,我们可以看到,带宽的食盐越大,丢包越高,它的优化的效果越为明显,所以我们在这种情况下,特别是我们的业务迁移到云上以后,由于互联网和广域网上的食盐,低带宽局面应用了技术以后,能够进一步保障我们的应用的使用效果,从而保证用户访问体验。在接入优化这一块,还需要提供端到端带宽业务管理,为什么强调业务的带宽管理而不是软化流量上的带宽管理?传统基于少量的端口进行少量的证验,但是我们发现我们的业务越来越复杂,应用越来越多,同样以前80端口现在有非常复杂的业务在里面,所以深信服提供端到端的技术解决方案,能够帮助我们甄别最大的应用,在同样的端口,这里好的不同的应用能够区分出来,准确区分出来,并且提供基于业务和用户的带宽保障和管理的策略。

    以上这三个方面能够帮助我们的用户,优化我们的云接入,从而保障我们的业务能够顺畅平稳,可用上的几个基础点。下面我们在云技术这一块如何帮助用户降低迁移的成本,提高用户的满意度?在云端接入门户这一块,我们看到左侧基于终端统一的云门户,不管接入私有云还是共有云,可以在统一的门户上面去访问到他所有能够访问的云业务,右侧体现的是我们对云端在接入管理方面,提供的门户,管理人员在一个统一界面上,管理基于异构分布式集群,还有统一的接入门户,这样能够简化用户的接入流程,提高我们接入管理的可用性,降低我们在接入管理方面的部署成本和维护成本,这个是我们在终端统一接入门户上的一个案例,大家可以看到这是一个IPAD,通过我们的容易客户端,用户经过严格身份认证以后,可以迅速进入云内,或者数据中心里面,能够看到所有他能够访问的业务资源,并且对于一些我们的传统没有办法在IPAD上运行的应用,不管是需要安装插件BS应用还是CS客户端软件,我们通过深信服远程技术,把这些应用平滑扩展到各种包括IPAD,这一类的终端上,可以帮助我们快速把我们原来在局域网内,在数据中心使用的业务,直接无缝平滑迁移到我们的云上去。这个有效帮助我们减少迁移成本和转换成本非常重要的一个技术。

    从云接入管理角度说,首先我们的云端的门户,能够帮助远程用户实现就近接入,能够以统一域名直接访问最近的私有云或者共有云平台,对于客户来说不需要理解或者不需要知道云到底怎么架构?我的云在哪里?该接入到哪个云?他只需要我们组织告诉他统一门户的地址,进行相应的认证之后,就可以直接接入到应该访问的门户上。这个也从一定程度上解决我们的云的业务安全的问题,像亚马逊遇到的问题,通过这个技术可以有效解决,我们通过部署多个私有云的平台,只要还有一个私有云能够保持正常业务,所有用户业务不会受到干扰。从另一个方面来说,我们的管理员对云的接入进行管理的过程中,有效使用到深信服提供的管理门户带来的效应。首先可以帮助我们的用户,把一个接入的设备进行虚拟化,虚拟成多个不同的接入的门户界面,对于共有云服务供应商,通过这种方式把一台高性能设备,虚拟层N层独立的设备,对于他的租户或者使用云客户来说,看到了一个属于他自己,能够自行掌控用来实行用户接入管理的平台,所以在这种情况下我们的用户就能够很放心大胆租用共有云提供的服务。

    同时深信服还提供了集中管理平台,来对我们在云接入方案过程中,涉及到广域网优化,VPN,应用交互,下一代防火墙提供管理,以上是深信服针对云接入如何帮助客户实现云切换的介绍,我们主要从云端的安全、便捷和优化的角度阐述我们的解决方案,由于时间的关系,没有办法进行很细节的介绍,如果有兴趣的朋友,可以接下来的讨论过程中进一步分享,我们也会进一步提高我们的产品和解决方案,对虚拟化和云计算的匹配,未来我们会把我们的设备变成虚拟化的软件,能够直接运行在整个云计算的虚拟化平台里面,以上就是深信服针对云统一接入方案的介绍。谢谢大家!

    刘嶷:深信服公司我的印象非常深刻,他们公司最好的描述就是特别懂中国,这是因为有几个产品印象特别深,一个产品最VPN产品,他们公司就是WWW.VPN.COM,第二个印象就是上网行为管理,你告诉老板上网产品,下一个月干什么我全部知道,特别说服老板,但是员工特别痛苦,还有广域网加速,我们当时听说这个产品非常吸引,国际上也是很少做这个,当时深信服做这个产品,我们当时也很惊讶,也是拭目以待,现在的产品比较完善了,现在的产品特别美妙,是高效、安全、便捷三个词,看出脉络,统一接入统一云端,当时做产品的时候还没有云概念,到现在公司的产品线的规划跟业界的发展,到现在是完美匹配在一起,这也是见到一个公司的实力,下面有请IBM中国研究院云计算首席科学家陈滢先生,介绍云计算架构下数据中心发展趋势的报告。

    陈滢:大家中午好!前面的几位专家讲的很好,有很多技术介绍,我今天来不代表IBM公司,特别感谢张总请我过来,我做软件,对数据中心不是专家,今天讲一下云计算下的发展趋势,从刚才三个专家介绍产品过程中,稍微超脱出来一点,对做云计算架构下数据中心发展趋势,下面所有的言论代表个人的言论,可以把云计算看成,第一个是CLOUD目标大幅度降低我们的开销成本,无论对企业来说,无论对运营云计算的服务商来说,还是对自己来说,CLOUD  EUFICIENT,是非常大规模的,现在LORGE-SCALE都需要对大规模商业化硬件上,如何容错,如何提供一个非常棒的服务?另外是优化,这个非常重要,专家们针对数据中心,各个方面的体验和优化,云计算重要的技术,我们在云中心里面,它的所有负载针对哪一种负载优化,我们经常说开发视频云,我们经常说这是视频云,这是电子商务云,每一种特征不一样,所以云不是一朵白云,是彩云,不是一个云摆平所有的事情。

    USAGE-CENTRIC我们是用水用电,是一种云计算的方式,向用户收费的一种方式,所以对用户的使用,无论对底层资源还是对操作系统,还是对应用的资源,如何使用都有非常强劲的监控整个收集数据做评测的方法。DELIVERY  MODEL不要看成云是一种技术,更多从商业角度考虑,云技术模式颠覆了从传统开发的模式,是一种新的非常颠覆式的创新交互模式,不仅仅是技术,还包括很多技术。你对数据中心有什么印象?数据中心在过去10年发展很快,数据中心能效比,它的密度,它的能力提升非常快的,在我们10年前,20年前我们对数据中心的印象可能就是钢筋混凝土,机房,可能没有正规的机架,一些图形摆在那里非常零乱,网络非常多。数据中心不仅仅是企业内部仅仅是存放,我的网络设备要有统一的非常方便的管理,实际上已经成为企业它的核心竞争力,它的数据,它的流程,它的应用非常广泛,亚马逊前两天出事了,是艾墨生数据中心。数据中心对现代企业而言,它的价值,它的关键程度是非常重要的。云计算对数据中心的影响,数据中心这张图上说,数据中心跟云计算是一对冤家,从右边来看,我们在应用的时候不断有新的需求出现,大规模我们需要融合的网络,需要有很好的用户体验等等,需求不断出现,像里面各种僵尸不断出现,我们需要有不同方式应对云,第一我们需要绿色数据中心,这个问题在过去两三年非常重要了。第二个高密度和大容量。第三负载动态自适应,我们要可视可控,我们需要高度自动化。

    绿色数据中心是数据中心前沿研究重要的一点,对中小企业有自己的数据中心,对大规模国企在全世界有很多很大数据中心,像谷歌来说,数据中心非常重要,所以数据中心设计,非常艺术的活,因为再多数据中心不仅是传统IT工程师,现在有做空气动力工程师,要冷热,要有能源专家,甚至细小到要有设计、主板等等,各行各业专家都汇集到做新一代数据中心战场上来,为了做到更高效、更简短,这里提到PUE ,给数据中心供电,有多少用在真正的负载上。FACEBOOK已经达到1.07,美国有一系列的标准定义,达到什么级别什么。中国的很大企业是在2.0-2.5之间,能效1.5以上,但是FACEBOOK已经超越1.07,超越了谷歌水准,数据中心不仅仅是建设,这里面空调,电源分布模块,稳压电源,包括硬件、软件各方面都有节能考虑,现在大多数考虑制冷,其实从硬件,从CPU设计到系统设计到应用,都应该市设施、硬件、软件,所有这些代表了下一代绿色数据中心发展技术上新的趋势。

    第二高密度大容量,因为现在到数据中心看到越来越大的标准,它的密度、它的容量消耗功率非常大,越来越热,现在很热的一个机架消耗多少功率?从企业来,你们一个机架现在消耗多少电能?最热的可能要接近20千瓦一个机架上,这里对散热有新的挑战,但是密度提高永远是我们在设计的时候一个趋势,这里出现了很多方法,硬件设计上有刀片各种各样,软件设计上虚拟化,让整个服务器使用和利用率得到大幅度提升。融合网络可以得到数据中心数据,包括融合网络,用的IC通道可以和以太网结合在一起,使得整个数据中心网络架构变成统一,后面带来的各方面开销同时降低。在高密度大容量之下对数据中心气流设计有极大的挑战。FACEBOOK对气流的考虑,从整个数据中心对每一个SERV考虑气流的走向,地板下面冷空气怎么走?热空气又怎么回来?冷热空气不相互干扰。每个数据中心的数据不一样,每个数据中心的内部有很多不同热点,要做很多优化,不断监控,不断优化,从设计实现到我们不断地监控优化的过程。

    优化过程监控过程其中一个重要的就是负载迁移,这个原来不容易做,但是新一代技术支持下,负载迁移已经不是一个梦,不是说所有的负载都可以迁移,也一些英特耐特应用负载迁移很容易,我们借助FACEBOOK虚拟化技术能够对负载进行迁移,然后用监控技术看什么时候迁移?为什么迁移?可以监控到数据中心底下的图,监控到热力图,哪个是冷的哪个是热的?在整个配置下进行考量,还提到环境的感知,刚才也有嘉宾提到,我们这里应用在机架上哪个位置?要能够感知,所以这里有新的方向,很多做的3D技术中心,所有的你的企业应用的配置,从底向上,要能够被扩展容纳很多在数据中心原来不需要容纳,比如机架信息具体位置,这里有很多新的技术趋势,可以用到新的数据中心。

    可视可控可度量,一流房子二流设备三流管理,我们的一些管理在云计算架构下需要做什么改进?需要什么提高?把原来最佳实践应用到云计算管理,全面监控,我能够在很高地方看到数据中心,可以想像,几年前我们在我们的研究院,看五个地球,到北京、到上帝,到中国研究院,再往下到机器里,再往下机器里装什么东西?再往下机器里有什么配置?可以把整个数据中心都一览无遗,这只是浏览,要监控他,要知道它变化进行变更管理等等。可视化工具非常重要,只有监控是没有用的,关键监控来的数据怎么呈现给你?怎么以非常好的方式,让你看整个数据中心的监控状态,非常重要,这一点没有哪个厂商做得非常出色。

    最后我说度量!度量!度量!从第二天起全部是监控的事,不断监控,调优它,改进它,所以度量、监控、感知要细到很细,一旦有问题出错了,这个问题会涉及到数据中心的哪几个问题?如果数据中心没有电了,就知道企业会受到影响,我们叫做你的影响分析,一旦发生问题不受影响,马上采取措施,就是可视可控度量。把自动化发挥到极至,这是云计算的新的要求,有非常多的物理机,要做到随时负载迁移,这里人永远不够,先想一下装1000台机器要多久?一定要有非常好的技术,能够做大规模的自动化。把人的一切错误排除在外,这里有一个标准,没有一个标准也是衡量数据中心的管理,比如谷歌一个人能够管理2000台或者5000比,只要10个人,比如谷歌3000比,可能需要20个人,但是如果是300:1,要做到10倍个人,我们经常说回车来了不要喝咖啡,回来有很多事情做。业界很早认识到包括做硬件和做软件,都意识到高度自动化解决方案,这里的挑战装OIS装裸机非常容易,器件当中有很多东西需要处理。

    我刚才谈到云计算,现在已经对数据中心有这么多要求,云计算下一轮发展方向,总结成云计算发展的趋势,提升用户体验就是可使用性、可消费型的一部分,给用户非常好的体验,能够用你的技术,使用你的云计算,这里包括安全等等,LEAN  OPERATION从制造业出来,在我们的管理流程里面怎么简化管理?简化流程,需要数据中心变得更容易,变得更融合等等。Open我们要云计算要变得更开放等等。这个有更多无数设备,物联网都可以连入到云计算,挑战很大,实时进行数据处理。类似做的阿里巴巴的模式,把一些企业传起来,你的企业传起来,有很多企业高峰时没有资源,他可以临时买,自然形成中间商,有多余的卖给你,或者有两家,不知道哪两家,在关键时刻取得你有效的资源。对于数据中心,这完全是我的想象,但是我现在看CONSUMABILITY多数据中心,可能是数据中心的融合,比如对电信、银行进行数据中心整合,但是大规模尤其现在谷歌等提供商,他们是多数据中心发展,因为这里云计算采纳,很多不是技术,还有很多政策各方面,中国是最大的局域网,我们有很多问题,而这里多数据中心可以解决很多问题。

    LEAN需要更加简单自动化流程。OPEN开放架构,技术。UPIQUITOUS就是集装箱非常容易集成,非常容易整合,非常容易便携,数据中心模块化便携化是一种趋势。数据中心联邦可能不是统一的厂商数据中心,他为某一种目的而做了联邦,解决某种问题。举个例子,谷歌在两年前代表云计算最高水平,谷歌一直把自己的数据中心的采用的方式方法工具作为秘密保密起来,IBM和谷歌早期合作,IBM数据中心里面看不到,只能站在外面,谷歌数据中心的方法做得很好,在美国也有,管理几十万,上百万台机器,POE达到5万,每分钟都有设备宕掉,可以按照方式算出来的,这里谷歌代表了业界的代表,但是谷歌没有开放,可以看到谷歌在数据中心里面的操作,是踩着滑板在数据中心抱着走,提高效率。到将来可以看到每一个产业,只有创新没有开放,所以FACEBOOK迈了一大步,我把所有的主板小到AMG英特的主板到电源,到机箱,是裸露,硬盘在前面,后面是透风的,磁盘放东西快,换东西很快。这里面在SEV层面,FACEBOOK的SEV都是自己传的,一个SEV有多少GU?FACEBOOK的SEV是1.5U,他们做了详细地评测,大小风扇使用功率和排放的效果比1U大很多,但是比2U差不了多少,所以在1.5U可以装更多机器,但是排风效果很好,所以他们在数据中心,企业的数据中心也没有精确预定,每个企业数据不同,这是SEV包括FACEBOOK在整个数据中心构架,包括主板全部都有,云计算玩家从数据中心怎么建?到虚拟化技术,到上面技术软件,这个圈将来可以开放,对这个产业振动很大,代表着新一轮创新的精神,已经把谷歌抛在后面,大家的秘密全部公布出来,数据中心怎么建?它的FACEBOOK都不是用的常规的电,电压之间不一样,证明我的电压进来转换率高,可以提高整个电压效率,因为电源进来通过UPS损失很大,所以代表一种业界实践创新。

    我们云计算下数据中心的思考,这是普遍看我们的应用,硬件操作系统中间的应用,把所有的东西放在一个数据中心里,它的发展以前写硬件,做中间件都不考虑数据中心,当你做硬件,长度跟机架一样,其他不考虑,尤其做中间软件不知道放在哪里?但是数据中心是否重要?我们做这样的事情,要考虑一些软件,有一些软件要知道软件是否装在一个机架上?通过这些东西对它的应用优化,复本怎么放?所以数据中心发展一定会标准化,流程化标准非常高,对下一代数据中心优化产生新的技术,OPEN问题给大家考虑,对软件没有影响。所以我在这里做一个广告,大家有什么问题可以上来提,虽然我不是专家,但是对数据中心比较关注。

    刘嶷:谢谢!下面有请资深技术工程师杨劲松给大家带来Novell云计算基础架构建设的演讲。

    杨劲松:非常感谢今天大家有机会参加这个大会,我是Novell华东技术的工程师,Novell是一家老牌的IT的厂商,在现在云计算,也是大家所应用,之前大家觉得这个东西是虚无缥渺的东西,现在已经有很多厂商或者很多企业云计算产业中心掘了自己的一桶金,所有老牌IT厂商对于云计算基础架构怎么实现?这个数据中心的,这个也是我们在数据上看到,有15%在数据中心的云计算平均使用值15%,还有很多技术能力浪费了,在灾难关键负载工作中,只有20%的比例,相当于80%预算花到了灾难上去,同时在未来三年终部署的虚拟服务器对物理服务器比例5:1,认为混合环境的管理至关重要的客户比例85%。我们的挑战是服务管理,我们衡量数据中心服务的好坏?对于数据中心来说,我们还会考虑很多其他的方面的一些需求,包括电力、包括空间,包括制冷这一块,包括成本这一块,最后以最大限度利用当前或者未来的IT投入,实现数据中心的规划或者整合。

    我们看一下数据中心基本演变过程,我们在70年代初期,大多数大型机或者主机为中心,很多应用在主机上面,那个时候已经有虚拟化基础,把很多业务集中在大型主机上应用,因为插86标准硬件出现以后,把很多业务应用挪到普通标准插86标准件上面,也涌现了一批虚拟化同时,包括BIG等一块,到现在以云计算为基础的数据中心的架构。我们看一下云特性的相关定义,Novell的定义有共享的基础架构,基础架构在所有服务中会共享的,不要为每个应用构建不同的基础架构,在我们云计算数据中心当中,更快谈反应,随需应变,根据客户需求或者自身需求,减少应用规模或者扩大,对于普通用户来说,我们这里云计算可能跟用水用电一样,按照的计算量或者流量对整个服务收取费用。最后我们对数据中心需要采用开放的英特耐特标准,同时对系统服务,我们需要有一个明确的评测的东西进行评测。

    我们看一下Novell用于构建管理云计算平台的智能工作负载解决方案,把所有应用分层工作负载,除了和硬件相关系的内存以外的底层东西抽象出来以外,把硬件之上的包括硬件系统,包括操作系统叫做WORKROOM,在任意一个系统里面可以移动,这边是硬件的服务器,现在来说基本上大部分基于插86硬件,在上层整个云计算环境里面,虚拟化是我们最重要的底层的东西,我们会有看到ZOM,还有微软的这一块,在上面对整个虚拟化进行管理,通过ESB总线包括EM管理,整个全部都结合起来,这个是我们整个底层的基础架构,我们可以基础架构上面做定制或者做自己的应用的开发。

    我们Novell,其实关注于下面这部分,包括管理、安全、评测、构建,基础设施就是由硬件厂商提供,我们这边用户门户,服务商门户提供底下基础平台,然后用户根据自己的需求定制,之上像IAAS、PAAS可以自由构建,我们Novell主要关注红色这一层,底层的构建Novell因为在2003年收购了一家公司,我们有技术同时我们做一些定制化做一些裁减,我们这里有SENTINEL做定制,管理这一块有PLATESPIN,评测有BSCM,用户的门户简单做一块,可以进行高度定制化,首先看一下构建这一块,还是我们虚拟化的基础,我们Novell里面采用的是R虚拟化技术,现在已经在云技术方面广泛使用,包括亚马逊这一块,我们虚拟化这一块不限定于任何厂商,包括我们的ZOM都可以进行管理。因为我们本身集成了ZOM,因此从成本上可以为客户节省很多成本,同时整体性能化也会非常好,特别是在运行的时候可以体现半虚拟化趋势,可能接近物理体系的系统。

    我们看一下管理这一块,因为在整个数据中心运行的过程中,我们很少看到单一的环境,全部用一个公司产品,肯定会有各种各样的产品,我们看管理这一块,分为几个部分,第一个监控,第一个我们要监控整个负载到底运行的情况怎么样?我们可以时时刻刻监控整体的数据中心的运行状况,可以跨平台,包括WINDOWS,都可以对它进行监控,整体了解机器到底怎么样?同时我们在做整合或者做硬件服务器的合并的时候,提供非常详细的参考,里面内置了很多硬件服务器的参数,包括这些常见的品牌,包括甚至里面电源的管理,比如说让它帮我们抽一个详细的表格,我们的服务器到底怎么样?做好了整合以后到底需要多少台服务器?电力情况怎么样?做好整合以后电力的情况又是怎么样的?都可以通过这些工具做管理规划。做好了规划以后可以看到,因为数据中心无非是从新的从头开始构建,刚开始在构建虚拟化之上,但是基本上不太可能,目前很多应用跑在物理应用机器上面,因为我们要负载互相做迁移,可能构建虚拟化之上,非常重要的需求如何把物理机器转到虚拟机器去?转到虚拟机之后可以再做二次监控,到底性能怎么样?因为不是所有的应用都适合于虚拟化,有可能部分应用迁移到虚拟化以后,可能觉得不会跑的特别顺畅,还可以回迁到物理机器上,这个回迁过程中迁到一构上面,刚开始应用好,回头迁到虚拟机上,我觉得运行效率不是特别好,再往回到物理机上,不一定到原来的机器上,换一台也没有关系。

    对一些重要应用对负载机的保护,因为在云计算整个环境中安全是首要的问题,怎么保证数据中心能够快速恢复?我们这个有工作负载保护,保护了整个负载,包括操作系统,包括应用,包括客户数据,都可以做全部保护,可以恢复,可以恢复到虚拟环境里面,也可以恢复到整个物理环境当中。在数据中心整个的演化过程中或者运行过程中,我们可能会采用很多技术,特别是虚拟化技术,我们可能在比较之中或者运行过程中,选择不从的虚拟化技术,如果WINDOWS环境,微软环境,我们可能选择在微软环境上,所以在现有的环境里面,基于虚拟化技术都会存在,怎么把整个虚拟化基础的平台做整合?做整个管理?我们这里有一个平台管理ZOM,可以管理各方面,进行统一调度,对于上司来说不关心到底后面用什么样的虚拟技术,只关心虚拟多少?跑到什么地方?用户只关心自己,不用关心采用什么虚拟化的技术?可以把自己的重心集中在业务方面。

    我们把虚拟化管理起来以后,怎么合理地分配合理地调动,我们基于策略,定SLL级别,可以智能管理工作负载,比如什么时候迁移,或者什么时候进行过载,或者什么时候进行缩减?都可以定一些策略,以策略驱动整个数据中心的运行,这是控制中心可以自动发现虚拟机的环境,根据我们的策略,可以做迁移或者说控制比如整个机器的资源,整个物理资源容量都可以对进行控制。我们看看这个,刚才我们说了管理这一块,对于底层进行管理,管理好了以后怎么对它进行可视化的评测,或者对它服务级别怎么评价对我的服务到底是好是坏?我们对业务信息整合管理有关联,对业务整个虚拟化对信息进行管理,同时收集整个虚拟化运行环境相关的信息,同时做一些整合,给用户呈现出来,我们可以通过对面向业务重点的VM进行监控,为了提高整体的服务级别,我们会把客户分成几个级别,对于金牌客户,我们监控的东西更多一点,对于用户来说监控的东西少一点,可以做这样一些定义。

    对安全这一块,我们尽量会有一个整个解决方案,整个安全信息中心,会把所有在我们数据中心运行的相关东西日志,包括操作系统,包括应用,包括数据库,甚至包括硬件,比如交换机,各类交换信息日志可以收集起来,做关联的分析,第一步对整体日志进行收集,光收集没有分析没有意义,收过来一大堆数据,我们做聚合,减少存储量,根据关联规则进行定义,我们定义很多,比如资产分为级别,这个资产级别非常高,我认为这是一个东西,可能有些资产价值比较低或者分房五次,我们可以做一些定义,如果有这样一些东西立即反应出来,或者可以通过图表帮我们反应出来,如果结合比如地理信息,马上追踪到这些信息是哪个地方发出来的,比如在这一块跟踪到IP工具从哪个地方产生或者从哪个源头过来的?有一些很完整的可视化展示。同时我们知道云计算可能把很多的应用集中在一块,集中在一起有风险,其实是人为的风险,对于IPC或者云计算数据中心说,对管理员掌握了一切,如果这个管理员存心破坏什么东西非常容易的,我们怎么对管理员权限做监控做控制,我们需要对他进行限制,否则管理员就是我们在整个云计算或者数据中心里面最大的安全隐患。我们会记录超级用户的操作,包括他的键盘、输入,包括整个操作的输出,也可以规定他做什么事情,哪些事情不能做,如果违反了规则,会马上通知监控人员,他做了非法的事情,马上知道这个管理员是不是在过程中违法,可以马上知道。

    在云计算最重要的一块,云计算很多的客户,我们之前也跟很多客户聊这个东西,客户的问题说我数据放在自己的数据中心里面不太安全,还心虚,放第三方安全,所以安全在云计算里面非常重要,我们Novell有一套身份认证和安全解决方案,基于我们整个Novell解决方案可以做统一认证,可以对权限做定义,可以对整个用户的身份或者他的权利做一些定义,还有一个对他进行日志的记录审计,同时以核规划管理,如果违法了规定,第一步允许操作,第二步管理人员会知道,发消息会知道。

    这是我们整个安全的一个体系,我们这边有SAAS的东西,是集中认证的东西,我们有很多接口,可以和现有企业里面的身份认证的系统结合,因为我们里面内置了很大应用接口,非常容易使用。对于上层来说就是用户门户和服务商门户,门户这一块基本是IEC用户做定义,我们也做了一个简单的产品,我们在这个产品里面提供自我服务,自己用户可以自己申请虚拟机,或者申请了以后对你做批准,提供模块可以快速地我们的应用,同时共享,在云计算里面基础架构里面,肯定不会是某一类用户独享技术架构,是共享的。同时对基础架构做价值成本的分配,可以按照流量或者比如说定义CEO多少钱?1G流量多少钱,可以根据简单的帐单管理,这个只是我们比较粗糙的雏形,其实更精细化的东西,还是基于ISB或者开发人员,做进一步优化和更进一步细化。

    这个Novell里面有几个,刚才我们看到的这些基础架构软件里面,包括这几样产品,我们这几个产品也可以单独作为企业基础架构里面的软件来使用。我们看一下最后总结一下整个云计算基础架构产品的特点,第一个是我们的开放,不局限于某些底层的虚拟化厂商,不管是微软也好都可以支持。第二个集成,包括对日志建构,包括审计,服务级别管理都集成在一起。还有互操作和可管理系统。谢谢大家!

    刘嶷:谢谢杨劲松的演讲,现在抽奖,奖品是上海市公共交通卡,非常实用。刘志刚,是富士康中国信息通的。还有一位新蛋中国信息技术有限公司,上午的会议到此结束。

    下午

    刘嶷:下午的会议开始,现在有请上海数据港投资有限公司总工程师的汪如清演讲。

    汪如清:大家下午好!这次组委会给我的题目,我作为用户假如从数据中心建设方面,假如说用户以谈为主题,这个题目很难,因为我一直主管技术,我在这个行业里面入行今年是第37年,在数据中心建设方面有很多成功的喜悦,也有失败的教训,但是也有同行成功的案例,所以今天就以"谈"为主线介绍数据中心在建设过程中的遇到的一些问题,由于数据中心在整个建设当中是相当大的投资,我们公司叫做数据港投资有限公司,有很多朋友问我,你们公司怎么解释?到底属于投资方案还是客户?我们做一个通俗地解释,对我来说我就是投资商,看什么地方缺少数据交换量,我们在这个地方找地,找房,找电,还要适合通信的带宽,假如说这些具备我们要投入,比如入主的地方在四北,也是和三大网络运营商之一谈项目,最后没有办法只能是自己建才来解决电的话题,这个问题也会在数据中心建设方面作一些探讨。

    首先我占用很好的时间,我把我们公司介绍一下,数据港投资有限公司在整个云计算产业,我们做得先行者,整个上海云计算产业基地就放在我们这个公司,所以我们公司是在闸北区四北高科园区,我们的企业属于政府控股的合资公司,我们公司成立不长,是从2009年的10月份成立的,当初也是看重,我们的区政府看重数据中心的投资规模,所以成立这个公司,公司成立2009年的年底,我们已经有了国内的网络运营商入住我们的园区,所以我们的公司也是在今年市政府工作报告上,韩正也在今年的十二五计划里面,把我们数据港投资有限公司列为政府的项目。这个是我们的CEO随同胡主席一起出访美国,他带着铃彩页项目到美国去,这个在中美环境说明会上做的演讲,这个是我们公司成立以来2年多,也得到了市政府的大力支持和关心,这个就是我们微软数据港云计算应用孵化中心,也是入住我们的企业,这个是整个挂牌的产业基地,所以我们公司在上海的位置,应该是在上海的正北面,我们的这个园区也叫做四北高新园区,以前上海北面大的工业基地,很多大型工厂在这个地方,但是随着改革开放这些厂迁到工业园区,我们看重这块地方有电,在这个地方建立了大型网络,数据交换输入,比如移动、电信、国家电网,都在我们的园区。我们的数据港也在这个园区,目前建立服务期的托管量,有三个模块,一个模块是20000台。

    这个是整个数据港在云计算中的定位,我们也知道数据交换量通信量相当大,但是这一块我们做了统计,不一定对。有的统计今年的总产值将近1000个亿,也有说不到800个亿,但是不管怎么说肯定会超过500亿,所以我们这一块做的是云计算数据中心的基础建设,说穿了我们就是盖楼、建机房,造电,楼也盖好了房子也建好了,投入好了,装修好了,我们顺带做管理,是基础设施托管服务上。这个目前来说和我们长期签的合作协议的用户,数据港公司技术体系主要是云计算的基础设施,这个适应快速部署,现在整个通信量相当大,举个例子,去年10月1号的时候,在淘宝的时候做了网购,那天数据流量相当大,一秒钟资金进入相当大,当时和我们商量,你们这边有没有服务器?我们把所有服务器全部整理出来,但是还不够用,所以这一块我们根据这个思路,在今年我们会投入大量的投入云接入项目,主要应用做快速地部署。

    第二项方案完全实现云计算为中心的内部资源的虚拟化,这个主要做管理人员,做动态监控、动态管理和调度,主要是服务器。另外一个做云服务器的存储和计算体系,这一块我们考虑到主要是硬件,举个例子,为什么说现在做云计算?云计算从我们建设方来理解,就是耗电,谁都不怕,我主要负责硬件构架,假如说硬件构架建立云计算的平台,耗电量大得惊人。我刚才说的例子不一定对,假如说我们以齿条,以今天会议为中心搜索这个词条,把一升水20度水温烧到100度,所以耗电能量是多少,我们在以后运行过程中,既然我们是客户,反过来说我们也是供应商,所以对客户来说要考虑到运行的各方面的节约,现在讲的最多的是PU值,有的时候我的PU值达到1.5几,我认为1.5几最为准确,因为PU值有很多算法,但是作为硬件来说,把所有的耗电应该算进去,假如说我们的环境和空气比较好,可以采纳一种好的方法,这个计算从12度开始计算还是从10度计算,还是从上海最低低温在零上2度计算,数字不一样。假如说某一天1.2,可以认同,所以这一块我们也是数据中心建设的时候加以考虑。怎么考虑?尽量把多余的费用空调带送能源想办法利用起来。

    另外一个云计算的解决方案,这个主要为了各大运营商有所需求可以量身定制。刚才说的整个云接入做的建设,但是所有的建设在国内来说都会有一个标准,实际上我们现在做的时候针对这个标准有些困惑,从我来说因为我在设计院有16年,我们做设计也一个思路,甚至可以优化,建成一个数学模型,把负值负进去以后有没有结果,这个结果是愿意看到的还是不愿意看到的?但是现在针对标准来说困惑,建设一定要有标准,标准是法律不能违背,假如说违背出现了问题要承担。现在国内标准主要依据电子信息机房的设计规范,现在虽然是501742008,这个标准和老标准没有差异,只是把部分条款更适应现代了,但是没有突破。这个是国家标准。

    第二个我们现在做数据中心往往和外商进行沟通,进行服务,肯定追求境外的标准或者境外的做法,境外的标准和做法和我们的标准是否统一起来?这里有两个,国内的标准以国家利益为主,但是境外的这些标准以私人的利益为主,肩负国家利益,这样和不能说是相反,由于国家的体制不一样,所以这个也有所差异。但是这两个标准对应都是一样,一个是ABC,一个是1234,这两个标准目前来说我们做数据中心都是按照国内的标准,和美国的行业标准。但是美国的行业标准我们只能是做参考,不能拿来用。这两个标准差异就是伦理,这个设施按照容错还是按设施的场地配置?这两个配置差异很大,打个比方现在假如说我们做20000台服务器的云,硬件构架,它的耗电大概是13兆,加上空调,加上外围的,假如说这个结构做得不好得不到利润认证,能源耗电量相当大,假如说做2N+1,国内的是A级,加92是四级,按照这个要求,是不是说我有一路电还要有备电,除了备电以外还有发电机?试电有问题了,20000台服务器耗电相当于是13个兆,我们基本配到16000个KBA,2N每一路各50%,中国的计费除了耗电费还有容量费,每年消耗相当大,假如说头脑风暴,没有人同意你把这个去掉,因为这个数据中心太重要了,假如说我有一路电了怎么办?再配一套电,再配一套发电机,有了发电机再配发电机,这是A级标准,现在除了政府不拉电以外基本不会断电。

    另外工程施工挖路把电拉了,基本4个小时就能恢复,这样一来把T4变成T3加,在T3里面在国内没有相对应的标准,但是在TI942中有标准,实际上是备份的关系,B级和C级在数据中心不采纳,T次不觉得安全,T2和T1更不安全,所以在国内做机房按照A级做,设计是很好的,可以很好的设计,但是到施工以后问题出来了,第一个现在的劳动力的来源几乎80%是民工,虽然是管理者是高层管理,管理很好,但是具体事谁做?假如说推到30年前建电机房,假如说做机电安装设备,由机电安装设备公司做,徒弟是师傅做,他们那时做的活相当好,没有挑剔,现在机房做的造价很高,结果今天拉进去5吨料,结果你用3吨很好了,结果2吨废料拉出来,所以这一块不经济实际,所以我们也提出了方案,看看哪个供应商给我们解决?这是我们的模块方式。

    我们公司在整个数据中心建设主要是客户,你有客户才能升值,所以我们主要的客户是腾讯和阿里巴巴,阿里巴巴的一个计算公司,称之为云计算,主要分析你个人搜索的技能和技巧,或者习惯,把这些数据收集起来分析,分析了以后拿分析的数据在什么地方需要有数据中心的建设,我们也是和阿里巴巴走在一起,我们本身也是做这个事情,像房地产一样,是不是建了房子是不是能卖,不知道,先建起来再说,这个是投资,投资肯定有回报,但是投资很好房子很快卖了,投资不好变成烂尾,我们的思路和三大互联网公司有一个走在一起,所以我们是他技术的供应商。

    这个是目前来说,刚才有老师问我,你们有多少机房?我在这个PPT里面举个四个例子,称之为数据中心1234,第一个机房称为536,就是我们的门牌号码,在杭州也就是我们公司成的第一个单子,所以这个机房是三个月建成,第四个月阿里入住了,托管有8000台,这个我们也自豪,因为中国很多的首个,我们做机房的时候利用了很多新技术,比如把PVE降低,当初我设计的时候定在1.6,没有敢定在1.55,假如说能够做到是否在1.7好一点,我说1.6还是靠普,但是1.6怎么计算?我下面会说的。

    第二个机房在上海,我们也称之为23,里面有20000台服务器,这个就是在四北,当初利用上海北区电力富裕做的机房。

    第三个这个打了,称之为是亚太数据的交换中心,这个楼上个月刚封顶,外表看一共是10层,但是内部挑光是6.5米,相当于20层高度,在群房里面部的35000电力设施,有很多国际运营商入住,比如中央网络电视台。这个称之为第四个,这个数据中心做得很绚,投资很大,这是对外的展示中心,市领导参观就是这个机房,这个机房不是很大,但是我们作为样板房为刚才前面的3号机房做宣传。从目前来说,数据的通信和交换和托管是相当大,我有一个词条搜索,大概就要耗这么多电,但是就是耗这么多电,现在很大各个运营商还是拼命在争,所以我们投资方面,在苏州、无锡、杭州,就在长三角这个地方做投资。

    我们对标准的理解,你做设计的时候,我们怎么做优化?这个优化既不违背现有的国家标准,但是也符合我客户的需求,比如说我早期的时候,我们和外商谈数据中心建设的时候,他就问我,为什么做消防?我们从专制过来,在30年前一个木头,为了木头可以舍弃生命,因为木头是国家财产,但是资源相当匮乏的时候木头很值钱,有人舍弃生命救木头,但是从西方理念来说人是第一位,而不是木头第一位,但是当时资源相当匮乏,我们搞计算机那个东西几百万,发生灾害的时候,肯定保护的是计算机,而不是里面的数据,就是计算机宕了以后也不会保护,所有员工都会加班加点,所有的数据被恢复,所以当初的方式是最危险的,是二氧化碳,既然是二氧化碳安全,但是也是最危险的,现在有很多报导说二氧化碳造成很多人身伤害,现在以人为本,现在不用了,第一个破坏臭氧层,第二个设备发生灾害的时候,硬件烧不了,大部分硬件设施保护起来,结果把里面设备数据全部丢失了,这个数据不可能恢复,根据现有的标准来制定,就做备份,当这个机房发生灾害的时候另外一个机房有备份,设备供应商最开心,空调可以多买,消防设施可以多做了,我们讨论的时候,借助老外的经验做头脑风暴,看看是不是可以把机房建设既不违背国内的规范,又能够达到数据中心既保护了设备又保护了资源,我们主要从主要两点,一个是绿色的,假如说设计的过分荣誉,谈不上绿色,多加UPS,经过我的计算肯定像大气当中排放的二氧化碳,另外电池用量会多,电池也是高污染的行业,所以我们在设计的时候一定要求整体技术和要求有一定的领先优势,这个数据建设的时候,我们和供应商,包括UPS供应商,比如我们有一个项目,是我们在国内用的第一套高频机,这个在2009年时候,很多文章都是讲高频机什么不好,十大罪状,说了以后很多客户不敢用。

    高频机毕竟来说是我们的技术推广方向,第一个高频机和工频机什么差异?工频机是全桥易变方式,多了一个构建,多了一个变压器,但是很多供应商来大忽悠,假如说我提供高频机,他说你不要提供,万一没有高压,外面的电压直接被打坏了,所以客户还是用工频机,你的PV值怎么处理?他说这个没有关系,耗电不是我的钱,假如说由于我的设备选错了,就连这个位置没得做了,所以我们以高产品技术推广也是一大主流,我们尽量向供应商和厂房能否满足这个要求?能够满足很欣慰我的PV值做得低一点,假如说满足不了名义上安全技术做到好一点,预审理念一定主题是节能、环保、以人为本,但是都是以满足机房建设的国家标准前提下来达成共识。首先建机房的时候有一个要求,参照国际能源平衡的标准,能够做到多少?这个设备提供多少?要给个标准,肯定是先进落后不用,现在我们用了10台400千瓦的高频机,很成功,一直到现在几乎没有出过毛病,但是出过一次,从这一点来说,它会比工频机有优势,UPS负益量很大,我们值班人员在巡点的时候发现有问题,但是机器没有宕机没有爆机,我跟员工说你尽快退出,假如说碰到工频机就宕掉,处理不及时有可能保险丝断了,这个反而是意外的收获,随后联系厂方,厂方在12小时内解决了,当时我们觉得很好。

    我们肯定要厂方提供成熟、有效的工艺,设计肯定要领先,产品要更合理化,做备份不要过分荣誉。机房设计很好,结果造成机房没有办法使用,机房没有办法使用,滋生出新的产业出来,很多空调厂商推出了很多产品,比如说我们机房在建设的时候,肯定作为下属风,机房越做越大,1992年时候我做过一个案例,在金茂的第24楼,选择的发电机是涡轮的中央发电机,但是这样一来整个设计相当豪华,这个豪华是否有必要?假如说下来的数据中心往前推10年肯定是这样做,我做过一个银科的北极,机房做得相当绚,包括人体体重,包括所有声光的引导做得很眩,是通过广告的效率对外宣传,当初在国内数据中心不多很少,但是哪家做得最眩哪家客户越多,做数据中心客户不是海归,做数据中心建设也是由海归带动起来,它的定位做得很高,可以做到20万,25万,投入越多客户越多,当初入住还是一些企业的托管,比如某一个贸易公司,研发单位不够进去没有那么多钱,大部分是贸易公司,跨国公司,我们对这些客户也会设计超豪华的VIP房,让他舒舒服服做管理,但是这个泡沫很快破灭,我们做到1999年的时候2000年的时候那个机房根本没有投入运行,过了两年拆了。后来两年国内需求增大了以后,谁带来这个行业?就是我们电信运营商,比如中国电信,联通、移动进来,但是他们很实在,不要做得很眩,对我来说就是一个数据的托管,就是服务器的服务,所以这个时候他把服务器的单机位造价做得很低,对于25万对于国有企业来说肯定做不过,现在做到10万以下,客户进来了,现在很多做服装贸易,开一个油箱,服务量很大,延伸出二房东,我们做数据中心建设注册某一个公司,我们买20个机会,再做一个分割,他做二房东再把这个出租出去,这个市场很大。

    现在的人和我一样,刚才电脑死了我变成傻子,所以现在离不开电脑,一离开电脑什么事情都做不成,整个网络通信量和数据存储量相当大,所以我们在设计数据中心的时候,我们这个理解,我要求我们的供应商给我怎么合理建数据中心?另外一个讲到材料,刚才说我们在整个数据中心建设的时候,包括自己的机房也遇到这个问题,合同签订了,在建设的过程中,材料达不到环保,现在很多数据中心很多用纸面板做分割,份量轻,但是所有办公室装修没有一个用对纸面板,因为当初引进的工艺偷工减料大概不到20%,是不是能够做到防火、防盗?都做不到,纸面板分9个毫米,有一个要求,我们机房做两个小时,纸面板有普通板、防火板,防水板,假如说做内墙肯定是防火板,三个板在工地看不到,厚度按照国家标准,是12毫米,结果四层板变成两层,外面一层里面一层,为了节约变成9毫米,所以偷工减料,所以现在机房研究事故频频,结构上还好,虽然9毫米还坍不掉,东西掉下来但是不会造成死亡事故。UPS投资量比电池的投资量比UPS贵,有很多客户说配8个小时的电池,我送你UPS,这个电池是相当值钱的,但是现在国内冒出很多企业生产电池,这个电池不能放电,所以现在电池着火很高,在数据中心里面电池着火的几率很高,我们对材料有什么标准,我们要求很快,高了以后造价很高,矛盾怎么解决?这个也是我们造数据中心的时候头痛的问题。

    刚才噪音没有解决,本来是四层纸面板,外面有点声音,通过四层厚度还可以隔离,结果给我两层,外面不满意了,和管理人员吵架了,结果后面刚来和你谈项目,时候他偷听到了,所以从数据中心一定要考虑质量,质量是生存根本。有没有对人体有害?现在机房建设对人体有害太多了。第一个按照传统机房做,机房里面面积做得很大,由于两个楼层产生温差,怎么解决?各厂家有各自高招?10年前用离心连,给你48K,结果在施工的时候到处踩,风一吹把玻璃纤维吹上来,经过人体吸入以后,在你的肺里面永远搞不掉,这个不用了,用橡树板,但是橡树板在整个建筑里面有限制,比如做风管,做空调保温,做水管保温没有用,那个东西遇到火就着了,着火怎么办?加助燃剂,助燃剂对人体有害,伤害的程度不是很大,但是毕竟来说对人体有害。另外使用面积很大,上海前两年刚发生一个事,就是这个东西着火,那个东西着火以后怎么会烧死,加了助芯剂,出来的是可燃气。另外就是油漆,一罐子拿进来了以后检验一下,用的是杜邦还是别的牌子?还是买的假货。

    刚才讲的结构,另外讲到环保节能,关键还是选中什么设备?现在做到PV值统计,怎么统计?但是统计是要有仪表的,所以我们对最末端的,就是整个IT机房耗电是多少?斜坡是多少?我们做这样一个统计,所以柜子一定要有制冷,另外空调气流组,是否能够带走高发热量环境空气冷却,这个也要研究。还有UPS,不像以前小的UPS,现在做得很大,现在做得300机柜,1500千伏安计划,现在UPS要的10台,投资很大,另外备用发电机,现在发电机很多厂房买了很便宜反,因为发电机是做样子不用的,但是哪天真正用了不能起来了。一般来说发电机3秒钟启动,15秒钟100%用上去,这个设备是不是常加温?是否即使使用的状态?养兵千日用兵一时,从来不练兵真正使用的时候趴下来造成数据瘫痪。

    整个我们一个桶,桶装水是我们的需求,但是始终最低的,包括UPS,包括配电,我们有一个配件UPS做得很好,结果前端和后端用的全部是假货,我说你干吗买UPS?和你现在的配电系统得不到最大保障,在口号性合理当中我们做最佳的选择,使整个数据中心越来越可靠。另外对建筑,我们做数据有要求,不像以前做数据中心外面很多仪器,很多设备,发电机、冷却塔一大堆,数据中心建立起来环境破坏了,造成公共场地很零乱,现在我们要求建数据中心整个建筑很漂亮,做了数据中心争取做得国际认证,刚才说的PU值,按照我的计算,2是最大,1是最小,1不可能,2也是不可能,这个图我是从网上荡下来,这个很有说服力,假如说以IT算,数据中心就是我的运营设备占了46%,46%以后耗电要有制冷设备把这个耗电挪掉,需要冷却装置,PU值还可以,现在把这个拿掉,只占了8%,这一块还可以,计算下来1.2几,但是这个不靠普,这个数据中心运营起来一个都不能少,但是哪一块能够节约就节约哪一块,很多宣传可以做到1.3、1.4,这个不靠普,做到1.6、1.7比较靠普。

    现在我们做到模块化,大量厂商推荐模块式的方式,随后把通道隔开,会提高效率,我们现在用的,看看做得对不对,是否节约?我们空间布置按照这个格局布置,这个就是消防,消防在建设的时候我们要求不要把房子原有消防措施拆了,尽量应用原有的消防设施,把投资减少。这个做数据中心建设解决楼板的建设。另外是机会,机会很多。这个就是做成数据中心尽量不要靠窗,靠窗把整个窗封了,这个是接地问题,现在很多厂商说,你这个UPS没有隔离变压器,我好不容易通过技术核心,厂房技术提高把UPS去掉,结果多了一个问题,所以我们有一个数据中心去变压器,又把变压器塞进去了,节能尽量利用高能效平台。这个我们做了尝试,不用热能技术,利用沸热循环的利用,比如杭州有一个项目,边上正好是游泳池,我们是20个兆瓦耗电量,可以把10%、20%烧,烧成桑拿房,我们说头脑风暴什么可以执行什么不可以执行?但是这个还是要执行,要不然机房会封闭,达不到要求。

    这个云接入,现在各厂商云接入最多,这个是在这两天做公共测试,我们做到250公里、1000公里测试,这里包括UPS,包括空调,包括所有东西,只要插电就可以用。这是微模块化设计方法,减少空间提高效率。这个也是我在网上荡的,也是我们研究的,怎么把这个做成模块,解决拉到工地是2吨料,拉出来的是2吨废料,这个是数据中心到了杭州落地,这是在厂房内的安装设备,这个也是主力推的产品。谢谢大家!

    刘嶷:下面有请美国Riverbed公司大中华区产品市场总监李源,讲述绿色高效数据中心构筑之道,

    李源:大家下午好!我从云计算整个数据中心在应用性能方面优化的主题跟大家交流,我来自与Riverbed公司,Riverbed是从事IT技术架构优化的专著的美国公司,从这张图上看到,整个公司解决方案专著于帮助用户解决跨广域网性能提升降低技术,在新一代数据中心或者云计算数据中心大趋势下,用户对这方面的需求感觉到越来越强烈,云计算不管是私有云或者公共云,它的必要前提是把数据尽量集中,集中到同一个地方,而现在的广大的企业用户,超过一半有一个统计,大概67%-68%员工分散在各个子公司或者分支机构,这个中间有一个矛盾点,数据一方面尽量集中,便于性能整体的计算资源的利用,同时你的大量的使用者,将近三分之二的使用者是分布在远程,通过广域网进行连接,所以在计算方面有很多性能方面的问题,我们如何帮助用户在性能方面的问题,我们针对在云环境里面网络加速系统,已经给用户提供了。

    我们的技术或者技术目标帮助用户实现,3000公里远距离应用系统访问,像在数据中心的格局一样,最后一部分优化项目的简单视频的演示,我们看看广域网,基本上我们近年来看远程网络或者广域网基本是IT架构内,叫骨干,认为一个企业成长不可能在物理地点从事你的业务,肯定要拓展到不同地方,甚至于不同的国家,你有你的数据中心,有备份数据中心,小型的分支机构,小型分支机构,有大量的移动用户,这些远程用户访问数据中心的信息,必须通过各种各样的远程网络,对企业内部应用效率变成非常关键的因素。目前我们的计算趋势,云计算变成势不可当,行业里面IT巨头都普遍认同的发展趋势,从云计算架构来说是共有云和私有云,在技术层面本身没有太大的区别,私有云一些用户自己数据中心,自己管理运行,只不过里面用到云计算里面的关键技术,公共云一个是服务的运营商,建立这样的系统,以租用的方式服务的方式提供给他的客户,在整个云计算数据中心里面,牵涉到切入点是虚拟化,通过虚拟化方式进行统一调度,灵活配置,提高CPU最大使用效率,通过其他负载的方式,在计算当中把你的任务做有效合理分配,还有牵涉到应用,你的应用包括通用的应用,还具有WIFF,HTTP占用的比重越来越高,基本企业的应用都可以往上面走,你的核心系统你的邮件系统都提供HTTP。

    还有重要的一块,在你的基础建设方面,数据基础建设方面达到一定程度,对你的安全、环保一定程度上,考虑的因素非常多,从上到下整个环节变得非常复杂,从另外的角度定义云计算,就是数据中心技术加上IT,IT作为服务提供给你的使用者,所以使用者并不一定是这个系统的拥有者和建设者。所以我们看云技术架构,目前市场上已经成型的商业化公共云的供应商,一种叫云存储,这类运营商比较专注,提供服务的方式,像亚马逊,像ETAT,一个用户每个月向云存储交付一定的费用,第二类比较复杂就是计算资源的租用,这个比较典型的代表就是亚马逊的EC2,亚马逊不仅仅是B2C网站,现在对云计算提供方面做得非常先进,把富裕的计算资源主机系统,按照用户的需求定制,比如说可以租用,有多大硬盘空间,在网上选好选项,告诉你这些配置需要100美元,得到的就是在机房里面已经保留了你要求的计算资源,可以把你的数据和计算任务全部分配在上面。

    还有一类以应用为导向,谷歌文档不需要自己买OFFICE正版软件或者自己加载应用软件,可以直接在谷歌网页上应用,完成各种操作,普遍使用的销售管理系统,通过门户的方式用户什么不需要,只要买帐号,付一定的钱,通过HTTPS,把你的用户资料输入,已经非常有成熟化的市场运行在里面。使用者除了有固定节点,还有分布在不同地方的移动办公用户或者家庭用户,所有的一切都依赖于互联网、广域网系统,我们看广域网系统有什么问题?跨过一个广域网系统,如果请出6兆的文档系统,我们有一个美好愿望,实际上在计算机通讯里面,任何交付和传递,牵涉到互相确认机制,包括信号机制,所以简单的命令有几十个做初步的身份认证,牵涉到大的文件贴成每个碎片,整个完成需要几10分钟,对计算机操作很慢,目前广泛使用传输协议,TCP的协议优点是可靠安全,不用担心发出的报告有丢失,自己有纠错的机制,代价是效率发生影响,网络食盐越大,性能会也指数性想象,食盐一个由距离,还有拥载距离决定,专线在30、40毫秒,如果英特耐特走,牵涉是200毫米,计算机里面五分之一秒非常长,一秒钟可能完成成千上万的操作,但是现在1秒钟里面只能跑4、5个来回。

    我们看到很多主流网文档性,邮件性的,ERP,企业资源管理性,包括数据中心应用,包括局域网应用,至少在桌面,骨干是万兆,有效吞吐量都是达到几十兆,而在1.5兆长途线上,如果食盐达到10,它的有效吞吐量1-2兆,他们之间的差别会达到几十倍甚至上百倍,对于同一套应用系统,同一个数据中心同样使用数据中心的用户,由于所处的物理地点不同他应用的性能差别是几十倍,上百倍,造成企业内部IT计算的资源利用效率方面极大的减少。通过什么方法改造?通过多元实践,从2002年开始着手调研和试图解决广域网上系统解决的问题,我们总结一些比较有效的方法,通过三个层面方式解决。

    第一个是尽量减少广域网所传输的数据量,我们通过特定的算法扫描客户端和服务端数据,把一个共识的数据公司图表,包括数据库特定的字段,还有邮件如果有群发,有转发,其中的某些信息识别出来,作为指针代替原始数据在线路上进行传递,在线路上做重复数据消重的概念,我们讲到TCP食盐增加的时候,吞吐量按照指数级下降,通过特定的技术,可以在TCP协议效率方面做改进,通过改善传输行为方式,使得协议效率提升。第三个环节通过应用层带,对常见应用,邮件、GDP,控制信号让设备在本地区处理了,在广域网只需要传必须传,应用层,又会进一步让数据加快,现在我们识别的应用层次非常多,包括主流设备应用,邮件,文件共享的协议,还有HTTP,HTTPS等应用。我们形象地比喻一下,第一套技术减少重复数据,繁忙的公务上通过技术手段现行,我们用的不是现行,比如说传输的数据量不变,提高每辆车的运输效率,在道路上车流量变少。通过PCT协议变化和应用层变化,把这辆车时速提高,一辆小车变成一辆跑车,本来跑100公里,现在跑200公里,时间变得很快。还有一块提供一个工具,当用户做了优化,如果在应用某个环节不尽如人意,有一套应用工具,帮用户指出错在什么地方,像全程GPS一样。

    对于不同应用优化效果加速率也有所不从,平均来说20-50倍提升,不是百分比,原来完成速度20分钟,现在只需要1分钟。在做完加速的时候,对整个应用有一个叫应用的可视性,网络流量和应用的可视性,随着云计算和数据高度集中,任何一个服务或者企业内部的关键应用,比如ERP应用,不可能是一台或者两台大的服务器提供的,现在的比较典型的设计都是由一组服务集群提供一个应用服务,打个比方,基于BS架构的ERP应用,第一个门户是WEB门户,一个HTTP做,第二个层面服务器是它的应用层服务器,真正跑里面应用程序应用进程,第三个层面是数据库,你的客户资料,你的定单资料最终是存放在数据库里面,一个客户访问最先访问HTTP,调动数据库服务器,给到反馈值,最后组装处理,任何一个订单操作订单查询,都会牵涉到后面一组服务器或者若干个服务器联动,看到你访问的哪种环节,一个用户完成环节非常多,在这种情况下你的系统出了问题,到底哪个环节出了问题?到底是应用环节,应用的脚本效率不够高比较慢?还是数据库服务器设计不合理?给定一个条件做查询的时候,里面查表的手续太复杂,至今关联度非常有问题,所以查询时间非常长,这些都是在监控和端到端应用交互的时候面临的困难。所以我们配套在提供用户优化你的网络基础架构的时候,为了帮助客户进一步发生定义发生的地点,有一套网络应用的性能的监控东西,帮助用户做基本的分析。

    大家看到这个变化,目前很多用户数据还具有一定的分散性,在大的数据中心或者大的分支机构都有不同本地服务器,不同用户或者不同分公司可能访问到不同地点的服务器,比如做云计算半径的时候,必定把这些数据做大,其中包括数据之间的内容之间的管理,包括工作之间的应用,集中到某一个地点,用户自己管理就是外包,把所有的应用全部塞到里面,应用高度复杂,访问场景高度不同,有分公司固定网络,有移动办公,比如说酒店里面ADSL线路,有可能不接受UPM直接访问,保证数据安全性,在这样的环境里面发现,一个用户访问数据中心里面的应用,有WEB这一层,有数据库这一层,他们之间工作可能还要牵涉到其他的SMP服务器功能,还要做网络时间服务器,包括私有的内部的数据中心服务器,可能调用一些外部的云计算里面的资源服务器的信息,所以从这些千丝万缕关系当中,对你的逻辑关系,你的流量关系是会非常复杂的。需要有一套系统把你的服务器和服务器之间功能性或者地域性作组合,并且把不同服务器之间的流量关系,跑在什么样的网络端上?跑到具体哪个端口上面?他们之间的流量程度多高?通过自动的系统展示,产生的关联图,通过PTI值或者组名字,连接线可能流量越高,连接线越粗,对你的数据中心里面服务所有运行状况,要有比较清晰地流量关联图,本身有完整的机房平面图,机柜接线图,但是真正做应用的时候这些不够,还需要一个流量关系方面的图,这个应用一旦触发了以后,会牵涉到后台哪些服务器一起活动起来?参与到这个调动之中,并且他们之间的关联度,以一个非常形象的方式展示出来。

    同时你对进一步详细时间排措,对每个分包进行监控,这个IP访问了另外一个IP访问食盐怎么样,再访问另外一个IP形象怎么样?通过形象展示方式告诉你目前的性能状况怎么样。下面的时间我们做加速地简单演示,这个加速主要描述VDI的应用,这也是云计算环境里面用户比较用的应有场景,就是虚拟桌面,你的运行环境都不是一个安装在本地操作技术环节,通过数据中心为每一个桌面都有一个虚拟机的径向,预计的时候在你的桌面只是显示屏幕的内容,坐标和操作的指令。VDI有若干个解决方案供应商,这里举个例子是客户端,首先看核心系统,然后虚拟的终端解决方案的名称,在他的分支机构可以部署他的VM,就是虚拟机径向。整个VDI解决方案里面,我们能够目前已经普遍使用的或者有大量的案例,基本涵盖了主要的虚拟客户端的解决方案,其中包括很多远程的VDI解决方案的名称。市场排名就是三家VIEW4等。这是他们用的协议。微软用RDP7的协议。这边是一个视频,先介绍一下演示物理环境,为了演示加速效果差异性,这里没有优化的列入,同样优化环境下都是1.5兆模拟,80毫秒食盐将近十分之一秒,绿色部分是优化的网端,所以有两个传播打开,一个对没有优化的通道,一个对于优化的通道,后台就是服务器。

    先来优化文件打开,这是不优化,这是优化的,这是本地的一个文件夹,我看见打开文件夹,这个是优化,这是没有优化的远程文件夹,同样打开的速度有明显差别,同样考虑一个文件也好,这是本地盘,这是不优化的通道,这是优化通道,在不优化通道传递文件,首先展示目录里面的目录项,花几十秒扫,还没有真正看传递文件的时候,光看就很慢,这一块很快,点一下基本可以操作本地网络的速度。我们再看看VDI解决方案,在这个例子里面就是虚机,远程的启动非常厉害,通过不优化的通道做,这是通过优化通道做,一个虚拟机市场上几百兆,你的硬盘大小虚机都会产生非常大的径向的文件,分别从两个不同通道上做一个网络的启动,速度怎么样?虚拟机就是WINDOWS操作系统,先看不优化通道,再启动优化通道,分别看两个界面引导过程,如果接触过VM系统,这是比较典型的控制台,一个远程虚拟机的控制台,这段是优化的连接,虽然优化了这个通道上虚拟机启动比不优化通道晚,但是已经出现了WINDOWS引导状态,这边刚刚出现,这个引导跟启用一个WINDOWS跟配置一个本地操作系统差不多,10多秒钟时间已经进入了这个状态,80基本从上海到黑龙江的速度已经启动完成,这边在这个通道上,还初始的过程刚刚开始。

    在整个数据中心大环境下,特别是采用虚拟桌面的形势,广域网是否采用差异性非常大,现在开始运行桌面上的简单的应用系统,包括你的运行拖拽,基本非常平滑,本地差别都不大,这边还在慢慢引导之中,还没有完全启动完成,所以从这个例子可以看出,当你用户向云计算数据中心高度集中的场景发布慢镜时候,各种各样的应用,包括各种各样的虚拟化厂商提出各种各样的概念,基本条件很容易忽视,你的网络结构是不是足以满足上面的新的应用模式,新的架构,如果新的网络没有办法新的模式,上面设计再好最终设计出来都有问题。

    大概介绍一下Riverbed的状况,在2002年在旧金山专门从事IT系统优化,2006年上市,业务发展被评为最快的公司之一,成长速度仅次于谷歌,目前的年销售差不多5亿美金,全部来自广域网络的加快,在嘎纳著名的机构,在广域网优化控制系统评测里面,连续四年被评为领导力企业,坐标的愿景完成性,代表公司专著度或者视角或者眼光怎么样,纵坐标代表执行能力,产品在市场中的占有率,以及用户对产品的接受度以及服务,综合说都是把Riverbed评为最高层面。还有大的用户,基本各个领域都有大的客户,世界上最大1000公司里面有70%,只要业务拓展,必定有多个分支机构。

    第二个当你的IT结构要简化你的管理和降低运营成本,广域网系统上面的优化和加速,都变成这些企业必不可少追求的东西。所以整个陷入优化的价值在于帮助用户提升生产效率,收发邮件通过ERP系统变得快了,效率提高了,节约成本,虚拟化整合大数据建设方面成本的就是,以带宽线路的结合,原来2兆带宽做不了的事情现在可以了。还有数据保护,广域网数据方面从2小时备份变成1个小时,使得备份安全性更高,只要通过广域网连接实现的IT结构,Riverbed都是有效的产品,大家如果对Riverbed产品有兴趣可以访问我们的网址。

    刘嶷:谢谢李源的精彩演讲。现在有请威图公司的韩勇主题演讲。

    韩勇:很高兴再次来到上海和大家探讨数据中心的话题,我今天的主题叫做数据中心的瘦身之道,为什么会起这样的主题?源于前几个星期我一直跑客户受到了很大刺激,现在很多客户动辄建设数千平米的数据中心,甚至比较高端的客户有几万平米数据中心的规划,但是并不一定说大数据中心不好,但是仔细了解客户数据中心密度的情况,他的数据中心利用率并不高,简单来说他每平米的热负荷或者可以装载的实际设备很少,变成了建了一个很大的数据中心,里面产生的效应很低,有点像造房子,现在国家都提倡把容积率提高一点,在有限的土地里面种更多,但是很多企业造数据中心的时候容积率很低。

    我简单汇报一下威图做的工作,在数据中心一块,威图提供比较完善架构的解决方案,我们提供的产品和方案从最基础的各种各样的服务器的机柜,到整个数据中心的安全架构,我们可以提供一个完整的安全的物理保护给数据中心,包括在这个数据中心内部的UPS电源系统,配电系统,外部的冷却系统,以及内部的空调系统,以及整个数据中心监控和管理,我们都有一整套方案,今天围绕瘦身的主题介绍其中的一些东西。首先会三个步骤讲,要使数据中心能够瘦身减小面积是第一步,第二步怎么优化你的数据中心的能源效率,怎么降低数据中心的耗电量,我相信在一天的会议当中听了很多关于PUE,怎么降低PUE怎么减少耗电?第三块怎么实施模块化的数据中心?

    首先第一个步骤降低数据中心的面积,主要从冷却方面来考虑这个问题,我跑了好多数据中心,包括电信有很多规范,是国内最大的电信数据中心之一,他们提供的一个机柜能耗大约在3000瓦以下,其实一个机柜两米高可以装40U设备,如果以1计算几乎装40台,每个服务器500瓦,40台装2000,电信不能超过3000瓦,热量问题,传统空调碰到瓶颈很难解决,这里我们有定义各种低密度的方案,包括用传统空调解决低廉部分密度方案,中等密度可以用冷通道封闭系统解决,包括高密度的方案,可以用基于机柜级的空调,来解决一个空调很高的热量散热问题,不能超过3000瓦或者5000瓦的困惑,可以提高空调密度。对于传统方案,机柜极限最多6个千瓦一个机柜,再往上无法应对,超过6000瓦可能需要做冷通道封闭,来提高它的效率,或者在机柜列之间增加一些列级的空调设备,在12瓦以上考虑机柜的空调,一个机柜需要一个空调或者2个机柜需要一个空调,我这里有简短的V6演示一下情况。这是一个机房,现在有两列机柜,这是精密空调,外部室外机组提供冷水,在冬天直接提供冷水,可以大大降低能耗,这是列级制冷,这是机柜制冷,对于房间级的制冷,这是最低密度的方案,现在大家普遍使用的方式不会超过一个机柜6000瓦的热功耗,这是精密空调,放在镜头这样看起来更好,冷空气在地板下提供给机柜用,产生热空调,不会超过6000瓦机柜,用这种方式完全合适的。

    对于密度越来越高的情况需要增加冷通道的封闭情况,上面比较热下面比较冷,但是如果把这个通道封闭起来之后,这个冷通道里面冷空气相对来说很均匀,从而提高制冷的效率,把制冷的效果提高上去。基于更高的密度需要列级制冷设备,一列空调里面需要单独的机柜系统,比如在机柜列之间放一系列空调设备,建议用冷水作为冷源,产生的热量由热水带走,在冷通道封闭情况下产生的冷空气直接在冷池里面用,这样把前面冷通道效率进一步提高,大约达到12千瓦一个机柜。大家可以看到这样的话,在冷通道里面的冷空气相当均匀,最高的密度就需要有机柜级的冷却,这是我们带来最多达到30千瓦以上的热量的问题,同样我们也是在一列机柜的当中,放入专为机柜设计的空调系统,现在这一列机柜的门换成玻璃门,是和外面格局,冷空气在机位前部直接用,后部产生的热空气被中间空调吸入进去,进行进一步冷却,在外面机房空间里面,整个大的空间里面,这个温度已经和服务器制冷不太相关,没有必要像传统方式一样,把机房的温度设置很低,我可以保证服务器能量,但是房间温度可以提高很多,提高到机柜的制冷而不是房间级的制冷。

    我们来看一下,这就是我刚才提到的高效率的制冷,可以解决一个机柜达到30千瓦,一个GP系统冷却一个机柜,左边的机柜进行直接冷却,这是冷却方式,前面是玻璃门,后面是封闭,所有的气体在内部进行循环,在外面空间前面的通道不需要有空调的制冷,比较传统的方案,假设是150千瓦的制冷机房,没有用平方米计算,建机房取决于你的设备有多少,不是说住多大房子,150千瓦设备以传统方案来说,因为制冷的效率有效,大约需要10米乘以11米的空间,平均平方米1.3千瓦左右,如果用机柜级的制冷,我们可以把这些设备大约集中到6个机柜里面,深绿色的这小块,剩下的大块都被节约了下来,可以用于今后的扩展。

    这里介绍案例,前两年很火《阿凡达》,需要后盾,新西兰公司了很多,他们利用高密度计算机来解决计算问题,动画的渲染问题,总共设计了60个高性能机柜,每个大约25千瓦,总的功耗大约在1.5兆瓦,他的机房只有2.5平方米,我们看到有4组和HP刀片运行,PUE值年平均下面在1.25-1.35之间,新西兰气温比较冷,在冬天有漫长的时间可以使用外界的自然冷却,60个机柜全部做完了,可以把PUE值在冬天做到1.15,不适用的情况下做到1.3,一年下来1.5兆瓦差0点几PUE可以节省多少个?在国内也有类似的案例,这是我们2008年我们为中科院合作做的百万级,使用了48个机柜,每个大约是22千瓦,总共使用了54个LCT冷却塔,做到了一定的冷遇,同样机房的面积是150平方米左右,以传统的方案来说,这个用户需要大约1000平米机房面积才能解决,我们在150平米解决避免了用户投资建设新的机房,在原有的机房里面做改造,省了很多土建费用。这是第一个问题,怎么降低数据中心的面积?

    第二个问题怎么减少它的能耗?这个图大家可能在前面的演讲当中也看到了,可能数据略有差别,但是表达的意思是一样,在数据心里面电哪里去了?怎么省电?PUE等于2,一半的电被IT设备用了,另外一半电被辅助设施用了,50%是服气,剩下的50%是空调设备,要省电首先怎么从空调上省。第二块土黄色部分10%被你的配电用掉,UPS自身是耗电设备,传统UPS能耗比相对比较差,一般来说效率只有5%-8%,还有3%大约是照明或者其他的东西。大家可以看到照明即使是这么小一块,也可以省电,比如我们可以采用白色机柜,可以减少在机房内布置的照明数量,这样可以省电,而我们现在普遍采用黑色,是耗电的一种举动。我们看一下省电主要从冷却和管理和电源进行,冷却已经讲了很多。主要通过比如说冷通道封闭系统,包括在冷通道封闭系统之间加上制冷设备,或者热通道封闭系统,区别在于冷通道封闭系统以后保证房间比较热,而热通道封闭之后房间比较冷,取决于个人爱好。但是热同封闭系统缺点在于必须要有这中间制冷设备,必须要有列级的空调,而用冷通道封闭系统,在这种情况下可以不用列级的空调。我们计算使用冷通道封闭系统仅此一项帮助用户节约36%空调的费用。这是其中的一个案例在欧洲IDC中心,破获了2400台全部采用冷通道封闭系统节约电,经过实际应用大约节约了30%。

    在管理这一块我们做很多工作,事先知道你的电消耗哪里去了?可以有效控制,在哪里多用一点在哪里少用一点?我们有完整的管理平台监控整个机房物理状态,这是一套软件,可以知道机房平面图,可以定义每一个机房和机柜的平面图,甚至可以知道每一个PVU端口用了多少电?我们可以监控到传感器网络,每个PDU网络,我们的空调,包括第三方设备,支持SMP协议,都可以支撑到平台里来,我们可以在机柜的角柜上面装一条读卡器,每一个U设备都可以有WIFF标签,这样很方便通过读取设备知道装的什么设备?是2U设备,装的是380,数据都可以主要,知道机柜用了多少电,也可以用资产管理,一台服务器放在哪里在哪里采购等等操作系统。然后可以和微软集成在一起,我们只监控机房物理基础环境,而微软可以负责监控服务器,可以把这两者结合在一起,服务器产生的热量可以判断,哪些服务器跑哪些应用过热,然后判断是否有必要平衡,比如过热的服务器可以放在冷通道上面运行,因此控制冷却的每一个角落,到内部空调到机柜空调设备都可以知道状态。

    在电这一块有完整的方案,从低压配电到模块化的UPS,机房内的配电柜和机柜内的配电模块,一直到电源条,UPS主要提供模块化方案,从最小的1000伏安到1500伏安都可以做,主要优点了解了很多,我们的效率做到很高,平均来说不管它的负载是25%也好是75%也好,我们都可以把这个效率维持在95%以上的水平,传统的UPS完全无法比拟,传统的UPS可以宣称在100%负载情况下达到93%的效率,但是不可能达到100%负载效率,所以说只有在负载低的情况下你的效率高,才是真正的效率高,我们可以比较一下,如果我们一个UPS以95%效率运行,和以87%效率运行,它的二氧化碳排放相当于一辆大众的高尔夫跑大约50公里二氧化碳排放,其中电能的消耗也是很客观的数据。

    第三个问题怎么去部署模块化的数据中心?我们的数据中心以往的建设都是以装修房子的心态做,都叫机房装修不是建设机房,这是以往若干年的误区,我们可以想象网络设备很多年前实现模块化,不可能一开始在机房里面堆满服务器,但是建设者一开始在机房里面堆了机柜,但是完全可以以模块化进入多少就进入多少,扩容就扩容,特别是像UPS设备,如果这两年当中不用,自身消耗,要维护,而且要用掉很多电。比如说配电,我们就有一个完整的全模块化的方案,而且安全可以在不断电的情况下完全进行扩容,在UPS出来了以后有模块化配电柜,然后有预制好的PDU到机柜里面,在扩容的时候不需要把电拉掉,因为我们采用了稽查用的技术,完全可以不用断电而进行新设备的扩容。比如说UPS的负载,传统的方案用1+1的方式做,这样浪费的部分比较多,如果我们用N+1的方式,要备份的部分小,比如说120K加120K,是闲置的。这是模块化的配备,随着设备的扩容进行热差,模块化的PDA高度,当你需要一个设备就需要增加一个模块上去,每个模块有标准的C13插口。包括标准的监控系统,也是模块化,我们有传统的传感器,可以放在任何的角落,可以通过无线设备监控到传感器上,包括无线安全架构也可以模块化,房子也可以模块化,比如说可以从最小的机柜开始做,半个机构做到一个机柜,或者几个机柜并在一起扩容,或者有数据的集装箱,还有更大的数据中心,可以做到整体的防火,所有的这些设备都可以做到整体的防火,而且是在整体的建设当中,快速地进行安装。

    讲到传统的数据中心以装修的心态进行,我们以一种产生导入,只需毛坯房,建一个机房,而且达到比装修的机房防火高处数倍,我们保证外面烧2个小时,内部温升不会超过80度,只有这样数据才能安全的。再介绍一下我们数据中心集装箱概念,主要有两种,一种叫做单独的方案,所有的服务器、空调、电源、消防系统都是在一个集装箱内,还有一种方案叫做多集装箱方案,用一个集装箱最大密度装满服务器,另外用其他集装箱做空调和配电系统,我们两种办法都有成熟的产品,比如说这是一个20尺的集装箱,这是一个用户现场我们有这样的集装箱,在边上可以放发电机集装箱,这是集装箱内部的情况,大约可以放279U设备,里面包括空调都在里面,前面我们已经提到冷却水叫做非直接的自然冷却,用自然界风冷却冷酶,在这里我们利用外部的冷空气直接和热空气产生混合过滤,有足够的能量来用,这个相对气温比较低的地区是非常适用,我们可以提供每个机柜三组这样的空调。对于一个多集装箱的方案,可以在下面集装箱里面放满服务器,可以做到一个集装箱360千瓦设备,上面有两个集装箱,一个用来做空调,另外外来放UPS或者发电机系统,这样给用户带来最大的移动便利性,这个很多用户关心快速不足的情况下非常实用,在工厂里面预制好整个集装箱和里面的设备,在现场接上设备可以用,目前来看适用的趋势我们和华为、惠普厂商合作,他们也推出了类似的方案,其中用了很多惠普的技术,作为这样的场合给大家介绍一下我们在这方面的努力,谢谢大家!

    刘嶷:谢谢韩总精彩演讲,下面进入互动环节,主要做圆桌研讨,这个时间交给社长张群英女士。

    张群英:在这个过程中请嘉宾,带来非常精彩演讲的汪总,还有一位齐总,请Avocent的杨总,这位是深信服的张总,上午也带来精彩演讲的。

    张群英:我的第一个问题大家觉得现在所谓云计算架构下的数据中心,到底跟传统的数据中心最大的区别在哪里?我们先请厂商代表做一个阐述,最后看看用户有什么看法?

    张开翼:这个问题问我,说实话回答起来有点底气不足,因为深信服在云计算本身这一块没有涉及到解决方案,我们更多帮助云计算怎么落地,改善用户体验产品解决方案,但是我跟很多客户交流这个问题,在提到云的时候,大家一方面憧憬,觉得这个是很好的概念,我们像使用水电一样使用资源,另外一点有点疑惑,这样的概念到底跟我的业务如何结合?所以我上午提到玩笑话,有客户提到云计算就是数据中心加互联网,这是一种比较片面的看法,我们汪总这边也提到了非常多的关于云计算,作为计算中心如何给到像腾讯、阿里巴巴提供日常的能力和基础设施,另外基础设施的调拨,云计算最大的特点能够满足我们应急性计算需求,第二个非常灵活可弹性拓展的计算能力的分配。不一定正确。

    杨总:云概念我们关注了很久,各个厂商也好各个专家也好,每一个人都有不同的定义,站在我的看法云计算带来更高密度的转型,因为传统来说,很多用户用户会把数据中心密度相对来说比较低,一个机柜只装了几台服务器,或者装了10几台服务器,因为效率没有用到效率不高,没有云计算,只是没有跑应用,不会产生很高的负载。随着云计算推广,我相信CPU或者服务器利用率会上升,对于热密度要求越来越高,这是站在我们厂商的力度的看法。

    张巍:我们主要关注在网络上面,新一再数据中心对于网络来说变化很大,原来传统的数据中心跟原来的没有太大区别,但是  今后来看整个网络游几块发展,一个是传统源区域网变化不大,但是数据中心往前走,无损网络发生根本性的变化,大家知道互联网传统的TCP尽力而为,没有好的保障机制,可能会有丢包等等,新的无损有了标准之后以太网传输质量带来很大提高。会支持CLE,整个以太网上跑各种各样的业务,对于以太网来说变化非常大,前面提到对于一个数据中心来说新的服务器密度越来越高,有很多虚拟化,这个对整个网络的要求也提出了网络上的虚拟化和更多的高密度的接入这个对于传统的数据中心来说都是一个本质性的变化。

    Avocent杨总:Avocent主要是处理IT基础构架管理,对于云计算理解,对传统的数据中心某一个应用在某个物理机应用,某一个机器上比较明确,将来的云计算中心构成了比较大的数据中心,提供了非常大量的计算和处理的能力,然后又有很多的应用或者需求在上面跑,在跑的这些应用,也许是来自于某一个公司,也许来自各个不同的公司,在某一个瞬间里面的应用到底在哪里跑?可能用户自己也说不清楚,对于我们来说关心的是提出了需求,希望在多少个时间里面提供给反馈的结果,对用户来说是他的需求。Avocent在这方面提供的给大家就是以后对数据中心运维和管理,可能不再是着眼整个数据中心的服务等级,运维的等级要求相当高,不再是以前某一个物理机损耗,但是这个应用不能跑,整个云计算时代到来以后,你的某些机器或者存储或者网络上的故障可能带来计算能力的损失,导致的结果就是有可能有很多用户想在多少时间内得到的结果,未必都不能跑,但是大家都有延迟,如何在短时间内提高我们的对发生故障IT基础设施恢复故障,解决故障,提高SLA等级,这个可能大家在云计算时代非常关注的东西。

    张群英:我的感觉就是两个字:实在,第二个就是不同层面,只有政府官员不管说什么,都无比宏大,各位做技术出身的专家,不管说什么三句话不离本行,他们都非常敬业,从自己的角度阐述这个事,我自己觉得从他们四位的阐述对云计算有不同的认识。

    齐总:我是做技术的,一直做数据中心管理和用户,我觉得云计算第一个方面作为IT来说,有一个很好快速交付,举个例子,我们大家在企业内部做视频会议,但是部门之间的快速沟通有一个云计算最好的应用,是网络视频和视高,还有红山通,费率非常低按需付费,不需要投入很多钱做,快速部署,IT只是关注于我的业务应用,以前IT做一个应用好,首先要有机房,建一个机房空调什么,这个都需要周期,这个要投入,现在很快可以搞应用上面,叫圆形开放,投入不大,如果以后OK,有规模再租机房,建机房。我做了这么多年不是网络,是空调,这是机房的核心。

    第二个从客户现在对云计算有两大顾虑,第一个是安全,初级安全,把我的东西放在外面去的时候,是不是有一点顾虑,我看不到它了,不像每天在机房里面兜一圈,还有我的技术和机房放在一起,有的客户是竞争对手。第二个用户感受,举个很简单例子,你自己企业内部的邮件系统很快收邮件,如果去租用,比如说把数据租用,至少在总部可以放很快,现在等于和下面人没有区别,这是最大的问题,现在我觉得从云计算的方向来说可能是私有云,现在才会是共有云,最大的受惠者是中小企业,不是大企业,将来是中小企业把点放在业务上,包括人事系统,都可以放在云上,包括邮电系统,这是比较现实的应用,其他还是要看。在中国80%、90%都是中小企业,这是现实的问题。

    张群英:汪总的客户阿里巴巴、淘宝、腾讯都是大企业。

    汪如清:这个话题很有趣,我们属于上海市云彩基地,我们也和微软签了框架协议,应该来说对什么叫云计算?什么叫云?我讲一个笑话,在去年有一个人问我,下雨了怎么办?我说下雨我死定了,他对云没有从本质上理解,刚才说的传统数据中心和云计算中心有什么差异?实际上很好分,传统的数据中心从云计算理念来说,跑的是带宽加计算机,这肯定是对的,但是数据中心跑的太快,但是云和数据中心的差异在哪里?云计算不是以带宽为主,而数据中心以带宽为主,这是本身的体验。为什么说数据中心的耗电量而没有云中心的耗电量大?现在都有笔记本,但是你的CPU24小时都灰跑100%?不会,这就是数据中心,数据中心以托管为主,跑的是带宽,带宽越宽跑的量越大,数据中心是数据托管,很多的客户有一个业务,保留一份数据,把它放在数据中心最安全,因为数据中心里面电最安全,等于说我把数据放在数据中心的保险箱里面,不能出错。

    云计算也不能出错,它的要求比传统的数据要求更复杂,第一个跑的不是带宽,云计算派什么用场?再引申一个理念,我们国家的超算中心就是云计算,通俗地说,硬件的架构来说就是网格化计算机,只要云计算里面只要装了服务器,这个服务器不会停,它的流量没有低过90%,发电量大耗电量大,引申出来的云做什么?比如说二骨云,比如视频云,中央网络电视台在我们的产业,比如我要进入到云这个概念,就是下雨怎么办?我说下雨死定了,没有云,云就是超级计算机,我有了超级计算机,但是计算机终端在哪里?天津、上海都有,但是你进不去,那个是政府为科研服务,比如用在军事上导弹轨迹计算,卫星的控制,还有一项宣传最多做图象,一秒钟渲染一个,但是云是什么概念?我们都可以做云的一分子,虽然我们有一个键盘,有显示器,有一个硬盘,这个时候注册加入云体系,你的计算机只剩下键盘,显示器,CPU跑到云计算中心,以后开发一个项目,假如说我对照片很感兴趣,以这个照片做图片,计算量很大,这个时候丢包让他算,过了5秒再出来就可以,这个解释不知道对吗?什么叫云?什么叫传统的?因为我是做技术的,想把这个事情讲清楚。

    张群英:刚才齐总谈到了三个点,我认为对数据中心来说最根本,最本质,第一他讲到空调和电,保障数据中心安全运营最基本最核心的东西,第二谈到安全性,深信服张总就是想要提供安全保障,第三他谈到用户体验,我相信无论从基础设施的角度,从网络架构角度,因为今天没有请到比如说还有厂商,对所有供应商用户体验提供产品解决方案的最根本的一点,所以我们从齐中引出来三个话题探讨一下,说到空调和电,就是今天上午刚开始提到,很多人都不知道亚马逊宕机,有两个SEV模块宕机了,它的电源保障是怎么回事?一般数据中心一般有两个线路做保障,同时有UPS做保障,肯定派抽柴油响的配两套,但是亚马逊从上个礼拜五出事到现在还没有安排,问大家一下怎么回事?电的问题出现了,怎么样给数据中心提供更安全、更可靠的保障?

    Avocent杨总:说实话我比较孤陋寡闻,我不知道这个事,所以到现在为止到底存在什么事?亚马逊应该是比较典型的云计算中心,如果他出了问题,后台需要有一个比较健全快速恢复机制,汪总说了可能要有两台柴油机,比较高贵的,他们不知道建在哪里?有多少备份,按理说模块发生故障,迅速迁移到异地备份中心,如果这个全瘫了,不知道发生了什么?在运维角度来说,故障难免的,没有涌动期,总有一天会发生问题,如果发生问题的时候,如何快速有效定位故障在哪里?然后快速恢复他,这个应该属于基础构架领域里面要解决的问题。我们的专场就是在IT基础构架里面快速解决。因为如果他的整套东西用我们,我们可以在出事的第一时间到底什么东西出了问题,有的用户整个网络不可用断了,到底发生了什么故障?有一个比较有效的日志系统,或者说网络瘫痪了时候,最后会储存一点关键的信息,如果网络达到这些信息,我们就比较容易的快速的诊断,到底问题处在哪里?从而恢复和解决。

    张群英:大家有看过《又见阿郎》吗?太遗憾了,没有看过的同学一定要看。

    张巍:你的问题没有详细的资料只能做一些分析。

    张群英:我们这里从你们的角度分析,如果你的用户出现了这个问题,比如你正好是他的供应商怎么办?或者怎么让他不出现问题?

    张巍:可能从多种层面数据,存储,故障软件定位到什么问题,定位到问题之后在解决,从网络角度来说,Avocent高规格数据中心来说,从网络层面都会有全勇于系统,网络层面恢复比较快,一个服务层面问题可能出在那里,因为恢复一个应用,时间相对比较长。

    韩勇:我的看法来说,以往过多地强调了设备的可靠性,单一设备的可靠性,往往很多用户评价设备是否可靠,会说故障时间BF数据要多少小时,30万小时,50万小时,但是事实上从这个案例来看,出故障并不可怕,关键看多少时间修复,平均修复时间是关键的数据,不管是空调也好,电源也好,出问题难免,出了问题以后,采用什么技术保障频率使用时间?比如说UPS,传统的宕机坏了修复很慢,如果采用模块化可以避免这个问题,可以把好的模块拿下来换一个模块上去,对于空调来说一样,加上模块化以后总体可用性可以保障。

    张群英:刚才汪总在谈到云计算的时候提到网格,2004年网格是盛销呈上,当时说网格的时代到来了,你的笔记本不用了,可以给美国的孩子治病用,当时我想凭什么?当时网格没有解决支付模式的问题,所以夭折了,现在终於找到了配的方式,摇身一变变成了飘忽不定的词,云计算出现我们面前,整个云山雾罩,我特别感慨,老是说英雄不问出处,7、8年以前出来没有搭理,7、8年以后出来,我们这么多人花这么多时间一个人7个小时,在这里讨论云计算,但是问什么时候生?很重要。齐总提到的非常重要的问题,安全保障,您说一下您的感受,比如你们现在数据中心的安全怎么保障?你自己有担心万一哪天出事吗?

    齐总:就刚才的话题补充一点,因为我做用户体会很深,刚才一位同事讲的一整套方案,从来没有一个用户用一个厂家,我用过一家,东西坏了UPS整个坏了。为什么我讲云计算安全?就是大企业肯定不会至少在现阶段不会用云的应用,除非基础架构应用不会用的,程序应用会用某些,但是中小企业对安全没有多少想法,至少中国人是这样的,他觉得这个便宜可以用,这是对所有民间有顾虑的都是大老板,这个数据放在那儿是不是安全?从IT角度我完全信任厂家,我觉得他们能够做,现在我对安全没有顾虑,但是老板对安全是一个问题。

    第二个问题讲到安全,是人员安全,因为现在云计算和内部集成是问题,在互联网部署上,如果下面某一分支机构IT人员没有及时享用,问题就大了,在任何地方把数据取走,具体备份不单单是这些数据,竞争对手不担心,因为我相信运营商,包括中国电信一样,我信赖他们,时间长了不会做这种事,包括微软和亚马逊,我担心的是人员管理,数据流失,有些东西需要人做的,关于安全包括集中管理这一块,好象没有看到一个完全的产品,能够和内部系统很好的集合,因为有些身份认证和WINDOWS的AD,带宽脱离的,这样有安全漏洞。

    张开翼:有两个层次,技术上来说厂商提供的方案满足要求,但是管理员工慢半拍的问题,这是社会工程学或者管理上的一种制度和防漏洞的问题,所以在这个方面作为厂商来说,很多时候比如优秀的产品交出去了,有时候碰到很糟糕的,运维出现很多问题,所以讲到云的安全,一个是信息安全,一个是业务安全,信息安全分成两个角度,一个是企业自身构建私有云这种方式,比较大型的企业构建私有云,必须考虑到身份安全,再考虑系统或者权限安全,还有在接触到信息过程中安全控制问题,刚才比如说离职的问题,有的时候不一定离职产生问题,包括越权访问,普遍帐户的员工保护系统,我们现在根本没有办法做到对于来自内部尝试性攻击或者有防护措施,现在做不到,作为深信服我们更多关注如何通过低成本技术手段,帮助客户解决这个过程中面临的安全风险,也就是信息安全问题。

    业务安全是更高于信息安全,因为业务安全首先是要解决的是业务可用性问题,比如说亚马逊瘫痪事件,对于租用他两个大型的英特耐特公司来说,真的是天下一块石头砸死他,这个太冤枉了,但是没有办法,作为用户对于云服务供应商提供的业务可靠性的信赖程度到底做得怎么样?只能说无保留地信任他,很多问题汪总这边怎么考虑?除了基础设施尽可能匹配以外,还是不是有机制能够在不同区域之间形成快速的切换,有问题很正常,但是维护到底是云构架中间能够支持异地的恢复?也是一种方式。

    张群英:我只是道听途说安全保障,不光在上层运维管理角度,比如基础网络层面,安全保障非常重要的,所以对阿朗的张总来说。

    张巍:您提到网络层面在云上说,特别是私有云可能需要穿越服务提供商租用的线路等等,在基础连入层面通过现有的比如VPS技术保护,还有今后可能专门针对数据中心还有一些SBB扩展等等各种协议,做一些底层的防护,这个从网络层面主要做底层防护,深信服都是做上层应用层防护,还有私有云和共有云对接的时候,在网络层面也有底层协议方面做防护,可能从网络层面主要做基础层面的安全的隔离工作,但是从应用角度来说,可能还是无法看到应用级别,这个可能是针对不同层面的控制,而在网络层控制网络层面的功能。

    齐总:这个业务对我有一点帮助。

    张群英:汪总你们安全怎么搞?

    汪如清:我们从安全来说,从整个数据中心来说我们分硬件和软件,前一个我理解成为硬件,也可以理解成一个软件,后一个完全是软件,我先说后一个,对整个网络的安全,在云计算应用是不必烦心,因为应用的领域不一样,假如说托管完全是保险箱,云计算是CPU的出处,由于云计算的构架,连在我网上的计算机都是云网格的一分子,关键是云计算跑的不是流量,假如说用某一个时刻,同一个时刻在同一个时间打电话,同样用这个号码,要不要多少人打爆了,这个靠我们的流量监控软件,这个监控软件实时做分析,但是分析数据的吞吐量非常大,也是用云计算做,比如机房整网格计算机是云计算,为安全服务。但是外一个数据的存储,有物理存储,也有数字存储,通过软件开发应用很好解决。

    像这种事件上海也发生过,但是怎么来处理?首先我说从软件,可以通过监控进行防范,假如说当初只是一个模块,这个模块只是在机房里面,电力空调肯定没有问题,是应用问题,假如说软件开发能力、监控能力很强不应该发生低级错误。另外系统瘫痪以后这么长时间没有恢复?从设备备份为什么做两联,坏了一个再做一个,做成2N+1的方式,比如这个机房管理很严密,由于管理的疏忽跑进一个傻子,他在里面乱动,结果搬了一个开关,这个系统不会瘫痪,在整个云计算机房里面,在整个硬件设置和启动防范做得很严密,我们从设计来说,设计最精密,使用的最傻,所以才发明傻瓜相机,一旦发现故障首先不是人,有人才会有流动,今天情绪好了今天盯着屏幕,人情绪不好的时候,一旦发生故障他也看不出来。

    上海在去年年底和今年年初的时候,有很大数据中心造成宕机,第一空调宕了,三次启动没有起动起来,实际上厂房为了保护他自己的设备,会附加一些保护程序,我允许让你三次违法操作,但是绝对不允许你第四次非法操作,把空调锁死了,比如空调制冷设备没有了,没有多少时间把空调宕机了,只能让厂方来研究,但是由于各厂方对售后服务也有指标,这样一来从用户感觉来说,那个服务工程师是老军医。我们在整个设备调试的时候,我主管是项目的时候,在最大程度上允许设备坏,因为我有备份,我有N+1,还是2N+1,同时可以损坏两台设备,还有云计算,系统不会瘫痪,UPS也是一样,很多UPS供应商,互联供应商,一分货一分价钱,我知道技术含量所以不会砍价,假如说你报100万,我报105万,另外一家80万,经常买80万虽然节约了20%,但是你的风险不止提高了20%。

    张群英:感谢我们坚持到现在的同事,现在最后一个问题,结束了以后有大奖。今天上午Avocent的长总讲述了数据中心运营五大挑战,第一可用性,第二可靠名,第三课适应性,第四课管理性,第五维护性,虽然是特别常见的词,虽然是常见的词,这五项对您挑战最大的是什么?

    齐总:可用性是最关键,因为我原来半夜起来到机房里面,第二个就是COS,企业里面建机房很少考虑N+1,除非有安全,我现在深有体会,可用性是什么?现在布线的工人素质越来越差,原来在上海布线的厂商可能5个手指头,现在工人素质越来越差,做出来的活真的要用仪器测了,这就是我们企业IT管理最大的问题,现在不良厂商太多了,门槛低了。

    张群英:听众们有没有遇到不良的供应商或者不良的第三方现象吗?没有,说明这是极小概率事件,尤其跟我们长久关联的网络各位厂商,是品德优良,技术过关。请几位厂商代表从可用性和可靠性角度,有什么看法?

    Avocent杨总:讲到两个关键词,从可用性来说无非是我们需要对用户来说,我们某一样服务始终不间断可以提供,如果说发生了某一些故障,这个是在所难免,如果企业不是很有钱,可能做不到2N+1,故障既然不可避免,也就是我们要平均修复时间尽量,这样才能提高可用性,平均修复时间主要来自于两个方面,一个是如果发生了故障,半夜里往机房里面跑,其实家里到机房时间也占用平均时间,如果不能做到可能,就要在短时间内提供技术手段,比如说如果有一种技术,我们和艾默生有一个误会,我们是Avocent,和艾默生有点像,现在我们做艾默生网络能源独立的BEO厂商,我们主要KEMR,智能电源条等等,这些产品主要解决的是让齐总在家里的时候,和您跑到机房里面一模一样,在家里做什么机房里面有能做什么。 其次对访问的时候,日志时候,有非常快速追踪技术,可以定位,最终为了提高我们的SLA提高我们的可用性。

    第二个问题一样,我们不能做到2N+1的情况下,花钱少了,同样要达到比如说这个四个九不可能,达到两个九,通过低成本方式尽量提高设备的可用性,这个也是希望我们提供给各位用户的解决方案。

    张巍:阿朗是大家可能应该知道,作为一个以运营商为主的通讯厂家,所以高可靠性在这里一直以来排在首位考虑的做产品设计的原则,因为真的出现任何故障,企业影响相对面小,在运营商范围内影响更大,所以我们对于产品的经营都有高可靠性设计在里面。总体设计运营方面,一个高可靠性,可能初始投资比较小,是不是有节电等等,初始的投资相对来说10%,但是在五年期运行之中,相对反而有更大的节约,这个在产品设计里面,这是一个综合考虑因素,不是单纯地初始投入必须看运维成本怎么考虑?

    张群英:我觉得电信一直用来做IT的人,当形容某一个产品可靠的时候,电信级的可靠性,到底电信级可靠不可靠,张总可以拿到汪总机房里面试试,也可以到齐总那边试试。

    韩勇:我很同意一个关于高可用性,主要通过MTTR实现,关于TCU,很多用户也沟通过,到目前为止关注的仅仅是采购的云,没有真正关心到TCU,可能大规模用户考虑,因为用电成本实在太高了,我也接触到用户,像ITC,百度、腾讯的公司,电费都是几千万计,这上面能够帮助用户省15%-30%,是相当可观的数字,完全可以把设备差价补回来,我们也是借用这样的场合跟用户多做宣传,能够让用户真正从TCU角度考虑问题,现在还有体制上的问题,电费不是那部门的事,往往不考虑电费的事情,总体来说,希望有一个不光是企业自己节约经费,对社会有更多绿色职能在这里。

    张群英:这个不仅仅是基础设施设备上,每一层包括软件产品都要考虑TOC的,我曾经奢侈买了某国际顶级金牌的裙子,因为我太喜欢了,犹豫再三,下定决心买了,上周在北京穿它时候,我的同事说你又买衣服了?这就是TOC,我五年之内每个周期每个冬天要洗两到三天的衣服,五年之后大家认为是新买的,我穿上以后大家劝我,你好歹也是领导,你不能穿这些衣服吗?所以这些代价都是血的代价,深信服张总对可用性你有没有别的观点?

    张开翼:在我看来可用性分成两个方面,一个可靠性,我们谈到的更多是可靠性,另外一个作为不管是企业IT主管还是供应商,更多考虑我们如何采用一些比较匹配业务流程,和业务的运营模式的一些创新的方法,去改善我们的业务效率?这个我觉得可能会是另外一种层面,大家平时考虑比较少的可用性,这种可用性跟QC挂在一起,通过有效的方法改变我们原来的业务模式,可以带来一些新的截然不同的变化,这种变化能够使得业务开展得更为顺畅,投资更低,这是一种思路。我们一直在跟我们的客户交流一个话题,CIO现在的说法就是首席信息官,但是还有一个层面是首席创新官,所谓的创新我们站在组织的业务角度看,我如何应用技术,通过变化使得我的整个组织的业务能够不断地进行变革?这种变革能够进一步带来业务的高可用。

    张群英:谢谢张总,谢谢我们每一位厂商代表,他们特别自觉,特别刻意避免自己的广告和技术,其实没有必要,你们讲讲自己自产品,大家还愿意听,我非常感谢他们,也非常感谢汪总和齐总两位代表,抛空无良厂商,作为媒体我们会把这些事情再传达,今天参加讨论每一位厂商都可信赖,也感谢在座坚持下来的每位用户代表,谢谢大家!其实我们还有很多问题想问,但是大家理解的原因,我只好被迫结束,我第一次做主持,觉得很过瘾,让我们用热烈地掌声感谢嘉宾!

    下面进行抽奖。谢谢大家今天的会议到此结束。