freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內(nèi)容

華三云計算項目技術方案-資料下載頁

2025-05-14 22:52本頁面
  

【正文】 儲用于安裝虛擬化平臺(如H3Cloud CVK和CVM)和保存資源池的元數(shù)據(jù)。本地存儲建議配置兩塊SAS硬盤,設置為RAID1,通過鏡像(Mirror)方式放置本地磁盤出現(xiàn)單點故障,以提高H3Cloud本身的可用性。H3Cloud云計算管理平臺初始安裝后,會默認創(chuàng)建一個本地的默認存儲: defaultpool,位于/vms/images目錄下。先選擇“主機”,在右面頁簽中選擇“存儲”,選擇“增加”按鈕,可以手工增加本地文件目錄類型的存儲池;配置掛接的目錄: iSCSI遠端共享存儲設計遠端共享存儲用于保存所有虛擬機的鏡像文件以支持動態(tài)遷移、HA和動態(tài)負載均衡等高級功能。共享存儲LUN容量規(guī)劃公式如下:LUN容量 = (Z (X + Y) )Z = 每LUN上駐留的虛擬機個數(shù)X = 虛擬磁盤文件容量Y = 內(nèi)存大小假設每個LUN上駐留10個虛擬機,虛擬磁盤文件容量需求平均為40GB,內(nèi)存容量在4~8GB之間,考慮到未來業(yè)務的擴展性,內(nèi)存交換文件按8GB空間估算,整體冗余20%,那么:LUN容量 = (10 (8 + 40) ) ≈ 600GB存儲總容量=業(yè)務數(shù)(按滿足64個業(yè)務估算)LUN容量=iSCSI存儲是將虛擬機存儲在iSCSI存儲設備上。一般是先修改物理主機上的iSCSI配置,使其能夠訪問iSCSI存儲。iSCSI存儲是作為一個塊設備使用的,即iSCSI上配置了對應的target后,則在vManager上使用該存儲池時,是全部占用的,類似于裸設備的使用。選擇“iSCSI網(wǎng)絡存儲”類型:若物理主機還沒有設置Initiator節(jié)點的名稱,則需要先設置Initiator節(jié)點。配置Initiator節(jié)點名稱:注意:Initiator名稱需要和iSCSI上配置的名稱一致:01:192168000004,需要配置和iSCSI存儲上一致。iSCSI存儲上target對應的Initiators配置:設置物理機上和iSCSI服務器聯(lián)通使用的網(wǎng)絡地址:配置iSCSI存儲地址后,選擇對應的target:選擇target最為存儲池:選擇結束后,點擊“完成”即可。 共享文件系統(tǒng)對于iSCSI或者FC提供裸設備作為存儲池,一個最大的缺點是一個虛擬機占用了所有存儲空間。針對這種情況,CVM在iSCSI和FC的基礎上提供了共享文件系統(tǒng),即基于iSCSI和FC的裸設備,采用共享文件系統(tǒng)格式化,從而能夠讓iSCSI的同一個target能夠同時容納多個虛擬機同時使用,從而大大提高了設備的利用效率。共享文件系統(tǒng)是多個主機之間可以共享使用,所有其配置是在主機的屬性上配置的。主機池的屬性頁簽,配置共享文件系統(tǒng)。增加一個共享文件系統(tǒng):基于iSCSI,對應的iSCSI配置請參考iSCSI存儲部分配置。物理主機上增加存儲池:在物理主機上直接引用已經(jīng)配置好的“共享文件系統(tǒng)”類型的存儲池即可。 網(wǎng)絡資源池 網(wǎng)絡設計要點云計算數(shù)據(jù)中心基礎網(wǎng)絡是云業(yè)務數(shù)據(jù)的傳輸通道,將數(shù)據(jù)的計算和數(shù)據(jù)存儲有機的結合在一起。為保證云業(yè)務的高可用、易擴展、易管理,云計算數(shù)據(jù)中心網(wǎng)絡架構設計關注重點如下:高可用性網(wǎng)絡的高可用是業(yè)務高可用的基本保證,在網(wǎng)絡整體設計和設備配置上均是按照雙備份要求設計的。在網(wǎng)絡連接上消除單點故障,提供關鍵設備的故障切換。關鍵網(wǎng)絡設備之間的物理鏈路采用雙路冗余連接,按照負載均衡方式或activeactive方式工作。關鍵主機可采用雙路網(wǎng)卡來增加可靠性。%的電信級可靠性。基礎網(wǎng)絡從核心層到接入層均部署H3C的IRF2技術,可以實現(xiàn)數(shù)據(jù)中心級交換機的虛擬化,不僅網(wǎng)絡容量可以平滑擴展,更可以簡化網(wǎng)絡拓撲結構,大大提高整網(wǎng)的可靠性,使得整網(wǎng)的保護倒換時間從原來的5~10秒縮短到50ms以內(nèi),達到電信級的可靠性要求。作為未來網(wǎng)絡的核心,要求核心交換區(qū)設備具有高可靠性,優(yōu)先選用采用交換引擎與路由引擎物理分離設計的設備,從而在硬件的體系結構上達到數(shù)據(jù)中心級的高可靠性。本次項目核心設備采用2臺H3C S10508數(shù)據(jù)中心級核心交換機、接入設備采用H3C 5820V2數(shù)據(jù)中心級接入交換機,設備組件層面充分保證高可靠。大二層網(wǎng)絡部署云計算數(shù)據(jù)中心內(nèi)服務器虛擬化已是一種趨勢,而虛擬機的遷移則是一種必然,目前業(yè)內(nèi)的幾種虛擬化軟件要做到熱遷移時都是均需要二層網(wǎng)絡的支撐,隨著未來計算資源池的不斷擴展,二層網(wǎng)絡的范圍也將同步擴大,甚至需要跨數(shù)據(jù)中心部署大二層網(wǎng)絡。大規(guī)模部暑二層網(wǎng)絡則帶來一個必然的問題就是二層環(huán)路問題,而傳統(tǒng)解決二層網(wǎng)絡環(huán)路問題的STP協(xié)議無法滿足云計算數(shù)據(jù)中心所要求的快收斂,同時會帶來協(xié)議部署及運維管理的復雜度增加。本次方案中通過部署H3C IRF2虛擬化技術實現(xiàn)兩臺或多臺同一層物理交換機虛擬成一臺邏輯設備,通過跨設備鏈路捆綁實現(xiàn)核心和接入的點對點互聯(lián),消除二層網(wǎng)絡的環(huán)路,這樣就直接避免了在網(wǎng)絡中部暑STP,同時對于核心的兩臺設備虛擬化為一臺邏輯設備之后,網(wǎng)關也將變成一個,無需部署傳統(tǒng)的VRRP協(xié)議。 在管理層面,通IRF2多虛一之后,管理的設備數(shù)量減少一半以上,對于本項目,管理點只有核心和接入兩臺設備,網(wǎng)絡管理大幅度簡化。如下圖所示:網(wǎng)絡安全融合云計算將所有資源進行虛擬化,從物理上存在多個用戶訪問同一個物理資源的問題,那么如何保證用戶訪問以及后臺物理資源的安全隔離就成為了一個必須考慮的問題。另一方面由于網(wǎng)絡變成了一個大的二層網(wǎng)絡;以前的各個業(yè)務系統(tǒng)分而治之,各個業(yè)務系統(tǒng)都是在硬件方面進行了隔離,在每個系統(tǒng)之間做安全的防護可以保證安全的訪問。所以在云計算環(huán)境下,所有的業(yè)務和用戶的資源在物理上是融合的,這樣就需要通過在網(wǎng)關層部署防火墻的設備,同時開啟虛擬防火墻的功能,為每個業(yè)務進行安全的隔離和策略的部署。在傳統(tǒng)的數(shù)據(jù)中心網(wǎng)絡安全部署時,往往是網(wǎng)絡與安全各自為戰(zhàn),在網(wǎng)絡邊界或關鍵節(jié)點串接安全設備(如FW、IPS、LB等)。隨著數(shù)據(jù)中心部署的安全設備的種類和數(shù)量也越來越多,這將導致數(shù)據(jù)中心機房布線、空間、能耗、運維管理等成本越來越高。本次方案中采用了H3C SecBlade安全插卡可直接插在H3C交換機的業(yè)務槽位,通過交換機背板互連實現(xiàn)流量轉發(fā),共用交換機電源、風扇等基礎部件。融合部署除了簡化機房布線、節(jié)市機架空間、簡化管理之外,還具備以下優(yōu)點:互連帶寬高。SecBlade系列安全插卡采用背板總線與交換機進行互連,背板總線帶寬一般可超過40Gbps,相比傳統(tǒng)的獨立安全設備采用普通千兆以太網(wǎng)接口進行互連,在互連帶寬上有了很大的提升,而且無需增加布線、光纖和光模塊成本。業(yè)務接口靈活。SecBlade系列安全插卡上不對外提供業(yè)務接口(僅提供配置管理接口),當交換機上插有SecBlade安全插卡時,交換機上原有的所有業(yè)務接口均可配置為安全業(yè)務接口。此時再也無需擔心安全業(yè)務接口不夠而帶來網(wǎng)絡安全部署的局限性。性能平滑擴展。當一臺交換機上的一塊SecBlade安全插卡的性能不夠時,可以再插入一塊或多塊SecBlade插卡實現(xiàn)性能的平滑疊加。而且所有SecBlade插卡均支持熱插拔,在進行擴展時無需停機中斷現(xiàn)有的業(yè)務。 網(wǎng)絡資源池設計本次項目基礎網(wǎng)絡采用“扁平化”設計,核心層直接下聯(lián)接入層,市去了中間匯聚層。隨著網(wǎng)絡交換技術的不斷發(fā)展,交換機的端口接入密度也越來越高,“扁平化”組網(wǎng)的擴展性和密度已經(jīng)能夠很好的XXX數(shù)據(jù)中心服務器接入的要求。同時在服務器虛擬化技術應用越來越廣泛的趨勢下,扁平化二層架構更容易實現(xiàn)VLAN的大二層互通,滿足虛擬機的部署和遷移。相比傳統(tǒng)三層架構,扁平化二層架構可以大大簡化網(wǎng)絡的運維與管理?;A網(wǎng)絡平臺組織結構如下圖所示:網(wǎng)絡的二、三層邊界在核心層,安全部署在核心層;核心與接入層之間采用二層進行互聯(lián),實現(xiàn)大二層組網(wǎng),在接入層構建計算和存儲資源池,滿足資源池內(nèi)虛擬機可在任意位置的物理服務器上遷移與集群。實際組網(wǎng)拓撲如下圖所示:2臺S10508構建核心層,分別通過10GE鏈路與接入層交換機S5820VGE鏈路與管理網(wǎng)交換機和出口路由器互連,未來此核心層將逐步演變成整網(wǎng)大核心,兩臺核心交換機部署IRF虛擬化。接入層采用2臺5820V2,每臺接入交換機與核心交換機采用10GE鏈路交叉互連,兩臺接入交換機部署IRF虛擬化,與核心交換機實現(xiàn)跨設備鏈路捆綁,消除二層環(huán)路,并實現(xiàn)鏈路負載分擔。管理網(wǎng)交換機采用1臺S5120SI,分別連接R390服務器的iLO接口實現(xiàn)服務器的帶外管理。同時與iMC網(wǎng)管服務器、云平臺管理服務器互連。上行采用2*GE鏈路與兩臺核心交換機互連,并實現(xiàn)鏈路捆綁。分層分區(qū)設計思路:根據(jù)業(yè)務進行分區(qū),分成計算區(qū)、存儲區(qū)和管理區(qū)。計算、存儲區(qū)域內(nèi)二層互通,區(qū)域間VLAN隔離;根據(jù)每層工作特點分為核心層和接入層,網(wǎng)關部署在核心層。 分層網(wǎng)絡設計1. 核心層核心層2臺H3C S10508構建,負責整個云計算平臺上應用業(yè)務數(shù)據(jù)的高速交換。兩臺核心交換機S10508分別與兩臺服務器接入?yún)^(qū)交換機間呈“三角形”型連接,與現(xiàn)網(wǎng)出口區(qū)路由器呈“口”字型連接,一臺管理區(qū)接入交換機雙上行分別與兩臺核心交換機連接。核心交換機間及與服務器接入交換機、管理區(qū)接入交換機、現(xiàn)網(wǎng)核心路由器間均采用萬兆接口捆綁互聯(lián)。核心交換機上部署防火墻插卡和網(wǎng)流分析插卡,實現(xiàn)云計算業(yè)務的安全防護與流量分析。兩臺S10508部署IRF2虛擬化技術,簡化路由協(xié)議運行狀態(tài)與運維管理,同時大大縮短設備及鏈路出現(xiàn)故障快速切換,避免網(wǎng)絡震蕩。IRF2互聯(lián)鏈路采用2*10GE捆綁,保證高可靠及橫向互訪高帶寬。組網(wǎng)拓撲如下圖所示:設備型號單臺設備端口配置備注H3C S10508,2臺新增16端口10GE接口板,1塊線速板卡新增SecBlade FW插卡,1塊新增SecBlade IPS插卡,1塊2. 接入層接入層分為計算資源池、存儲資源池和管理區(qū)接入三大部分:計算資源池接入:采用兩臺5820V2云接入交換機構建,負責x86服務器的網(wǎng)絡接入,服務器配置4個千兆接口,其中兩個千兆接口捆綁做業(yè)務流接口,雙網(wǎng)卡采用捆綁雙活模式;另外兩個千兆接口捆綁做虛擬機管理流接口,雙網(wǎng)卡采用捆綁雙活模式。兩臺5820V2部署IRF2虛擬化技術,通過跨設備鏈路捆綁消除二層環(huán)路、簡化管理,同時大大縮短設備及鏈路出現(xiàn)故障快速切換,避免網(wǎng)絡震蕩。IRF2互聯(lián)鏈路采用2*10GE捆綁,保證高可靠及橫向互訪高帶寬。存儲資源池接入:采用兩臺5820V2云接入交換機構建,負責x86服務器的網(wǎng)絡接入,服務器配置4個千兆接口,其中兩個千兆接口捆綁做業(yè)務流接口,雙網(wǎng)卡采用捆綁雙活模式;另外兩個千兆接口捆綁做虛擬機管理流接口,雙網(wǎng)卡采用捆綁雙活模式。兩臺5820X部署IRF2虛擬化技術,通過跨設備鏈路捆綁消除二層環(huán)路、簡化管理,同時大大縮短設備及鏈路出現(xiàn)故障快速切換,避免網(wǎng)絡震蕩。IRF2互聯(lián)鏈路采用2*10GE捆綁,保證高可靠及橫向互訪高帶寬。管理區(qū)接入:采用一臺S5120SI千兆交換機,與x86服務器R390的iLO口以及自帶的千兆網(wǎng)卡口互連,同時與 iMC網(wǎng)管服務器、云平臺服務器互連,上行接口采用兩個GE鏈路分別與兩臺核心交換機互連。接入層組網(wǎng)拓撲如下圖所示:設備型號單臺設備端口配置備注H3C 5820V54QS,2臺固定48個GE端口,4個SFP+端口,2個QSFP+端口計算資源池接入H3C S5820X26S,2臺固定24端口萬兆SFP+接口和2個千兆電口存儲資源池接入H3C S512028PSI,1臺24個10/100/1000BASET,4個 SFP管理區(qū)交換機 虛擬機交換網(wǎng)絡服務器虛擬化技術的出現(xiàn)使得計算服務提供不再以主機為基礎,而是以虛擬機為單位來提供,同時為了滿足同一物理服務器內(nèi)虛擬機之間的數(shù)據(jù)交換需求,服務器內(nèi)部引入了網(wǎng)絡功能部件虛擬交換機vSwitch(Virtual Switch),如下圖所示,虛擬交換機提供了虛擬機之間、虛擬機與外部網(wǎng)絡之間的通訊能力。,正式將“虛擬交換機”命名為“Virtual Ethernet Bridge”,簡稱VEB,或稱vSwitch。虛擬機交換網(wǎng)絡架構vSwitch的引入,給云計算數(shù)據(jù)中心的運行帶來了以下兩大問題:網(wǎng)絡界面的模糊主機內(nèi)分布著大量的網(wǎng)絡功能部件vSwitch,這些vSwitch的運行、部署為主機操作與維護人員增加了巨大的額外工作量,在云計算數(shù)據(jù)中心通常由主機操作人員執(zhí)行,這形成了專業(yè)技能支撐的不足,而網(wǎng)絡操作人員一般只能管理物理網(wǎng)絡設備、無法操作主機內(nèi)vSwitch,這就使得大量vSwicth具備的網(wǎng)絡功能并不能發(fā)揮作用。此外,對于服務器內(nèi)部虛擬機之間的數(shù)據(jù)交換,在vSwitch內(nèi)有限執(zhí)行,外部網(wǎng)絡不可見,不論在流量監(jiān)管、策略控制還是安全等級都無法依賴完備的外部硬件功能實現(xiàn),這就使得數(shù)據(jù)交換界面進入主機后因為vSwitch的功能、性能、管理弱化而造成了高級網(wǎng)絡特性與服務的缺失。虛擬機的不可感知性物理服務器與網(wǎng)絡的連接是通過鏈路狀態(tài)來體現(xiàn)的,但是當服務器被虛擬化后,一個主機內(nèi)同時運行大量的虛擬機,而此前的網(wǎng)絡面對這些虛擬機的創(chuàng)建與遷移、故障與恢復等運行狀態(tài)完全不感知,同時對虛擬機也無法進行實時網(wǎng)絡定位,當虛擬機遷移時網(wǎng)絡配置也無法進行實時地跟隨,雖然有些數(shù)據(jù)鏡像、分析偵測技術可以局部感知虛擬機的變化,但總體而言目前的虛擬機交換網(wǎng)絡架構無法滿足虛擬化技術對網(wǎng)絡服務提出的要求。為了解決上述問題, 本次項目H3C的解決思路是將虛擬機的所有流量都引至外部接入交換機,此時因為所有的流量均經(jīng)過物理交換機,因此與虛擬機相關的流量監(jiān)控、訪問控制策略和網(wǎng)絡配置遷移問題均可以得到很好的解決,此方案最典型的代表是EVB標準。 Edge Virtual Bridging(EVB)是由IEEE ,主要用于解決vSwtich的上述局限性,其核心思想是:將虛擬機產(chǎn)生的網(wǎng)絡流量全部交給與服務器相連的物理交換機進行處理,即使同一臺物理服務器虛擬機間的流量,也將發(fā)往外部物理交換機進行查表
點擊復制文檔內(nèi)容
公司管理相關推薦
文庫吧 www.dybbs8.com
備案圖鄂ICP備17016276號-1