Open Ethernetによって実現する 「ユーザのユーザによるユーザのための」Ethernet メラノックステクノロジーズジャパン株式会社 津村英樹 June 13, 2014 40Gbps以上の⾼高速ネットワークを実現する唯⼀一のベンダー 包括的なエンドトゥエンドソリューションを実現するInfiniBandとEthernet両⽅方に対応可能な製品ラインナップ シリコン アダプタカード スイッチ ゲートウェイ ホスト Metro / WAN ファブリックソフトウェア ケーブル モジュール HCA/NIC⽤用コントローラやスイッチ⽤用ASICを全て⾃自社開発 40Gbpsを超えるネットワークで最強のコストパフォーマンスを提供 PCクラスタ、ストレージ⾼高速化、クラウド環境向けIO統合などに最適な次世代インフラストラクチャ © 2014 Mellanox Technologies - Mellanox Confidential - 2 Mellanox Ethernet スイッチプロダクトライン SX1036 40/56ギガビットEthernet 36ポート 2013 SX1024 10ギガビットEthernet 48ポート 40/56ギガビットEthernet 12ポート SX1016 10ギガビットEthernet 64ポート 2014 SX1012 40/56ギガビットEthernet 12ポート © 2014 Mellanox Technologies - Mellanox Confidential - 3 Mellanox Ethernet スイッチ製品の主な仕様 マネジメントプレーン • • • • • • • • • • • • • • • • データプレーン 10/100/1000 ETH RJ45 MNG ports USB console port for management Dual SW image Static IP DHCP SSH, Telnet RADIUS / TACACS+ / LDAP NTP FTP/TFTP/SCP SYSLOG Auto temperature control Events history Port counters SNMP v1,2,3 Web UI In-‐‑‒band management • • • • • • • • • • • • • • • • • ECMP/OSPF • MLAG Port mirroring • VRRPv2 sFlow 56Gb Ethernet Static routes Rapid Spanning Tree (802.1w) Flow control (802.3x) DCB -‐‑‒ PFC (802.1Qbb), ETS (802.1Qaz) LLDP LAG/LACP (802.3ad) 48K unicast MAC addresses Cables/transceivers identification IGMP v1,2 VLAN (802.1Q) – 4K ACL – 12K rules Jumbo frames 9K OpenFlow ハイスループット、低レイテンシー、低消費電⼒力力、VPI © 2014 Mellanox Technologies - Mellanox Confidential - 4 カーネル ユーザ RDMAの概要 アプリケーション 1 OS アプリケーション バッファ 1 バッファ 1 バッファ 1 バッファ 1 バッファ 1 バッファ 1 2 OS ハードウェア RDMA over InfiniBand or Ethernet HCA NIC HCA バッファ 1 NIC バッファ 1 TCP/IP ラック 1 © 2014 Mellanox Technologies ラック 2 - Mellanox Confidential - 5 Solid State Deviceの特性を活かすストレージサーバ § フラッシュメモリのコモディティ化はSSDストレージの利利⽤用を促進 • SSDは共有ストレージへのアクセス競合を緩和し、ランダムI/O性能を劇的に向上 § SSDは最⼩小のレイテンシーと低消費電⼒力力のストレージを実現 • 最⾼高性能だがまだ⾼高価なSSDを低価格で利利⽤用するには、SSDのアプリケーションへの 応答性能を妨げない、低レイテンシーなインターコネクト技術による外部共有が必須 Component Latency (usec) InfiniBand 0.7 Ethernet RDMA (RoCE) 1.3 Ethernet TCP 6 Fibre Channel 20 SSD Read 25 Disk Read 6000 Total: 45usec Total: 25.7usec Fibre ChannelではSSDのパフォーマンスを活かすことはできない SSDの共有にはInfiniBand、RoCE (RDMA over Coverged Ethernet)が最適! © 2014 Mellanox Technologies - Mellanox Confidential - 6 Oracleのエンジニアードシステムで活⽤用されるInfiniBand § Oracle Weblogic Server Grid • • • • 30 Compute Servers 360 Compute Cores 2.8 TB DRAM 960 GB Solid-‐‑‒State Disk § Mellanox InfiniBand Network • 40 Gb/s InfiniBand Links • 1.2 micro second latency • 10Gb/s Ethernet connectivity to data center § Integrated Storage Appliance • • • • Central storage for system images Clustered for HA 40 TB SAS disk storage 4 TB read cache © 2014 Mellanox Technologies - Mellanox Confidential - 7 Oracle RACでInfiniBandを採⽤用するメリット § I/O性能を33%向上 § DB処理理能⼒力力を62%向上 § システムコストを35%削減 § レスポンス時間の短縮により、⽣生産性向上 Minutes 80 70 60 50 40 30 20 10 Gigabit Ethernet Reduced run-time by 62% ギガビットEthernet/FibreChannel とInfiniBandの⽐比較 * Common performance benchmark Time to run 1 million SKU through fulfillment planning operation Source: InfiniBand One million SKU* © 2014 Mellanox Technologies - Mellanox Confidential - 8 40ギガビットEthernet: ストレージ市場における最新トレンド § NetApp, Inc. • 40GbE Adoption Takes Off in the Data Center The next evolution of the Ethernet, 40Gb, will begin widespread adoption at the core of the data center. Higher bandwidths allow larger datasets to move more quickly and easily, which in turn encourages the growth of data. Jay Kidd Chief Technology Officer and Senior Vice President, NetApp Inc. https://communities.netapp.com/community/netapp-‐‑‒blogs/netapp-‐‑‒360/blog/2013/12/12/the-‐‑‒it-‐‑‒almanac-‐‑‒for-‐‑‒2014 § 株式会社東芝 • vForum2013において、メラノックス社40ギガビット Ethernetを Ethernetを使⽤用したIO統合ソリューションを動態展⽰示 • 2014年年度度に同社のFlashストレージシステムで40ギガ ビット Ethernetを正式サポート予定 © 2014 Mellanox Technologies - Mellanox Confidential - 9 SMB Direct 仮想環境での性能⽐比較 Configuration © 2014 Mellanox Technologies IOPS %CPU MB/sec BW 512KB IOs/sec Privileged milliseconds Local 10,090 38,492 ~2.5% ~3ms Remote 9,852 37,584 ~5.1% ~3ms Remote VM 10,367 39,548 ~4.6% ~3 ms - Mellanox Confidential - Latency 10 SMBはHyper-‐‑‒V Live Migrationとの共⽤用が可能 § SMBは仮想マシンのLive Migrationに対応可能 § SMBによって提供される主な機能 • RDMA (SMB Direct) • Streaming over multiple NICs(SMBマルチチャネル) Live Migration Times 70 60 § 最⾼高のスループットと最⼩小のレイテンシーを実現 Seconds 50 Windows Server 2012 R2 で初めて サポート 40 30 20 10 0 Live Migrationが ⾼高帯域 Live Migrationは 40/56Gbps SMBマルチチャネ RDMAは Live ネットワークに ルによって複数の Migration中の よって⾼高速化 通信を同時に CPU処理理をNIC ロードバランスして でオフロード 実⾏行行が可能 © 2014 Mellanox Technologies - Mellanox Confidential - 11 ブートストーム解消&仮想デスクトップ台数を2.5倍以上にするiSER § Mellanox社とLSI社の共同ソリューションにより、 VDI環境にお Benchmark ConfiguraCon けるストレージレイテンシーの改善とIOPSを劇的に向上 • LSI Nytro MegaRAIDは、SSDベースのキャッシュによってディスク アクセスを⼤大幅に⾼高速化 • Mellanox ConnectX®-‐‑‒3 10/40ギガビットEthernet NICは、ハイパー バイザーから共有⾼高速ストレージへのアクセスをRDMAによって⾼高速化 すると同時に、オーバーヘッドゼロのレプリケーションを実現 ソリューションは物理理サーバ1台当り160仮想デスクトップという 空前の統合率率率を実現 • iSER (iSCSI Extensions for RDMA) を使⽤用することで、通常のTCP/IP ベースのiSCSIに⽐比べてまったく同じ設定環境で2.5倍以上のVMが搭載可能に * http://www.mellanox.com/related-docs/whitepapers/SB_Virtual_Desktop_Infrastructure_Storage_Acceleration_Final.pdf © 2014 Mellanox Technologies - Mellanox Confidential - iSCSI/RDMA (iSER) target So4ware RAID (MD) Replication § Login VSI社VDI Load Generatorでテストした場合、上記 Mellanox SX1012 10/40GbE Switch iSCSI/RDMA (iSER) target LSI Caching Flash/RAID Controller LSI Caching Flash/RAID Controller Primary Secondary • 2 x Xeon E5-2650 processors • Mellanox ConnectX®-3 Pro, 40GbE/RoCE • LSI Nytro MegaRAID NMR 8110-4i Redundant Storage Cluster 12 クラウドコンピューティングの今後の課題 2006年年(トリノ) 2014年年(ソチ) PCIe PCIe 16GB Memory $1200, 192W PCIe 2 x Quad Core CPUs $2800, 240W Wasted 8GB Memory $600, 96W Wasted 2010年年(バンクーバー) PCIe PCIe PCIe 40Gb/s 1GigE, 50µs, $100, 4W § 強⼒力力な物理理サーバのスペックをアプリケーション が使⽤用しきれずCPUとメモリはアイドル状態 § 物理理サーバの台数が無駄に増加 © 2014 Mellanox Technologies 12Gb/s, 50µs, $2400, 28W サーバ仮想化により、複数の仮想サーバが CPUやメモリを共有することで効率率率化 § I/Oがボトルネックに、統合率率率が頭打ち! § 配線など、I/O接続機器と複雑性の増加 =インターコネクト投資増加 § - Mellanox Confidential - 40-‐‑‒56Gb/s, 1µs, $900, 10W § § § § § 40ギガビットEthernetによるIO統合化 サーバ当りVM搭載率率率向上によるコストダウン IT機器の台数削減+⾼高密度度化によるコストダウン ケーブリング複雑性の解消による運⽤用コスト削減 消費電⼒力力やメンテナンスコストの⼤大幅な削減 13 仮想環境の課題 :IOポートの増加によるスロット不不⾜足 ノード間通信 2本 Migration⽤用 2本 管理理⽤用ポート 2本 ストレージ⽤用 2本 15 x 8Gb/s Fibre Server Channel Ports OR + = 12GB/s = 10 x 10Gb/s iSCSI Ports (with offload) OR 2 x 40Gb/s Ethernet port 24 x 2.5” SATA 3 SSDs (with RDMA) 統合率率率向上に対応 : 数10万 IOPS ⾼高帯域IO統合は仮想環境におけるボトルネック解消には必須! © 2014 Mellanox Technologies - Mellanox Confidential - 14 10GbE vs 40GbE⽐比較シミュレーション オンラインでサーバが買える某社WEB⾒見見積もりシステムでの実売市場価格 での試算⽐比較を実施(VMwareベースでのクラウドDCを想定) 10Gbase-‐‑‒T Mellanox 40GbE VS © 2014 Mellanox Technologies - Mellanox Confidential - 15 10GbE vs 40GbE⽐比較シミュレーション オンラインでサーバが買える某社WEB⾒見見積もりシステムでの実売市場価格 での試算⽐比較を実施(VMwareベースでのクラウドDCを想定) 10Gbase-‐‑‒T 約200 サーバ 24 スイッチ 約1700 VM • 2p 10G NIC x 2 (合計帯域40G) • 2つのネットワーク (スイッチ数=M) • VM数=N © 2014 Mellanox Technologies Mellanox 40GbE VS 約200 サーバ 12 スイッチ 約3100 VM • 2p 40G NIC x 1 (合計帯域80G) • 1つの統合ネットワーク (スイッチ数=1/2M) • VM数=2N(約2倍) - Mellanox Confidential - 16 10GbE vs 40GbE⽐比較シミュレーション VM当たりの導⼊入コスト[円] VM当たりの消費電⼒力力[W] 約50%削減 約60%削減 Cables Switches Switches Servers(w/ NICs) Servers(w/ NICs) Vendor-‐‑‒A(10Gbase-‐‑‒T) © 2014 Mellanox Technologies Mellanox(40GbE) Vendor-‐‑‒A(10Gbase-‐‑‒T) Mellanox(40GbE) スイッチ数が半分となるため、設置⾯面積の観点でも効率率率アップ - Mellanox Confidential - 17 次世代企業ネットワークインフラはOpen Ethernetの時代に ソフトウェアを選択・作成する⾃自由が与えられることにより、 ⼀一切切の妥協が不不要となり、ユーザ、ベンダーは差別化が容易易に Open Ethernet ベンダー主導の管理理 実際の環境に 最適な管理理 ベンダー主導の ソフトウェア選び 本当に使いたい ソフトウェア クローズな Ethernetスイッチ オープンな Ethernetスイッチ ロックダウン垂直統合型ソリューション © 2014 Mellanox Technologies - Mellanox Confidential - オープンプラットフォーム 18 Open Platform向けにメラノックス製品の拡張性を最⼤大限活⽤用 拡張性を求められるデータセンター向けのオープンな ハードウェアソリューション 10/40ギガビットEthernet NICをOCPに最初に提供 これまでに30万ポートを出荷済 OCP Open Rack 向け10/40ギガビットEthernetスイッチを初めて開発 Open Network Install Environment (ONIE) を最初にサポート OCP NIC © 2014 Mellanox Technologies ONIE Switch Open SDK API - Mellanox Confidential - 10/40/56G Open Switch 100Gb Open Switch Q1 2014 2014/15 19 オープンハードウェアの持つパワー + オープンNIC、オープンスイッチ、オープンサーバ、オープンラック © 2014 Mellanox Technologies - Mellanox Confidential - 20 オープンソフトウェアの持つパワー + オープンソフトウェア オープンNIC、オープンスイッチ、オープンサーバ、オープンラック © 2014 Mellanox Technologies - Mellanox Confidential - 21 = 性能的にも機能的にも何の妥協もしない仮想環境を実現 オープンクラウド オープンソフトウェア オープンNIC、オープンスイッチ、オープンサーバ、オープンラック © 2014 Mellanox Technologies - Mellanox Confidential - 22 ITシステム基盤はSelf Service IaaSプールを目指す OS Windows/Solaris/HPUX RedHat/CentOS… HW(Physical) SUN/HP/DELL Cisco/F5… HWプラットホーム、NW管理、MWやAPPなど環境に関しては、 統一されておらずすべて個別管理。 ・・・ WebLogic/Jboss Oracle/MySQL… RedHa t MW TomCa t Java/Ruby/.netFW/ C++・・・ CentO S Java/Ruby/.netFW/ C++… Oracle APP CentO S APP Idealー将来? JBoss Currentー現在 Windo w Beforeー以前 HW(Physical) SUN/HP/DELL Cisco/F5… システム基盤の統一に向けてOSやNWなど一定の制限を持たせ、 Self Service メニュー化を進める。 ユーザリクエストに対して、手動でGuestOSの提供までをサポー ト。HWは既存アセットをそのまま利用。サーバー集約を目指して 一部サーバー仮想化も… Confidential User Space User Space User Space User Space User Space User Space CPU Storage Network HW NW(Physical) WhiteBox IaaS Poolから自由にUserSpaceを引出し、 アプリケーション稼働環境の可変(メモリやCPUの増減、OS を含んだアプリ実行環境 クローン作成、ネットワーク環境 を含んだIaaS環境の自動構成)。 23 しかし、「ネットワーク仮想化」が欠けている DBサーバ サーバ仮想化 システム全体の仮想化 ネットワークなしでは システムの仮想化に ならない! Confidential 現在の環境 ネットワーク仮想化 サーバーの申請・承認 ネットワーク申請・承認 機器調達 自社リソース・プール の空き容量に無償で 仮想マシンを作成。 ネットワークも共通の 管理プラットホームで パーティショニング設 定。申請・承認を一元 化 ラッキング、ケーブル結線 VLAN設定 アプリケーション設定 標準化 所要時間 バックエンド サーバ 新しいアプリケーションを評価開始するまでの時間 DNS フロントエンドサーバ サーバ・ネットワーク申請・承認 アプリケーション設定 24 ネットワークも進化している VLAN アプローチ Manual End-‐to-‐End 物理スイッチにVLANを設定 • 静的な動作 • 手動 • 複雑 • テナント毎の設定情報は物 理ネットワーク機器に保存さ れる OPENFLOW リアクティブ アプローチ ReacCve End-‐to-‐End フローのプログラミングが 必要 • フロー数など、拡張性に限界 がある • 管理に手間がかかる • テナント毎の設定情報は物理 ネットワーク機器に保存される Confidential プロアクティブ ソフトウェア オーバーレイ Virtual Network Overlays ハードウェアとソフトウェアを 完全に切り離す • クラウドに対応できる機敏な設定変 更が可能 • 高い拡張性 • オープン • 物理ネットワークと切り離し、ネット ワーク構成が柔軟にできる MidoNet アーキテクチャ • コントローラ機能が 各サーバに分散 されていることが最大の特徴 Cloud OrchestraKon Network State Database Analytics Configuration VM VM VM VM VM MidoNet Agent OVS Kernel Module GRE/VXLAN tunnel TCP traffic VM VM MidoNet Agent MidoNet Agent MidoNet Gateway NB APIs Internet /Outside Network Confidential 26 ConnectX®-‐‑‒3 Pro: VXLAN/NVGREオフロードが可能な唯⼀一のNIC § VXLAN/NVGRE: 仮想化データセンターネットワークの課題を解決 • 拡張性、柔軟性、仮想化リソースのさらなる稼働率率率の向上 • VXLAN/NVGREの処理理にCPUリソースが使⽤用されるため、 アプリケーション性能の劣劣化、統合率率率低下などのリスクが懸念念される § ConnectX®-‐‑‒3 Proは仮想オーバーレイネットワークをサポート • オーバーレイネットワーク⽤用ハードウェアオフロードエンジン • VXLAN/NVGRE⾼高速化 • CPUオーバーヘッドを劇的に削減 § サーバ仮想化の特⻑⾧長を100%活かしながら既存の仮想化データ ConnectX®-3 Pro 10/40GbE Ethernet with VXLAN/NVGRE Acceleration センタの課題を解決できる、理理想的なクラウドサービス基盤を実現! © 2014 Mellanox Technologies - Mellanox Confidential - 27 ⼀一般的なオーバーレイネットワークのイメージ Gateway (Network) Nodes Router / NAT Software Gateway vEth1 vEth0 SDN Manager e.g. OpenStack Neutron, ODL, VMware NSX BR0 BR1 VXLAN OVS VNI200 VNI300 Hypervisor Hypervisor VM VM VM VM VM VM VM VM OS OS OS OS OS OS OS OS vTap vTap vTap BR0 vTap BR1 vTap BR2 VXLAN Overlay Open vSwitch (OVS) VNI100 VNI200 VNI300 vTap vTap vTap vTap BR1 BR0 VXLAN Overlay Open vSwitch (OVS) VNI100 VNI300 UDP UDP UDP IP IP IP Internet Underlay Network (Layer 2 or Layer 3) VXLAN Overlay (tenant) networks © 2014 Mellanox Technologies - Mellanox Confidential - 28 VXLANやNVGREベースのネットワーク仮想化の直⾯面する課題 § ハイパーバイザのIPスタックや標準的なNICはクライアントTCP/IPのトラフィックを認識識できない § ハードウェアによるセグメンテーション/リアッセンブリ、チェックサムオフロード、RSS/TSS CPUコアのスケーリングなど標準的なオフロード技術では、仮想マシンが⽣生成するTCP/IPパケット (インナーペイロード)を処理理することができない § これらの処理理をCPUに負担させることにより、VXLANやNVGREを使⽤用する環境では、多⼤大な負荷が ホストCPUに掛かってしまい、アプリケーション性能やサーバ統合率率率に悪影響を与えてしまう § メラノックスのConnectX®-‐‑‒3 Proは、これらの仮想マシンが⽣生成するTCP/IPパケットを処理理でき る世界初のNICであり、VXLANやNVGRE使⽤用時におけるCPUのオーバーヘッドをなくすことで、シ ステム性能に影響を与えずにオーバーレイ型ネットワーク仮想化環境に移⾏行行することができる VXLAN Packet Format Generated by the VM Generated by the Hypervisor © 2014 Mellanox Technologies - Mellanox Confidential - 29 ConnectX®-‐‑‒3 ProによるNVGREスループット 35 30 Throughput (Gb/s) スループット (Gb/s) NVGRE Offload Engine – Breaks the 10Gb/s Barrier 29.3 25 20 NVGREオフロードなし NVGRE Offload Disabled NVGREオフロードあり NVGRE Offload Enabled 15 9.2 10 5 5 0 40Gb/s Adapter 40ギガビットEthernet © 2014 Mellanox Technologies 5 10Gb/s Adapter 10ギガビットEthernet - Mellanox Confidential - 30 Bandwidth [Gbit/sec] ConnectX®-‐‑‒3 Proによるオーバーレイネットワークの⾼高速化 VXLAN使⽤用時のVM全体のバンド幅 25 20 15 10 5 0 VXLANオフロードにより バンド幅が5倍に 1 VM 11 2 VMs 19 3 VMs 21 VxLAN in soTware 2 3 3.5 VxLAN HW Offload 10 19 21 NO VxLAN VXLANオフロードにより CPU使⽤用率率率が1/4に CPU% / Bandwidth (Gbit/sce) VXLAN使⽤用時のCPU使⽤用率率率(Gbit/sec あたり) Test Details 4.00 - - - - 3.00 2.00 1.00 0.00 NO VxLAN 1 VM 0.55 2 VMs 0.68 3 VMs 0.67 VxLAN in soTware 3.50 3.33 4.29 VxLAN HW Offload 0.90 0.89 1.19 © 2014 Mellanox Technologies - Mellanox Confidential - - - - - Test command: netperf -t TCP_STREAM –H 1-3 VMs talking to 1-3 VMs on a second server OpenvSwitch (OVS) with VXLAN support Servers: - HP ProLiant DL380p Gen8 - 2 x Intel(R) Xeon(R) CPU E5-2650 0 @ 2.00GHz - 32GB RAM Hypervisor OS: Linux Upstream Kernel 3.14-rc1 + KVM Guest VM OS: RHEL 6.5 2.6.32-431.el6.x86_64 NIC: ConnectX-3Pro , FW: 2.30.8000 CPU% and Bandwidth measures on the Hypervisor (aggregate 1-3 VMs) 31 ConnectX®-‐‑‒3 ProによるVXLANスループット Source: PlumGrid white paper Mellanox ConnectX-‐‑‒3 Pro: PLUMgrid VNI (Virtual Network Infrastructure) オーバーレイベースアーキテクチャをスケールアウトする唯⼀一のソリューション © 2014 Mellanox Technologies - Mellanox Confidential - 32 スイッチベースのVXLANオフロードとの違いは? § VXLAN⽤用ゲートウェイの機能はスイッチでもオフロードすることが可能であり、VLANベース の既存ネットワークに対する⾼高速なブリッジ機能を提供できる • クラウドサービスプロバイダは、BGPに対応した最先端のルータ、NAT、DHCP、モニタリングやファイアウォール を展開しているため、柔軟性の⾼高いソフトウェアベースのゲートウェイの⽅方が良良い場合もある • OpenStack Network Nodesのようにソフトウェアゲートウェイは拡張性に優れているため、メラノックスの VXLANハードウェアオフロードと組み合わせることで、⾼高い性能を保持しながらシステムを拡張できる § VXLAN Switch Termination/Gateway (VTAP)は、VXLAN処理理に関するCPUの負荷を軽 減できない • Internal VLANはハイパーバイザで⽣生成され、オーバーレイネットワークとは別に管理理される • スイッチベースのオフロード機能は、NICによるハードウェア・オフロードに⽐比べてCPUオーバーヘッドの解消には効 果がない VM SDN/Cloud Manager is only aware of the VXLAN overlay networks (VNIs), and doesn’t manage the internal VLANs, adding significant complexity SDN Manager vTap ? Limited hardware resources for tunneling and ACLs © 2014 Mellanox Technologies VM OS - Mellanox Confidential - OS vTap Open vSwitch (OVS) VM vTap vTap OS vTap BR0 VM BR1 OS Switch Based VXLAN Gateway (VTAP) Approach BR2 VLAN3 VLAN4 VLAN5 Internal VLANs must be created and managed in the Hypervisor to ensure isolation between VMs on different networks/tenants 33 ITシステム全体を仮想的なメインフレームに再構築 § ITシステムは分散と集中を繰り返す • • • • 1980年年代 メインフレームで業務を集中処理理 1990年年代 クライアント・サーバでIT適⽤用エリアを拡⼤大 2000年年代 サーバ・ストレージ仮想化 2010年年代 ネットワーク仮想化 § 基幹系以外のサーバをプライベートクラウドに移⾏行行 • 継続使⽤用するサーバはプライベートクラウド • ⾮非基幹系サーバはパブリッククラウドを併⽤用 • プライベートクラウドの空き容量量を有効活⽤用 90 80 70 60 50 40 30 20 10 0 9時-‐12時 夜間バッチ 業務サーバ email 開発用途 12時-15時 15時-18時 夜間 80 • Haswell等⾼高性能サーバで統合率率率を倍増 -‐‑‒30% (1) • 運⽤用コスト、ラック代、電気代 -‐‑‒30% (2) • 仮想メインフレームによる平準化 (1) + (2) -‐‑‒30% - Mellanox Confidential - 夜間バッチ 60 50 業務サーバ 40 30 email 20 開発用途 10 0 9時-‐12時 基幹系 空き容量 70 § 基幹系サーバもクラウド環境に統合でTCOを半減 © 2014 Mellanox Technologies 空き容量 12時-15時 15時-18時 夜間 基幹系 34 Open Ethernet by Mellanox コントロール プレーン Navigate ニーズに合わせて最新モデルを選択 組み込み、ベンダー依存 Sports Car (Technologies on Races) データ プレーン Drive 「数倍の性能、価格は同等以下」 世界TOP500スパコンで幅広く採⽤用されている InfiniBand対応⾼高性能ASICをEthernetにも適⽤用 ü ü ü ロックダウン+コモディティHW © 2014 Mellanox Technologies HPC Grade Performance Ultra Low Power Excellent Cost Performance Single Chip Supporting 36 x 40/56GbE オープンプラットフォーム+⾼高性能HW - Mellanox Confidential - 35 メラノックスブース (6J17) © 2014 Mellanox Technologies - Mellanox Confidential - 36 Thank you!
© Copyright 2024 ExpyDoc