Interop Tokyo 2014 Material for School Session (EA-18)

Open Ethernetによって実現する
「ユーザのユーザによるユーザのための」Ethernet
メラノックステクノロジーズジャパン株式会社 津村英樹
June 13, 2014
40Gbps以上の⾼高速ネットワークを実現する唯⼀一のベンダー 包括的なエンドトゥエンドソリューションを実現するInfiniBandとEthernet両⽅方に対応可能な製品ラインナップ
シリコン
アダプタカード
スイッチ
ゲートウェイ
ホスト
Metro / WAN
ファブリックソフトウェア
ケーブル
モジュール
HCA/NIC⽤用コントローラやスイッチ⽤用ASICを全て⾃自社開発
40Gbpsを超えるネットワークで最強のコストパフォーマンスを提供 PCクラスタ、ストレージ⾼高速化、クラウド環境向けIO統合などに最適な次世代インフラストラクチャ
© 2014 Mellanox Technologies
- Mellanox Confidential -
2
Mellanox Ethernet スイッチプロダクトライン
SX1036
40/56ギガビットEthernet 36ポート
2013
SX1024
10ギガビットEthernet 48ポート
40/56ギガビットEthernet 12ポート
SX1016
10ギガビットEthernet 64ポート
2014
SX1012
40/56ギガビットEthernet 12ポート
© 2014 Mellanox Technologies
- Mellanox Confidential -
3
Mellanox Ethernet スイッチ製品の主な仕様
マネジメントプレーン
• 
• 
• 
• 
• 
• 
• 
• 
• 
• 
• 
• 
• 
• 
• 
• 
データプレーン
10/100/1000 ETH RJ45 MNG ports
USB console port for management
Dual SW image Static IP DHCP SSH, Telnet RADIUS / TACACS+ / LDAP
NTP
FTP/TFTP/SCP
SYSLOG Auto temperature control Events history Port counters
SNMP v1,2,3
Web UI In-‐‑‒band management
• 
• 
• 
• 
• 
• 
• 
• 
• 
• 
• 
• 
• 
• 
• 
• 
• 
ECMP/OSPF
•  MLAG
Port mirroring
•  VRRPv2
sFlow
56Gb Ethernet
Static routes
Rapid Spanning Tree (802.1w)
Flow control (802.3x)
DCB -‐‑‒ PFC (802.1Qbb), ETS (802.1Qaz)
LLDP
LAG/LACP (802.3ad)
48K unicast MAC addresses
Cables/transceivers identification
IGMP v1,2
VLAN (802.1Q) – 4K
ACL – 12K rules
Jumbo frames 9K
OpenFlow ハイスループット、低レイテンシー、低消費電⼒力力、VPI
© 2014 Mellanox Technologies
- Mellanox Confidential -
4
カーネル
ユーザ
RDMAの概要
アプリケーション 1
OS
アプリケーション
バッファ 1
バッファ 1
バッファ 1
バッファ 1
バッファ 1
バッファ 1
2
OS
ハードウェア
RDMA over InfiniBand or
Ethernet
HCA
NIC
HCA
バッファ 1 NIC
バッファ 1
TCP/IP
ラック 1
© 2014 Mellanox Technologies
ラック 2
- Mellanox Confidential -
5
Solid State Deviceの特性を活かすストレージサーバ
§  フラッシュメモリのコモディティ化はSSDストレージの利利⽤用を促進
•  SSDは共有ストレージへのアクセス競合を緩和し、ランダムI/O性能を劇的に向上 §  SSDは最⼩小のレイテンシーと低消費電⼒力力のストレージを実現
•  最⾼高性能だがまだ⾼高価なSSDを低価格で利利⽤用するには、SSDのアプリケーションへの
応答性能を妨げない、低レイテンシーなインターコネクト技術による外部共有が必須
Component
Latency (usec)
InfiniBand
0.7
Ethernet RDMA (RoCE)
1.3
Ethernet TCP
6
Fibre Channel
20
SSD Read
25
Disk Read
6000
Total: 45usec
Total: 25.7usec
Fibre ChannelではSSDのパフォーマンスを活かすことはできない
SSDの共有にはInfiniBand、RoCE (RDMA over Coverged Ethernet)が最適!
© 2014 Mellanox Technologies
- Mellanox Confidential -
6
Oracleのエンジニアードシステムで活⽤用されるInfiniBand
§  Oracle Weblogic Server Grid
• 
• 
• 
• 
30 Compute Servers
360 Compute Cores
2.8 TB DRAM
960 GB Solid-‐‑‒State Disk
§  Mellanox InfiniBand Network
•  40 Gb/s InfiniBand Links
•  1.2 micro second latency
•  10Gb/s Ethernet connectivity to data center
§  Integrated Storage Appliance
• 
• 
• 
• 
Central storage for system images
Clustered for HA
40 TB SAS disk storage
4 TB read cache
© 2014 Mellanox Technologies
- Mellanox Confidential -
7
Oracle RACでInfiniBandを採⽤用するメリット
§ I/O性能を33%向上
§ DB処理理能⼒力力を62%向上
§ システムコストを35%削減
§ レスポンス時間の短縮により、⽣生産性向上
Minutes
80
70
60
50
40
30
20
10
Gigabit
Ethernet
Reduced
run-time
by 62%
ギガビットEthernet/FibreChannel
とInfiniBandの⽐比較
* Common performance benchmark Time to run 1 million SKU through fulfillment planning operation
Source:
InfiniBand
One million SKU*
© 2014 Mellanox Technologies
- Mellanox Confidential -
8
40ギガビットEthernet: ストレージ市場における最新トレンド
§  NetApp, Inc.
•  40GbE Adoption Takes Off in the Data Center
The next evolution of the Ethernet, 40Gb, will begin widespread adoption at the core of the data center. Higher bandwidths allow larger datasets to move more quickly and easily, which in turn encourages the growth of data.
Jay Kidd Chief Technology Officer and Senior Vice President, NetApp Inc. https://communities.netapp.com/community/netapp-‐‑‒blogs/netapp-‐‑‒360/blog/2013/12/12/the-‐‑‒it-‐‑‒almanac-‐‑‒for-‐‑‒2014
§  株式会社東芝
•  vForum2013において、メラノックス社40ギガビット Ethernetを
Ethernetを使⽤用したIO統合ソリューションを動態展⽰示
•  2014年年度度に同社のFlashストレージシステムで40ギガ ビット
Ethernetを正式サポート予定
© 2014 Mellanox Technologies
- Mellanox Confidential -
9
SMB Direct 仮想環境での性能⽐比較
Configuration
© 2014 Mellanox Technologies
IOPS
%CPU
MB/sec
BW
512KB IOs/sec
Privileged
milliseconds
Local
10,090
38,492
~2.5%
~3ms
Remote
9,852
37,584
~5.1%
~3ms
Remote VM
10,367
39,548
~4.6%
~3 ms
- Mellanox Confidential -
Latency
10
SMBはHyper-‐‑‒V Live Migrationとの共⽤用が可能
§  SMBは仮想マシンのLive Migrationに対応可能
§  SMBによって提供される主な機能
•  RDMA (SMB Direct)
•  Streaming over multiple NICs(SMBマルチチャネル)
Live Migration Times
70
60
§  最⾼高のスループットと最⼩小のレイテンシーを実現
Seconds
50
Windows
Server
2012 R2
で初めて
サポート
40
30
20
10
0
Live Migrationが
⾼高帯域
Live Migrationは
40/56Gbps
SMBマルチチャネ
RDMAは Live ネットワークに
ルによって複数の
Migration中の
よって⾼高速化
通信を同時に
CPU処理理をNIC
ロードバランスして でオフロード
実⾏行行が可能
© 2014 Mellanox Technologies
- Mellanox Confidential -
11
ブートストーム解消&仮想デスクトップ台数を2.5倍以上にするiSER
§  Mellanox社とLSI社の共同ソリューションにより、 VDI環境にお
Benchmark ConfiguraCon けるストレージレイテンシーの改善とIOPSを劇的に向上
•  LSI Nytro MegaRAIDは、SSDベースのキャッシュによってディスク アクセスを⼤大幅に⾼高速化
•  Mellanox ConnectX®-‐‑‒3 10/40ギガビットEthernet NICは、ハイパー バイザーから共有⾼高速ストレージへのアクセスをRDMAによって⾼高速化 すると同時に、オーバーヘッドゼロのレプリケーションを実現
ソリューションは物理理サーバ1台当り160仮想デスクトップという 空前の統合率率率を実現
•  iSER (iSCSI Extensions for RDMA) を使⽤用することで、通常のTCP/IP
ベースのiSCSIに⽐比べてまったく同じ設定環境で2.5倍以上のVMが搭載可能に
* http://www.mellanox.com/related-docs/whitepapers/SB_Virtual_Desktop_Infrastructure_Storage_Acceleration_Final.pdf
© 2014 Mellanox Technologies
- Mellanox Confidential -
iSCSI/RDMA (iSER) target
So4ware RAID (MD)
Replication
§  Login VSI社VDI Load Generatorでテストした場合、上記 Mellanox SX1012 10/40GbE Switch iSCSI/RDMA (iSER) target
LSI Caching Flash/RAID Controller
LSI Caching Flash/RAID Controller
Primary Secondary •  2 x Xeon E5-2650
processors
•  Mellanox ConnectX®-3
Pro, 40GbE/RoCE
•  LSI Nytro MegaRAID
NMR 8110-4i
Redundant Storage Cluster 12
クラウドコンピューティングの今後の課題
2006年年(トリノ)
2014年年(ソチ)
PCIe
PCIe
16GB Memory
$1200, 192W
PCIe
2 x Quad Core CPUs
$2800, 240W
Wasted
8GB Memory
$600, 96W
Wasted
2010年年(バンクーバー)
PCIe
PCIe
PCIe
40Gb/s
1GigE, 50µs, $100, 4W
§  強⼒力力な物理理サーバのスペックをアプリケーション
が使⽤用しきれずCPUとメモリはアイドル状態
§  物理理サーバの台数が無駄に増加
© 2014 Mellanox Technologies
12Gb/s, 50µs, $2400, 28W
サーバ仮想化により、複数の仮想サーバが
CPUやメモリを共有することで効率率率化
§  I/Oがボトルネックに、統合率率率が頭打ち!
§  配線など、I/O接続機器と複雑性の増加 =インターコネクト投資増加
§ 
- Mellanox Confidential -
40-‐‑‒56Gb/s, 1µs, $900, 10W
§ 
§ 
§ 
§ 
§ 
40ギガビットEthernetによるIO統合化
サーバ当りVM搭載率率率向上によるコストダウン
IT機器の台数削減+⾼高密度度化によるコストダウン
ケーブリング複雑性の解消による運⽤用コスト削減
消費電⼒力力やメンテナンスコストの⼤大幅な削減
13
仮想環境の課題 :IOポートの増加によるスロット不不⾜足
ノード間通信
2本
Migration⽤用
2本
管理理⽤用ポート
2本
ストレージ⽤用
2本
15 x 8Gb/s Fibre
Server
Channel Ports
OR
+
= 12GB/s =
10 x 10Gb/s iSCSI
Ports (with offload)
OR
2 x 40Gb/s Ethernet port
24 x 2.5” SATA 3 SSDs
(with RDMA)
統合率率率向上に対応 : 数10万
IOPS
⾼高帯域IO統合は仮想環境におけるボトルネック解消には必須!
© 2014 Mellanox Technologies
- Mellanox Confidential -
14
10GbE vs 40GbE⽐比較シミュレーション
オンラインでサーバが買える某社WEB⾒見見積もりシステムでの実売市場価格
での試算⽐比較を実施(VMwareベースでのクラウドDCを想定)
10Gbase-‐‑‒T
Mellanox 40GbE
VS
© 2014 Mellanox Technologies
- Mellanox Confidential -
15
10GbE vs 40GbE⽐比較シミュレーション
オンラインでサーバが買える某社WEB⾒見見積もりシステムでの実売市場価格
での試算⽐比較を実施(VMwareベースでのクラウドDCを想定)
10Gbase-‐‑‒T
約200 サーバ
24 スイッチ
約1700 VM
•  2p 10G NIC x 2
(合計帯域40G)
•  2つのネットワーク
(スイッチ数=M)
•  VM数=N
© 2014 Mellanox Technologies
Mellanox 40GbE
VS
約200 サーバ
12 スイッチ
約3100 VM
•  2p 40G NIC x 1
(合計帯域80G)
•  1つの統合ネットワーク
(スイッチ数=1/2M)
•  VM数=2N(約2倍)
- Mellanox Confidential -
16
10GbE vs 40GbE⽐比較シミュレーション
VM当たりの導⼊入コスト[円]
VM当たりの消費電⼒力力[W]
約50%削減
約60%削減
Cables
Switches
Switches
Servers(w/ NICs)
Servers(w/ NICs)
Vendor-‐‑‒A(10Gbase-‐‑‒T)
© 2014 Mellanox Technologies
Mellanox(40GbE)
Vendor-‐‑‒A(10Gbase-‐‑‒T)
Mellanox(40GbE)
スイッチ数が半分となるため、設置⾯面積の観点でも効率率率アップ
- Mellanox Confidential -
17
次世代企業ネットワークインフラはOpen Ethernetの時代に
ソフトウェアを選択・作成する⾃自由が与えられることにより、
⼀一切切の妥協が不不要となり、ユーザ、ベンダーは差別化が容易易に
Open Ethernet
ベンダー主導の管理理
実際の環境に
最適な管理理
ベンダー主導の
ソフトウェア選び
本当に使いたい
ソフトウェア
クローズな
Ethernetスイッチ
オープンな Ethernetスイッチ
ロックダウン垂直統合型ソリューション
© 2014 Mellanox Technologies
- Mellanox Confidential -
オープンプラットフォーム
18
Open Platform向けにメラノックス製品の拡張性を最⼤大限活⽤用
拡張性を求められるデータセンター向けのオープンな
ハードウェアソリューション
10/40ギガビットEthernet NICをOCPに最初に提供
これまでに30万ポートを出荷済
OCP Open Rack 向け10/40ギガビットEthernetスイッチを初めて開発
Open Network Install Environment (ONIE) を最初にサポート
OCP NIC
© 2014 Mellanox Technologies
ONIE
Switch
Open SDK
API
- Mellanox Confidential -
10/40/56G
Open
Switch
100Gb
Open
Switch
Q1 2014
2014/15
19
オープンハードウェアの持つパワー +
オープンNIC、オープンスイッチ、オープンサーバ、オープンラック
© 2014 Mellanox Technologies
- Mellanox Confidential -
20
オープンソフトウェアの持つパワー +
オープンソフトウェア
オープンNIC、オープンスイッチ、オープンサーバ、オープンラック
© 2014 Mellanox Technologies
- Mellanox Confidential -
21
= 性能的にも機能的にも何の妥協もしない仮想環境を実現
オープンクラウド
オープンソフトウェア
オープンNIC、オープンスイッチ、オープンサーバ、オープンラック
© 2014 Mellanox Technologies
- Mellanox Confidential -
22
ITシステム基盤はSelf Service IaaSプールを目指す
OS
Windows/Solaris/HPUX
RedHat/CentOS…
HW(Physical)
SUN/HP/DELL
Cisco/F5…
HWプラットホーム、NW管理、MWやAPPなど環境に関しては、
統一されておらずすべて個別管理。
・・・
WebLogic/Jboss
Oracle/MySQL…
RedHa
t
MW
TomCa
t
Java/Ruby/.netFW/
C++・・・
CentO
S Java/Ruby/.netFW/
C++…
Oracle
APP
CentO
S
APP
Idealー将来?
JBoss
Currentー現在
Windo
w
Beforeー以前
HW(Physical)
SUN/HP/DELL
Cisco/F5…
システム基盤の統一に向けてOSやNWなど一定の制限を持たせ、
Self Service メニュー化を進める。
ユーザリクエストに対して、手動でGuestOSの提供までをサポー
ト。HWは既存アセットをそのまま利用。サーバー集約を目指して
一部サーバー仮想化も…
Confidential
User
Space
User
Space
User
Space
User
Space
User
Space
User
Space
CPU
Storage
Network
HW NW(Physical)
WhiteBox
IaaS Poolから自由にUserSpaceを引出し、
アプリケーション稼働環境の可変(メモリやCPUの増減、OS
を含んだアプリ実行環境 クローン作成、ネットワーク環境
を含んだIaaS環境の自動構成)。
23
しかし、「ネットワーク仮想化」が欠けている
DBサーバ
サーバ仮想化
システム全体の仮想化
ネットワークなしでは
システムの仮想化に
ならない!
Confidential
現在の環境
ネットワーク仮想化
サーバーの申請・承認
ネットワーク申請・承認
機器調達
自社リソース・プール
の空き容量に無償で
仮想マシンを作成。
ネットワークも共通の
管理プラットホームで
パーティショニング設
定。申請・承認を一元
化
ラッキング、ケーブル結線
VLAN設定
アプリケーション設定
標準化
所要時間
バックエンド
サーバ
新しいアプリケーションを評価開始するまでの時間
DNS フロントエンドサーバ
サーバ・ネットワーク申請・承認
アプリケーション設定
24
ネットワークも進化している
VLAN アプローチ Manual End-­‐to-­‐End 物理スイッチにVLANを設定 •  静的な動作 •  手動 •  複雑 •  テナント毎の設定情報は物
理ネットワーク機器に保存さ
れる OPENFLOW リアクティブ アプローチ ReacCve End-­‐to-­‐End フローのプログラミングが 必要 •  フロー数など、拡張性に限界
がある •  管理に手間がかかる •  テナント毎の設定情報は物理
ネットワーク機器に保存される Confidential
プロアクティブ ソフトウェア オーバーレイ Virtual Network Overlays ハードウェアとソフトウェアを 完全に切り離す •  クラウドに対応できる機敏な設定変
更が可能 •  高い拡張性 •  オープン •  物理ネットワークと切り離し、ネット
ワーク構成が柔軟にできる MidoNet アーキテクチャ
•  コントローラ機能が 各サーバに分散 されていることが最大の特徴
Cloud OrchestraKon
Network State Database
Analytics
Configuration
VM
VM
VM
VM
VM
MidoNet
Agent
OVS Kernel Module
GRE/VXLAN tunnel
TCP traffic
VM
VM
MidoNet
Agent
MidoNet
Agent
MidoNet Gateway
NB APIs
Internet
/Outside Network
Confidential
26 ConnectX®-‐‑‒3 Pro: VXLAN/NVGREオフロードが可能な唯⼀一のNIC
§ VXLAN/NVGRE: 仮想化データセンターネットワークの課題を解決
•  拡張性、柔軟性、仮想化リソースのさらなる稼働率率率の向上
•  VXLAN/NVGREの処理理にCPUリソースが使⽤用されるため、
アプリケーション性能の劣劣化、統合率率率低下などのリスクが懸念念される
§ ConnectX®-‐‑‒3 Proは仮想オーバーレイネットワークをサポート
•  オーバーレイネットワーク⽤用ハードウェアオフロードエンジン
•  VXLAN/NVGRE⾼高速化
•  CPUオーバーヘッドを劇的に削減
§  サーバ仮想化の特⻑⾧長を100%活かしながら既存の仮想化データ
ConnectX®-3 Pro
10/40GbE Ethernet with
VXLAN/NVGRE Acceleration
センタの課題を解決できる、理理想的なクラウドサービス基盤を実現!
© 2014 Mellanox Technologies
- Mellanox Confidential -
27
⼀一般的なオーバーレイネットワークのイメージ
Gateway (Network) Nodes
Router / NAT
Software Gateway
vEth1
vEth0
SDN Manager e.g.
OpenStack Neutron,
ODL, VMware NSX
BR0
BR1
VXLAN
OVS
VNI200 VNI300
Hypervisor
Hypervisor
VM
VM
VM
VM
VM
VM
VM
VM
OS
OS
OS
OS
OS
OS
OS
OS
vTap
vTap
vTap
BR0
vTap
BR1
vTap
BR2
VXLAN Overlay
Open vSwitch (OVS)
VNI100 VNI200 VNI300
vTap
vTap
vTap
vTap
BR1
BR0
VXLAN Overlay
Open vSwitch (OVS)
VNI100 VNI300
UDP
UDP
UDP
IP
IP
IP
Internet
Underlay Network (Layer 2 or Layer 3)
VXLAN Overlay
(tenant) networks
© 2014 Mellanox Technologies
- Mellanox Confidential -
28
VXLANやNVGREベースのネットワーク仮想化の直⾯面する課題
§  ハイパーバイザのIPスタックや標準的なNICはクライアントTCP/IPのトラフィックを認識識できない §  ハードウェアによるセグメンテーション/リアッセンブリ、チェックサムオフロード、RSS/TSS CPUコアのスケーリングなど標準的なオフロード技術では、仮想マシンが⽣生成するTCP/IPパケット
(インナーペイロード)を処理理することができない §  これらの処理理をCPUに負担させることにより、VXLANやNVGREを使⽤用する環境では、多⼤大な負荷が
ホストCPUに掛かってしまい、アプリケーション性能やサーバ統合率率率に悪影響を与えてしまう §  メラノックスのConnectX®-‐‑‒3 Proは、これらの仮想マシンが⽣生成するTCP/IPパケットを処理理でき
る世界初のNICであり、VXLANやNVGRE使⽤用時におけるCPUのオーバーヘッドをなくすことで、シ
ステム性能に影響を与えずにオーバーレイ型ネットワーク仮想化環境に移⾏行行することができる
VXLAN Packet Format
Generated by
the VM
Generated by
the Hypervisor
© 2014 Mellanox Technologies
- Mellanox Confidential -
29
ConnectX®-‐‑‒3 ProによるNVGREスループット
35
30
Throughput (Gb/s)
スループット (Gb/s) NVGRE Offload Engine – Breaks the 10Gb/s Barrier
29.3
25
20
NVGREオフロードなし NVGRE
Offload Disabled
NVGREオフロードあり NVGRE
Offload Enabled
15
9.2
10
5
5
0
40Gb/s Adapter
40ギガビットEthernet © 2014 Mellanox Technologies
5
10Gb/s Adapter
10ギガビットEthernet - Mellanox Confidential -
30
Bandwidth [Gbit/sec] ConnectX®-‐‑‒3 Proによるオーバーレイネットワークの⾼高速化
VXLAN使⽤用時のVM全体のバンド幅
25 20 15 10 5 0 VXLANオフロードにより
バンド幅が5倍に
1 VM 11 2 VMs 19 3 VMs 21 VxLAN in soTware 2 3 3.5 VxLAN HW Offload 10 19 21 NO VxLAN VXLANオフロードにより
CPU使⽤用率率率が1/4に
CPU% / Bandwidth (Gbit/sce) VXLAN使⽤用時のCPU使⽤用率率率(Gbit/sec あたり)
Test Details
4.00 - 
- 
- 
- 
3.00 2.00 1.00 0.00 NO VxLAN 1 VM 0.55 2 VMs 0.68 3 VMs 0.67 VxLAN in soTware 3.50 3.33 4.29 VxLAN HW Offload 0.90 0.89 1.19 © 2014 Mellanox Technologies
- Mellanox Confidential -
- 
- 
- 
- 
Test command: netperf -t TCP_STREAM –H
1-3 VMs talking to 1-3 VMs on a second server
OpenvSwitch (OVS) with VXLAN support
Servers:
-  HP ProLiant DL380p Gen8
-  2 x Intel(R) Xeon(R) CPU E5-2650 0 @ 2.00GHz
-  32GB RAM
Hypervisor OS: Linux Upstream Kernel 3.14-rc1 + KVM
Guest VM OS: RHEL 6.5 2.6.32-431.el6.x86_64
NIC: ConnectX-3Pro , FW: 2.30.8000
CPU% and Bandwidth measures on the Hypervisor (aggregate 1-3 VMs)
31
ConnectX®-‐‑‒3 ProによるVXLANスループット
Source: PlumGrid white paper
Mellanox ConnectX-‐‑‒3 Pro: PLUMgrid VNI (Virtual Network Infrastructure) オーバーレイベースアーキテクチャをスケールアウトする唯⼀一のソリューション
© 2014 Mellanox Technologies
- Mellanox Confidential -
32
スイッチベースのVXLANオフロードとの違いは?
§  VXLAN⽤用ゲートウェイの機能はスイッチでもオフロードすることが可能であり、VLANベース
の既存ネットワークに対する⾼高速なブリッジ機能を提供できる •  クラウドサービスプロバイダは、BGPに対応した最先端のルータ、NAT、DHCP、モニタリングやファイアウォール
を展開しているため、柔軟性の⾼高いソフトウェアベースのゲートウェイの⽅方が良良い場合もある •  OpenStack Network Nodesのようにソフトウェアゲートウェイは拡張性に優れているため、メラノックスの
VXLANハードウェアオフロードと組み合わせることで、⾼高い性能を保持しながらシステムを拡張できる §  VXLAN Switch Termination/Gateway (VTAP)は、VXLAN処理理に関するCPUの負荷を軽
減できない
•  Internal VLANはハイパーバイザで⽣生成され、オーバーレイネットワークとは別に管理理される
•  スイッチベースのオフロード機能は、NICによるハードウェア・オフロードに⽐比べてCPUオーバーヘッドの解消には効
果がない VM
SDN/Cloud Manager is only aware
of the VXLAN overlay networks
(VNIs), and doesn’t manage the
internal VLANs, adding significant
complexity
SDN Manager
vTap
?
Limited hardware
resources for tunneling
and ACLs
© 2014 Mellanox Technologies
VM
OS
- Mellanox Confidential -
OS
vTap
Open vSwitch (OVS)
VM
vTap
vTap
OS
vTap
BR0
VM
BR1
OS
Switch Based
VXLAN Gateway
(VTAP) Approach
BR2
VLAN3
VLAN4
VLAN5
Internal VLANs must be created
and managed in the Hypervisor to
ensure isolation between VMs on
different networks/tenants
33
ITシステム全体を仮想的なメインフレームに再構築
§  ITシステムは分散と集中を繰り返す
• 
• 
• 
• 
1980年年代 メインフレームで業務を集中処理理
1990年年代 クライアント・サーバでIT適⽤用エリアを拡⼤大
2000年年代 サーバ・ストレージ仮想化
2010年年代 ネットワーク仮想化
§  基幹系以外のサーバをプライベートクラウドに移⾏行行
•  継続使⽤用するサーバはプライベートクラウド
•  ⾮非基幹系サーバはパブリッククラウドを併⽤用
•  プライベートクラウドの空き容量量を有効活⽤用
90
80
70
60
50
40
30
20
10
0
9時-­‐12時
夜間バッチ
業務サーバ
email
開発用途
12時-15時
15時-18時
夜間
80
•  Haswell等⾼高性能サーバで統合率率率を倍増 -‐‑‒30% (1)
•  運⽤用コスト、ラック代、電気代 -‐‑‒30% (2)
•  仮想メインフレームによる平準化 (1) + (2) -‐‑‒30%
- Mellanox Confidential -
夜間バッチ
60
50
業務サーバ
40
30
email
20
開発用途
10
0
9時-­‐12時
基幹系
空き容量
70
§  基幹系サーバもクラウド環境に統合でTCOを半減
© 2014 Mellanox Technologies
空き容量
12時-15時
15時-18時
夜間
基幹系
34
Open Ethernet by Mellanox コントロール
プレーン
Navigate
ニーズに合わせて最新モデルを選択
組み込み、ベンダー依存
Sports Car
(Technologies on Races)
データ
プレーン
Drive
「数倍の性能、価格は同等以下」
世界TOP500スパコンで幅広く採⽤用されている
InfiniBand対応⾼高性能ASICをEthernetにも適⽤用
ü 
ü 
ü 
ロックダウン+コモディティHW
© 2014 Mellanox Technologies
HPC Grade Performance
Ultra Low Power
Excellent Cost Performance
Single Chip Supporting 36 x 40/56GbE
オープンプラットフォーム+⾼高性能HW
- Mellanox Confidential -
35
メラノックスブース (6J17)
© 2014 Mellanox Technologies
- Mellanox Confidential -
36
Thank you!