研究背景 クラウドコンピューティングサービスの普及 マルチテナント方式を採用 データセンタの需要が増加

Slides:



Advertisements
Similar presentations
研究目標 研究目標 提案手法 仮想ネットワーク上でのブロードキャスト、マルチキャスト通信の実現
Advertisements

Webプロキシサーバにおける 動的資源管理方式の提案と実装
セキュリティ機構のオフロードを考慮した仮想マシンへの動的メモリ割当
榮樂 英樹 LilyVM と仮想化技術 榮樂 英樹
第1回.
クラウド上の仮想マシンの安全なリモート監視機構
クラウドにおける ネストした仮想化を用いた 安全な帯域外リモート管理
Windows Azure 仮想マシン 入門.
Xenを用いたクラウドコンピュー ティングにおける情報漏洩の防止
不特定多数の発信者を考慮した ストリーミングシステムの実現
仮想マシンの並列処理性能に対するCPU割り当ての影響の評価
HTTP proxy サーバにおける 動的コネクション管理方式
NEC-早大技術交流会 OpenFlowスイッチによる広域通信の効率的集約法
TCPデータ通信との公平性を考慮した 輻輳適応能力を有する MPEG動画像通信のための品質調整機構
発表の流れ 研究背景 マルチテナント型データセンタ 関連研究 IPマルチキャスト ユニキャスト変換手法 提案手法 性能評価.
研究背景 クラウドコンピューティングサービスの普及 ユーザ数の増加に伴う問題 マルチテナント方式の採用 データセンタの需要が増加
ユビキタス環境における コミュニケーション・ツール選択支援機構の提案
大きな仮想マシンの 複数ホストへのマイグレーション
バックボーンルータにおける REDの動的閾値制御方式
Telnet, rlogin などの仮想端末 ftp などのファイル転送 rpc, nfs
ネストした仮想化を用いた VMの安全な帯域外リモート管理
コンテンツ配信 エンコード (符号化) CBR (Constant Bit Rate) VBR (Variable Bit Rate)
予備親探索機能を有した アプリケーションレベルマルチキャスト
帯域外リモート管理の継続を 実現可能なVMマイグレーション手法
サーバ負荷分散におけるOpenFlowを用いた省電力法
大阪大学 大学院情報科学研究科 博士前期課程2年 宮原研究室 土居 聡
過負荷時の分散ソフトウェアの 性能劣化を改善する スケジューリングの提案
踏み台攻撃だけを抑制できる VMMレベル・パケットフィルタ
2009年度卒業論文発表 CDNコンテンツサーバの動的負荷分散
VM専用仮想メモリとの連携による VMマイグレーションの高速化
IP ルーティングの図示 情報科学科 松澤 智史.
IaaS型クラウドにおける インスタンス構成の動的最適化手法
リモートホストの異常を検知するための GPUとの直接通信機構
仮想メモリを用いた VMマイグレーションの高速化
複数ホストに分割されたメモリを用いる仮想マシンの監視機構
ネストしたVMを用いた 仮想化システムの高速なソフトウェア若化
各種ルータに対応する P2P通信環境に関する研究
クラウドにおけるIntel SGXを用いた VMの安全な監視機構
DPDKの処理モデルに基づく NFVノード可視化機構の開発 ー負荷計測手法の一検討ー
SN比を考慮した 無線スケジューリング方式
クラウドにおけるVM内コンテナを用いた 自動障害復旧システムの開発
未使用メモリに着目した 複数ホストにまたがる 仮想マシンの高速化
クラウドにおけるVM内コンテナを用いた 低コストで迅速な自動障害復旧
DNSクエリーパターンを用いたOSの推定
Intel SGXを用いた仮想マシンの 安全な監視機構
軽量な仮想マシンを用いたIoT機器の安全な監視
複数ホストにまたがって動作する仮想マシンの障害対策
仮想ネットワークを考慮した SoftIRQ制御によるCPU割当ての手法
VMMのソフトウェア若化を考慮した クラスタ性能の比較
VPNとホストの実行環境を統合するパーソナルネットワーク
[招待講演] オープンソース 仮想スイッチの実装に見る DPDKの使用方法と 性能への影響
片方向通信路を含む ネットワークアーキテクチャに於ける 動的な仮想リンク制御機構の設計と実装
信頼できないクラウドにおける仮想化システムの監視機構
VMが利用可能なCPU数の変化に対応した 並列アプリケーション実行の最適化
仮想環境を用いた 侵入検知システムの安全な構成法
仮想マシンの監視を継続可能なマイグレーション機構
トラフィックプロファイラAGURIの設計と実装
仮想マシンとホスト間の通信に着目した 段階的なパケット集約によるNFV効率化手法
仮想マシンに対する 高いサービス可用性を実現する パケットフィルタリング
VMリダイレクト攻撃を防ぐための 安全なリモート管理機構
ゼロコピー・マイグレーションを 用いた軽量なソフトウェア若化手法
仮想化システムの 軽量なソフトウェア若化のための ゼロコピー・マイグレーション
強制パススルー機構を用いた VMの安全な帯域外リモート管理
異種セグメント端末による 分散型仮想LAN構築機構の設計と実装
nチャネルメッセージ伝送方式のためのjailによる経路制御
IPmigrate:複数ホストに分割されたVMの マイグレーション手法
複数ホストにまたがるVMの 高速かつ柔軟な 部分マイグレーション
特定ユーザーのみが利用可能な仮想プライベート・ネットワーク
複数ホストにまたがるVMの メモリ使用状況に着目した高速化
強制パススルー機構を用いた VMの安全な帯域外リモート管理
Presentation transcript:

フロー処理やネットワーク機能の処理負荷を考慮したVSEリソース割当ての最適化 〇村松 真† 川島 龍太† 齋藤 彰一† 松尾 啓志† 中山 裕貴†† 林 經正†† † 名古屋工業大学大学院 †† 株式会社ボスコテクノロジーズ 2015/04/22 CQ研究会

研究背景 クラウドコンピューティングサービスの普及 マルチテナント方式を採用 データセンタの需要が増加 膨大な数の物理サーバとストレージを管理 マルチテナント方式を採用 物理サーバ上に様々なテナントの仮想マシン(VM)を集約 各テナントに独立した仮想環境を提供 物理サーバの台数を削減 オーバレイプロトコルによる仮想ネットワークの構築 既存のデータセンタネットワーク上で構築可能

Traditional Datacenter Network マルチテナント方式の構成 User A User B Virtual Router VM Tunneling Header Packet Format Decapsulate Virtual Switch Physical Server User A User B User A User B VM VM VM VM 仮想ネットワークの性能向上が重要 Virtual Switch Virtual Switch Encapsulate Traditional Datacenter Network Physical Server Physical Server

ホスト内受信処理のCPUリソース割当て方法の最適化 仮想ネットワーク性能向上のアプローチ トンネリングプロトコルの改善 ハードウェアスイッチ CPU負荷の低減、通信の高速化 ホスト内処理の受信処理負荷に着目 特定のハードウェア機能が必要となり ベンダロックインに陥る可能性がある 特定のハードウェア機能を利用せず ホスト内受信処理のCPUリソース割当て方法の最適化

シングルキューNICにおける問題点 特定のCPUコアに受信処理負荷が集中 Core #1 #2 #3 #4 #5 #6 SoftIRQ VM1 VM2 VM3 vhost net1 vhost net2 vhost net3 Protocol Tunnel vSwitch Protocol Tunnel vSwitch SoftIRQ Driver Core #1 HardIRQ CPU Single Queue NIC

Receive Side Scaling (RSS) Core #1 #2 #3 #4 #5 #6 VM1 VM2 VM3 vhost net1 vhost net2 vhost net3 Protocol Tunnel vSwitch Protocol Tunnel vSwitch Protocol Tunnel vSwitch Driver Driver Driver CPU Q1 Q2 Q3 Q4 Q5 Q6 IP address/Port hashing Hash Function RSS-NIC

Receive Side Scaling (RSS) Core #1 #2 #3 #4 #5 #6 VM1 VM2 VM3 VM3 Driver Protocol Tunnel vSwitch 仮想ルータ vhost net1 vhost net2 vhost net3 仮想ネットワーク全体の性能に影響を与える CPU Q1 Q2 Q3 Q4 Q4 Q5 Q6 IP address/Port hashing Hash Function RSS-NIC

提案手法:Virtual Switch Extension (VSE)† Core #1 #2 #3 #4 #5 #6 VM1 VM2 VM3 vhost net1 vhost net2 vhost net3 Flow Table Match Actions VM1 flow SoftIRQ : - VM2 flow VM3 flow ... Protocol Tunnel vSwitch Protocol Tunnel vSwitch Protocol Tunnel vSwitch 1 2 3 VSE Driver CPU . † “VSE: Virtual Switch Extension for Adaptive CPU Core Assignment in Softirq” 2014 IEEE 6th International Conference on Cloud Computing Technology and Science (CloudCom), Shin Muramatsu et al.

提案手法:Virtual Switch Extension (VSE)† Core #1 #2 #3 #4 #5 #6 VM1 VM2 VM3 vhost net1 vhost net2 vhost net3 Flow Table Match Actions VM1 flow SoftIRQ : 1 VM2 flow VM3 flow SoftIRQ : 2 ... Protocol Tunnel vSwitch Protocol Tunnel vSwitch VSE Driver CPU . † “VSE: Virtual Switch Extension for Adaptive CPU Core Assignment in Softirq” 2014 IEEE 6th International Conference on Cloud Computing Technology and Science (CloudCom), Shin Muramatsu et al.

より一般的なケースでの通信性能への影響を評価 従来評価との相違点 従来評価 本研究 フロー処理負荷が非常に高い 環境における評価のみ VXLAN over IPsec フロー処理負荷が比較的低負荷な環境における評価 VXLAN 低負荷なフロー処理における評価項目 VSE処理オーバヘッド フロー/VMのCPUコア衝突 より一般的なケースでの通信性能への影響を評価

ハードウェア割込先CPUコアと 別のCPUコアへソフトウェア割込 VSEにおける処理 ソフト割り込み先変更 フローテーブルのルックアップ処理 ハードウェア割込先CPUコアと 別のCPUコアへソフトウェア割込 線型検索によるエントリ検索 Flow Table Match Actions VM1 flow SoftIRQ : - VM2 flow VM3 flow ... Core #1 #2 #3 #4 #5 #6 VSE Driver Driver CPU

MellanoxConnect-X(R)-3 評価環境 ネットワーク環境 Packet Flow Physical Server Generating UDP Flow 74 bytes 10 seconds Optixia† OpenvSwitch in_port=1, actions=output:2 Port 1 VSE Ethernet 40 Gb Ethernet Port 2 マシン仕様 Physical Server OS CentOS 6.6 (2.6.32) CPU Intel Core i7 (6 core) Memory 16G bytes Buffer 4M bytes Network 40GBASE-SR4 Driver MellanoxConnect-X(R)-3 vSwitch OpenvSwitch 2.3.0 † Optixia XM2 “http://www.ixiacom.jp/sites/default/files/content/support/library/datasheets/ja_optixiaxm2.pdf”

評価結果:ソフトウェア割り込み先変更の影響 Core #1 #2 Core #1 #2 VSE パイプライン化 Driver Driver Default VSE ソフトウェア割り込み先変更による 影響は無視可能

評価結果:エントリ数の影響 送信レートを1700Kppsに固定 マッチするエントリを末尾に設定 VM数は物理CPUコア数と同じ30~50台程度 設定可能なエントリ数は50程度でも問題ない

物理CPUコア数に対してVM数とフロー数の合計が大きい 従来評価との相違点 従来評価 本研究 フロー処理負荷が非常に高い 環境における評価のみ VXLAN over IPsec フロー処理負荷が比較的低負荷な環境における評価 VXLAN 低負荷なフロー処理における評価項目 VSE処理オーバヘッド フロー/VMのCPUコア衝突 物理CPUコア数に対してVM数とフロー数の合計が大きい 優先フローのためにどの処理を 別のCPUコア上で行うべきか検討

CPUリソース割当てモデル Model A Model B Model C Model D Core #1 #2 #3 #4 Core #1 vhost- net VM Driver Packet Prc. Model A Core #1 #2 #3 #4 vhost- net VM Driver Packet Prc. Model B Core #1 #2 #3 #4 vhost- net VM Driver Packet Prc. Model C Core #1 #2 #3 #4 vhost- net VM Driver Packet Prc. Model D

MellanoxConnect-X(R)-3 評価環境 ネットワーク環境 VXLAN VM VM 65535 bytes 100s Iperf client TCP communication Iperf server Virtual Switch Virtual Switch Physical Server 1 40 Gb Ethernet Physical Server 2 マシン仕様 Physical Server 1 Physical Server 2 VM OS CentOS 6.6 (2.6.32) Ubuntu 14.04 CPU Intel Core i7 (6 core) 1 core Memory 16G bytes 2G bytes Buffer 4M bytes Network 40GBASE-SR4 - Driver MellanoxConnect-X(R)-3 virtio (MTU:1450) vSwitch OpenvSwitch 2.3.0

評価結果 Model B Model A Model D Model C 優先フローに対してモデルC及びDを適用することが望ましい コンテキストスイッチが最小限に抑えられる Core #1 #2 #3 #4 vhost- net VM Driver Packet Prc. Model B Core #1 #2 #3 #4 vhost- net VM Driver Packet Prc. Model A Core #1 #2 #3 #4 vhost- net VM Driver Packet Prc. Model D Core #1 #2 #3 #4 vhost- net VM Driver Packet Prc. Model C キューにパケットを 溜め込む コンテキストスイッチが頻発 優先フローに対してモデルC及びDを適用することが望ましい

優先フローの性能評価 評価環境 ベンチマーク:Iperf Protocol TCP (Tunnel : VXLAN) Packet Size VM1 VM3 VM5 VM7 VM2 VM4 VM6 VM8 Iperf client Iperf client Iperf client Iperf client TCP communication Iperf server Iperf server Iperf server Iperf server Virtual Switch Virtual Switch Physical Server 1 40 Gb Ethernet Physical Server 2 ベンチマーク:Iperf Protocol TCP (Tunnel : VXLAN) Packet Size 65535 bytes Flow Duration Time 30 s Flow Generation Time 15 times Flow Generation Rules Common for all patterns

優先フローの性能評価 評価パターン RSS VSE (SoftIRQ) VSE (Model C) Core #1 #2 #3 #4 #5 #6 vhost net2 VM2 VM4 VM6 net4 net6 VM8 net8 HardIRQ RSS Core #1 #2 #3 #4 #5 #6 vhost net2 VM2 VM4 VM6 net4 net6 VM8 net8 HardIRQ VSE (SoftIRQ) SoftIRQ 2, 4, 6 8 Core #1 #2 #3 #4 #5 #6 vhost net2 VM2 VM4 VM6 net4 net6 VM8 net8 HardIRQ VSE (Model C) SoftIRQ 2, 4, 6 Model C 8

フロー処理負荷が低い場合においてもモデルを適用することにより 常に高スループットかつ安定した通信性能を提供することが可能 評価結果 OSのスケジューリングにより コンテキストスイッチ発生 フロー/VM衝突 VMとの衝突により低下 Throughput [Mbps] Total Ave. VM8 Ave. RSS 11934 4873 VSE (SoftIRQ) 13515 6027 VSE (Model C) 13181 6055 フロー処理が集中するコア5へ VMがスケジューリングされなかった モデルCを適用したことにより 安定 フロー処理負荷が低い場合においてもモデルを適用することにより 常に高スループットかつ安定した通信性能を提供することが可能

まとめと今後の課題 まとめ 今後の課題 VSE処理オーバヘッドによる通信性能への影響を評価 CPUリソース割当てモデルを提案 各パケット処理における詳細なサービス時間の評価 送信処理を考慮した場合のモデルの検討