東大素セ 松本浩,田中純一, 上田郁夫,坂本宏,真下哲郎

Slides:



Advertisements
Similar presentations
インターネットの仕組み 例) Web閲覧 インターネット サーバ リクエスト データ 携帯電話 一般家庭 インターネットサービス
Advertisements

Ibaraki Univ. Dept of Electrical & Electronic Eng.
ATLAS実験データ解析に向けた、長距離広帯域ネットワークにおけるデータ転送
前回の授業への質問 質問:プロトコルアナライザで測定できる範囲はどこまでか?
Webプロキシサーバにおける 動的資源管理方式の提案と実装
高エネルギー加速器研究機構 素粒子原子核研究所 濱田 英太郎
TCPコネクションの分割 によるスループットの向上
クラウドにおける ネストした仮想化を用いた 安全な帯域外リモート管理
高速ネットワーク技術、スーパーコンピュータ関連の国際会議にて受賞 家庭用PCで超高速Webアクセス環境を実現するUsadaFoxを用い、 遠距離Webアクセス性能を1000倍高速化 東京大学データレゼボワール実験グループ.
IaaS 仮想マシン(VM)をネットワーク経由で提供 負荷に応じてVM数や性能を変更できる ハードウェアの導入・管理・維持コストの削減
超並列計算研究会 PCクラスタにおける ベンチマークと並列ツールの紹介 廣安 知之 三木 光範 大向 一輝 吉田 純一.
ATLAS実験における シミュレーション&解析環境
Grid Datafarm for a HEP application
インターネットにおける オーケストラ演奏同期機構の 設計と実装
別紙2:利用料金(税別) 今回リリースする機能 利用料金 備考 初期料金 月額上限料金 分課金(概算) ライセンス データベース
TCP (Transmission Control Protocol)
Step.4 基本IPネットワーク PC 1 PC 2 PC 3 PC
各種PC クラスタの性能評価 同志社大学 工学部 廣安 知之 三木 光範 谷村 勇輔.
グリッド技術を利用した大規模計算機システムの構築
(original Takagi & Saito, 2007)
研究背景 クラウドコンピューティングサービスの普及 マルチテナント方式を採用 データセンタの需要が増加
TCPデータ通信との公平性を考慮した 輻輳適応能力を有する MPEG動画像通信のための品質調整機構
TranSwitch:ネットワークフロー毎における最適な TCP への動的切替機構
i-Pathルータのフロー情報を用いたDoS攻撃検知法
研究背景 クラウドコンピューティングサービスの普及 ユーザ数の増加に伴う問題 マルチテナント方式の採用 データセンタの需要が増加
Telnet, rlogin などの仮想端末 ftp などのファイル転送 rpc, nfs
帯域外リモート管理の継続を 実現可能なVMマイグレーション手法
Ibaraki Univ. Dept of Electrical & Electronic Eng.
Status and Plans for the Tier 1 Tokyo (Japan)
無線LAN での Make-Before-Break ハンドオーバー の他方式比較とフィールド実証
伝送特性に応じた 適応型映像・音声配信機構の構築
ロングファットネットワーク上での 高速データ転送 「ATLAS地域解析センター Testbed環境の構築」
過負荷時のWebアプリケーションの 性能劣化を改善する Page-level Queue Scheduling
Step.9 VPN VPNのトンネルを張る PC 3 PC 1 PC 2 論理ネットワーク1 xx (自動割当)
Ibaraki Univ. Dept of Electrical & Electronic Eng.
アトラス実験における データ解析用グリッド環境の構築
ECN sada 親 makoto, hitomi
RT-Linuxを用いた 多入力パルス波高分析システムの開発
TCP/UDP プロセス間の通信のためのプロトコル TCP:信頼性高、処理時間大 UDP:信頼性低、処理時間小 ftp SMTP HTTP
共生第二 解析&ファイルサーバー taro , pochi , hanako ,tama のご紹介
インターネットの基礎知識 その3 ~TCP・UDP層編~
E16実験へのDAQ-Middlewareの応用
IP ルーティングの図示 情報科学科 松澤 智史.
IaaS型クラウドにおける インスタンス構成の動的最適化手法
Andrew Brzezinski, Gil Zussman, and Eytan Modiano
仮想メモリを用いた VMマイグレーションの高速化
超高速ネットワークの弱点 光は速い 光は遅い 300km / 1msec (真空中) 180km / 1msec (光ファイバ中)
TCP/IP入門          櫻井美帆          蟻川朋未          服部力三.
各種ルータに対応する P2P通信環境に関する研究
演習第6回 情報通信技術論 インターネット工学
Step.1 LinuxとIPコマンド ifconfig [-a] [インタフェース名] arp [-n]
ATLAS実験イベントビルダへの 品質保証機能の適用と性能評価
J-PARC E16実験におけるDAQ-Middleware を用いたDAQソフトウェアの開発
超高速ネットワークの弱点 光は速い 光は遅い 300km / 1msec (真空中) 180km / 1msec (光ファイバ中)
未使用メモリに着目した 複数ホストにまたがる 仮想マシンの高速化
前回の授業への質問 質問:プロトコルアナライザで測定できる範囲はどこまでか?
Improvement of bootup time using Power Management - Project Update -
複数ホストにまたがって動作する仮想マシンの障害対策
仮想ネットワークを考慮した SoftIRQ制御によるCPU割当ての手法
VMMのソフトウェア若化を考慮した クラスタ性能の比較
レポート課題 レポートの提出は による。 提出期間を厳守する。 締切は2010年1月12日(火)
仮想環境を用いた 侵入検知システムの安全な構成法
広島大学におけるHEPnet-J 利用状況
OSI7層に関係する機器、仕様、機能など 物理層 データリンク層 ネットワーク層 トランスポート層 セッション層 プレゼンテーション層
Step.8 ファイアウォール PC 3 PC 1 PC 2 許可したアクセス のみ通過させる アクセスする ファイアウォール
2007 D0活動予定 D0 kazuhisa.
レポート課題1 基本問題:  課題1. あるマシンまでのRTT (Round Trip Time)を測定したところ 128msec(ミリ秒)であった。このマシンに対してウィンドウサイズ64KByteでTCPの通信を行う場合のスループットの予想値を計算せよ。 ヒント1: 授業中に説明したように、スループットの値は、ウィンドウサイズを往復遅延時間で割れば良い。Byteとbitの換算に注意する。計算を簡単にするために1024≒1000として計算して良い(もちろん、この概算を使わなくても良い)。スループットは、ど
IPmigrate:複数ホストに分割されたVMの マイグレーション手法
複数ホストにまたがるVMの メモリ使用状況に着目した高速化
情報ネットワーク 岡村耕二.
Presentation transcript:

東大素セ 松本浩,田中純一, 上田郁夫,坂本宏,真下哲郎 東大CERN間のネットワークテスト 東大素セ 松本浩,田中純一, 上田郁夫,坂本宏,真下哲郎

概要 世界記録を目指すような大げさなものでなく、普通のPCをつないでどのくらい出るのか調べてみた ICEPP-CERN間、ICEPP-KEK間の測定をした ネットワークエミュレーターの結果と比較した

使用したソフトウェア Iperf 1.7.0 メモリ to メモリ転送(TCP/UDP) Bbftp 3.0.1 NistNet 2.0.12 ネットワークエミュレーター

ICEPP-CERN間 テスト構成 RTT ~ 300ms 両側ともFireWallをバイパス 構内ネットワークの1Gbpsがボトルネック ICEPP PC: Dual Intel Xeon 2.40GHz (HT=off) ,Linux 2.4.20 CERN PC: Dual Intel Xeon 2.40GHz (HT=off), Linux 2.4.20 構内ネットワークの1Gbpsがボトルネック

Iperf 結果(ICEPP-CERN, kernel2.4) [UDP] 17:00-17:30 option: -b 1000MB -w 256KB [ ID] Interval Transfer Bandwidth Jitter Lost/Total Datagrams [ 3] 0.0-1095.5 sec 116 GBytes 906 Mbits/sec 0.015 ms 4723300/89157875 (5.3%) [ 3] 0.0-1095.5 sec 134933 datagrams received out-of-order [TCP] 11:00-16:30 [ ID] Interval Transfer Bandwidth Option [SUM] 0.0-1202.7 sec 645 MBytes 4.50 Mbits/sec -P 4 -w 256KB [SUM] 0.0-1203.3 sec 1.13 GBytes 8.04 Mbits/sec -P 8 -w 256KB [SUM] 0.0-1215.0 sec 2.35 GBytes 16.6 Mbits/sec -P 16 -w 256KB [SUM] 0.0-1219.9 sec 5.17 GBytes 36.4 Mbits/sec -P 32 -w 256KB [SUM] 0.0-1230.9 sec 8.30 GBytes 57.9 Mbits/sec -P 64 -w 256KB [SUM] 0.0-1860.0 sec 30.2 GBytes 140 Mbits/sec -P 128 -w 256KB [SUM] 0.0-1860.2 sec 37.0 GBytes 171 Mbits/sec -P 160 -w 256KB [SUM] 0.0-1843.7 sec 27.6 GBytes 129 Mbits/sec -P 128 -w 128KB [SUM] 0.0-1850.1 sec 27.2 GBytes 126 Mbits/sec -P 128 -w 64KB Kernel 2.4.20 UDP 906Mbps(5% packet loss) TCP ~171Mbps(30分平均, wsize 256kB, 160並列) UDP TCP

Iperf 結果(ICEPP-CERN, kernel2.6) Kernel-2.6.0-test11 TCP 634Mbps(10分平均, wsize 8MB, 28並列) -w 4MB -P 12 [SUM] 0.0-304.5 sec 12.3 GBytes 347 Mbits/sec -w 4MB -P 16 [SUM] 0.0-305.2 sec 14.4 GBytes 406 Mbits/sec -w 4MB -P 24 [SUM] 0.0-308.4 sec 19.5 GBytes 542 Mbits/sec -w 4MB -P 30 [SUM] 0.0-312.0 sec 17.7 GBytes 489 Mbits/sec -w 4MB -P 24 [SUM] 0.0-612.2 sec 38.2 GBytes 537 Mbits/sec -w 4MB -P 28 [SUM] 0.0-611.6 sec 45.2 GBytes 634 Mbits/sec -w 4MB -P 32 [SUM] 0.0-622.6 sec 43.7 GBytes 603 Mbits/sec

ICEPP-KEK間テスト構成 RTT ~3ms Kernel 2.4.20 ICEPP PC1: Dual Athlon MP 2000+ ICEPP PC2: Dual PentiumIII 1400MHz ICEPP PC3: Dual Xeon 2.80GHz (HT=on) KEK PC1: Dual Xeon 2.80GHz (HT=on) KEK PC2: Celeron 1.70GHz Kernel 2.4.20

Iperf結果(ICEPP-KEK) UDP 950Mbps TCP wsize=256k, 479Mbps TCP wsize=8M, 922Mbps 上記の値は20分間の平均, single connection

Bbftp結果(ICEPP-KEK) 両側にPC1台づつでのテストで600Mbps 複数台同士でのテストで880Mbps 上記の値は20分間の平均 75MB/s(600Mbps)

ネットワークエミュレーター Nistnet 2.0.12 Linux用のソフトウェア 遅延、パケットロスなどをIP単位で再現 PC1 PC2 Delay Packet loss etc NIC eth1 NIC eth2 NET1 Linux BOX NET2

エミュレーター結果 CERN KEK とのIperf single connectionの結果はよく再現した Multi connection の結果はあまり一致しない

まとめ ICEPP-CERN(rtt=300ms) メモリ間転送 UDP 900Mbps, TCP170Mbps(kernel2.4)/630Mbps(kernel2.6) ICEPP-KEK(rtt=3ms) メモリ間転送 UDP 950Mbps, TCP 920Mbps ディスク間転送880Mbps エミュレーターはまだ研究の余地あり 今回はCERN IT のPCを使わせてもらったが、今後CERNに設置した我々のPCをHTAR経由で使わせてもらえそう