ATLAS実験データ解析に向けた、長距離広帯域ネットワークにおけるデータ転送

Slides:



Advertisements
Similar presentations
Ibaraki Univ. Dept of Electrical & Electronic Eng.
Advertisements

前回の授業への質問 質問:プロトコルアナライザで測定できる範囲はどこまでか?
Webプロキシサーバにおける 動的資源管理方式の提案と実装
動画像品質調整機能を組み込んだ プロキシキャッシングシステムの 実装と評価
Ibaraki Univ. Dept of Electrical & Electronic Eng.
最新ファイルの提供を保証する代理FTPサーバの開発
Linux インストール      のための基礎知識 物理実験 I 情報実験第9回 2003/12/12 中神 雄一.
クラウドにおける ネストした仮想化を用いた 安全な帯域外リモート管理
高速ネットワーク技術、スーパーコンピュータ関連の国際会議にて受賞 家庭用PCで超高速Webアクセス環境を実現するUsadaFoxを用い、 遠距離Webアクセス性能を1000倍高速化 東京大学データレゼボワール実験グループ.
「LHC First Collisionに向けた実験準備」
解析サーバの現状と未来 2006/07/18 衛星データ処理勉強会 村上 弘志 現状のシステム構成など 統合解析環境としての整備
神奈川大学大学院工学研究科 電気電子情報工学専攻
TCP (Transmission Control Protocol)
仮想マシンの並列処理性能に対するCPU割り当ての影響の評価
各種PC クラスタの性能評価 同志社大学 工学部 廣安 知之 三木 光範 谷村 勇輔.
グリッド技術を利用した大規模計算機システムの構築
研究背景 クラウドコンピューティングサービスの普及 マルチテナント方式を採用 データセンタの需要が増加
TCPデータ通信との公平性を考慮した 輻輳適応能力を有する MPEG動画像通信のための品質調整機構
発表の流れ 研究背景 マルチテナント型データセンタ 関連研究 IPマルチキャスト ユニキャスト変換手法 提案手法 性能評価.
TranSwitch:ネットワークフロー毎における最適な TCP への動的切替機構
ネストした仮想化を用いた VMの安全な帯域外リモート管理
帯域外リモート管理の継続を 実現可能なVMマイグレーション手法
Status and Plans for the Tier 1 Tokyo (Japan)
LHCのデータ量.
通信トラヒックの相関構造を利用した通信品質の劣化検出
サーバ負荷分散におけるOpenFlowを用いた省電力法
ギガビットネットワークに対応する ネットワークべンチマークテスト機の試作と ギガビットルータの性能評価
Ibaraki Univ. Dept of Electrical & Electronic Eng.
アトラス実験における データ解析用グリッド環境の構築
Globusにおける GridFTPの性能評価
分散IDSの実行環境の分離 による安全性の向上
E16実験へのDAQ-Middlewareの応用
IP ルーティングの図示 情報科学科 松澤 智史.
IaaS型クラウドにおける インスタンス構成の動的最適化手法
仮想メモリを用いた VMマイグレーションの高速化
超高速ネットワークの弱点 光は速い 光は遅い 300km / 1msec (真空中) 180km / 1msec (光ファイバ中)
HPC基盤における大量データ転送のためのデータ転送ツールの評価
ネストしたVMを用いた 仮想化システムの高速なソフトウェア若化
Internet広域分散協調サーチロボット の研究開発
ネットワークの性能 牧野ゼミ3年 足立龍哉.
LHCでの発見へ向け 世界最大コンピューティンググリッドが始動
ATLAS実験イベントビルダへの 品質保証機能の適用と性能評価
非対称リンクにおける ジャンボフレームの性能評価
SN比を考慮した 無線スケジューリング方式
J-PARC E16実験におけるDAQ-Middleware を用いたDAQソフトウェアの開発
宇宙科学統合解析環境の構築とAstro-E2解析支援
超高速ネットワークの弱点 光は速い 光は遅い 300km / 1msec (真空中) 180km / 1msec (光ファイバ中)
クラウドにおけるVM内コンテナを用いた 自動障害復旧システムの開発
未使用メモリに着目した 複数ホストにまたがる 仮想マシンの高速化
クラウドにおけるVM内コンテナを用いた 低コストで迅速な自動障害復旧
複数ホストにまたがって動作する仮想マシンの障害対策
仮想ネットワークを考慮した SoftIRQ制御によるCPU割当ての手法
VMMのソフトウェア若化を考慮した クラスタ性能の比較
ウェブアプリケーションサーバの Degradation Schemeの 制御に向けて
VMが利用可能なCPU数の変化に対応した 並列アプリケーション実行の最適化
仮想環境を用いた 侵入検知システムの安全な構成法
Peer-to-Peerシステムにおける動的な木構造の生成による検索の高速化
仮想マシンの監視を継続可能なマイグレーション機構
広島大学におけるHEPnet-J 利用状況
ガス電子増幅器を読み出しに用いた タイムプロジェクションチェンバー (GEM-TPC)の開発
VMリダイレクト攻撃を防ぐための 安全なリモート管理機構
ゼロコピー・マイグレーションを 用いた軽量なソフトウェア若化手法
レポート課題1 基本問題:  課題1. あるマシンまでのRTT (Round Trip Time)を測定したところ 128msec(ミリ秒)であった。このマシンに対してウィンドウサイズ64KByteでTCPの通信を行う場合のスループットの予想値を計算せよ。 ヒント1: 授業中に説明したように、スループットの値は、ウィンドウサイズを往復遅延時間で割れば良い。Byteとbitの換算に注意する。計算を簡単にするために1024≒1000として計算して良い(もちろん、この概算を使わなくても良い)。スループットは、ど
IPmigrate:複数ホストに分割されたVMの マイグレーション手法
ガス電子増幅器を読み出しに用いた タイムプロジェクションチェンバー (GEM-TPC)の開発
7月13日の演習問題・解答例 について ネットワーク長が 18、22、26、28 の場合の
東大素セ 松本浩,田中純一, 上田郁夫,坂本宏,真下哲郎
ベイジアンネットワークと クラスタリング手法を用いたWeb障害検知システムの開発
Ibaraki Univ. Dept of Electrical & Electronic Eng.
強制パススルー機構を用いた VMの安全な帯域外リモート管理
Presentation transcript:

ATLAS実験データ解析に向けた、長距離広帯域ネットワークにおけるデータ転送 東京大学素粒子物理国際研究センター 磯部忠昭,坂本宏,真下哲郎,上田郁夫, 田中純一,松永浩之 日本物理学会 第63回年次大会@近畿大学

ATLASデータグリッドにおける東京解析センター 10G Line 国内でのデータ解析を円滑に行う為、Tier2サイトとして参加し ている 年間1ペタバイト程の転送→数十MByte/secのthroughputが必要 CERN研究所→フランス、リヨン→東京 帯域は10Gbpsになった, (Round Trip Time(RTT)~280ms) ATLASのモデル想定外だが、ICEPP – CERN (東大保有のク ラスター)のラインも我々には重要 帯域は1Gbps, 経路はほぼ同じ(RTT~270ms)

長距離広帯域ネットワークにおけるデータ転送 広帯域だが、RTTが長いため効率 よくパケットを送るための調整が 必要になる TCP window sizeの調整 同時転送ファイル数、ストリーム 数を増やすことでメモリ/CPUに負 荷はかかるが、高いパフォーマン スが期待できる しかしFile Fragmentationによる Disk I/O性能の低下も懸念される ポイント 効率よい転送を実現するため、 Memory-to-memory, disk-to-disk での転送テストを基にシステムの 最適化を行う Internet

測定その1:メモリ間でのネットワーク測定(東京⇔リヨン) iperf を用いてディスクI/Oの効果が無いnetwork throughputを測定した 東京地域解析センターに2タイプのサーバを設置 Scientific Linux CERN(SLC) 3: kernel 2.4系 Scientific Linux CERN(SLC) 4: kernel 2.6系 LYON, CC-IN2P3にも2タイプ設置 SL3(kernel 2.4)とSL4(kernel 2.6)を準備 RTT~280msec. TCP window sizeを8MByteに固定した Network Cardは1Gbpsのものを利用しているため、 1Gbpsで頭打ちになる

iperfによるメモリ間throughput測定 Window size: 8M, ストリーム数: 8で5秒毎のthroughputを測定した kernel 2.4系の場合 kernel 2.6系の場合 kernelの違いにより大きくthroughputが異なる kernel 2.6系にBicTCPが導入された為と思われる kernel2.4系の場合は緩やかなthroughputの上昇が見られる kernel2.6系の場合はthrouthputの上昇が2.4に比べ早く、リカバリも早い Lyon<->Tokyoの方向の違いによるthroughputの差は現在調査中

throughput長期測定(リヨン→東京) 2分間パケットを流し、平均速度を各ストリーム数についてプロットした 10日間ほど測定したが、時間帯によらず、ほぼ安定した速度が出ている

測定その2:各サイトのファイルサーバ間における実ファイル転送環境 東京地域解析センター Intel Xeon 3.0GHz, 8GByte memory, 10GB-NIC TOKYO siteがATLAS Data GRIDに提供している機種 SLC4.6, xfs file system, gridftpはglobus toolkit 4.0.5のものを使用 CERN研究所内にある東大素粒子センターオフィス Intel Xeon 2.4GHz, 2GByte memory, 1GB-NIC SLC4.6, ext3 file system, gridftpはgLite middleware (v3.0)で提供し ているものを使用 フランス-リヨン、CC-IN2P3 Thumper, Solaris OS, ZFS Grid middlewareのFile Transfer Service(FTS)により転送が制御され ている ファイル転送後、cat “files” > /dev/nullで読み出し速度を測定 した。

GRIDFTPによる実ファイル転送の測定 (CERN東大オフィス→東大ICEPP) ストリーム数依存性 同時転送ファイル数依存性 1ホスト-to-1ホストで最大約75MByte/sec.での転送に成功 総ストリーム数が多すぎると速度が低下する→サーバへの負荷による効果と思われる File Fragmentation による読み出し速度の低下が見られる(約半分の速度まで低下) これらのファイルは一度別にコピーすることで読み出し速度が回復する bbftpでもいくつかテストを行ったが、転送速度はgridftpの方が2倍以上速い

ATLASデータグリッドにおけるリヨン→東京のファイル転送パフォーマンス Gridftpのログを基に30sec.平均でのファイル転送速度を測定 素粒子センターに設置されている6台のファイルサーバーへの転送状態(合計)をプロットした 転送効率を上げるため、同時転送ファイル数を調整した M6 東京解析センター への実効転送速度 M6 同時転送ファイル数 同時転送ファイル数~40程で限界値だった 10Gbpsの恩恵もあり、最大値で360MByte/secを達成 M6のデータを安定して高速に転送できている(約4TByteのデータ) #stream/Trans.=10

まとめ iperfを用いてmemory-to-memoryでのネットワーク性能を 測定した gridftpによる実データの転送試験を行った kernel2.4系よりkernel2.6系の方がthroughtputの上昇が早く 大容量データ転送に適している 日本⇔ヨーロッパ間のネットワークは安定している gridftpによる実データの転送試験を行った 同時転送ファイル数やストリーム数といったパラメータの調 整によりCERNから効率よくデータが転送できた 同時転送ファイル数が多い場合、File Fragmentationによる ファイルの読み出し速度低下が考えられるので調整が必要 ATLAS グリッドのデータ転送を高速に安定して行った リヨンから最大360MByte/sec.でのデータ転送に成功した M6で約4TByteのデータを転送した

backup

throughput長期測定(東京⇔リヨン) 東京→リヨン リヨン→東京 2分間パケットを流し、平均速度を各ストリーム数についてプロットした 10日間ほど測定したが、時間帯によらず、ほぼ安定した速度が出ている