グリッド技術を利用した大規模計算機システムの構築

Slides:



Advertisements
Similar presentations
WINDOWS AZURE上での ACTIVE DIRECTORY構築入門 Windows Azure ハンズオン トレーニング.
Advertisements

Virtual Editionのご紹介 2012年12月12日.
理学院 宇宙理学専攻 惑星物理学研究室 修士 2 年 徳永 義哉
ATLAS実験データ解析に向けた、長距離広帯域ネットワークにおけるデータ転送
仮想テープライブラリ クラウド環境で利用できるテープバックアップの代替サービス 簡単な図 (網羅性より象徴性)
榮樂 英樹 LilyVM と仮想化技術 榮樂 英樹
LCG上でのATLASデータ解析 LCGとATLAS計算モデル グリッド上のデータのアクセス グリッド上のAtlasRelease
Android と iPhone (仮題) 情報社会とコンピュータ 第13回
Virtual Editionのご紹介 (株)ネットジャパン 法人営業部 2012年7月18日 1.
高速ネットワーク技術、スーパーコンピュータ関連の国際会議にて受賞 家庭用PCで超高速Webアクセス環境を実現するUsadaFoxを用い、 遠距離Webアクセス性能を1000倍高速化 東京大学データレゼボワール実験グループ.
Windows Azure 仮想マシン 入門.
仮想化システムを用いて 複数のOSを動かす
三鷹FX相関器互換の ソフトウェア相関処理システムの構築
ATLAS実験における シミュレーション&解析環境
「LHC First Collisionに向けた実験準備」
複数のコンピュータ(ノード)を一群にまとめて、信頼性や処理性能の向上を実現するシステム
解析サーバの現状と未来 2006/07/18 衛星データ処理勉強会 村上 弘志 現状のシステム構成など 統合解析環境としての整備
別紙2:利用料金(税別) 今回リリースする機能 利用料金 備考 初期料金 月額上限料金 分課金(概算) ライセンス データベース
会社名: 氏名: 日付:.
2006年11月1日 日本アイ・ビー・エム株式会社 日本アイ・ビー・エム・システムズ・エンジニアリング株式会社
Debian GNU/Linux ー Linuxインストールに必要な基礎知識 ー 三上 彩 鈴木 倫太郎
(original Takagi & Saito, 2007)
都市情報学専攻 情報基盤研究分野  M04UC513  藤田昭人
Telnet, rlogin などの仮想端末 ftp などのファイル転送 rpc, nfs
LHC Run-2 進展状況 [1] Run-2に向けたアトラス検出器の改良 [0] Run-2 LHC
Status and Plans for the Tier 1 Tokyo (Japan)
Dell Storage NX430シリーズ 2017年1月27日受注分まで NX430
サスペンドした仮想マシンの オフラインアップデート
プロユースな先進スペックを、だれでも手軽に。
マイクロソフト株式会社 SAP/Microsoft コンピテンスセンター
Windows Azure 仮想ネットワーク
Linux搭載4ベイNAS スモールオフィスや部門サーバーに最適! 法人向けRAID5/6対応
Virtual Editionのご紹介 2012年7月26日.
建設・建築現場のデータもクラウドへ自動バックアップ!
アトラス実験における データ解析用グリッド環境の構築
RDX Windows Server 2003のデータ移行や Windows Server 2012 R2等のバックアップにお勧め!
中堅・中小企業様、部門・ワークグループに最適なNAS
カメラ監視録画ユニット アロバビュー搭載録画ユニット(NVR)
共生第二 解析&ファイルサーバー taro , pochi , hanako ,tama のご紹介
Riakデータベース on SoftLayer
Linux Editionのご紹介 2013年 4月22日.
グリッド M1 kawai.
%Offや特別割引価格について、Dell直販のものを参考にして作成していただけますようお願いいたします。
他のプロセスに あたえる影響が少ない 実行時ミラーリングシステム
日本アイ・ビー・エム Power Tech Sales 2018/05/02更新
Java Bytecode Modification and Applet Security
仮想メモリを用いた VMマイグレーションの高速化
オペレーティングシステム イントロダクション
Internet広域分散協調サーチロボット の研究開発
LHCでの発見へ向け 世界最大コンピューティンググリッドが始動
<前提条件> iSeriesSite ワークフロー 実行環境 構成イメージ
J-PARC E16実験におけるDAQ-Middleware を用いたDAQソフトウェアの開発
宇宙科学統合解析環境の構築とAstro-E2解析支援
スーパーコンピュータ講習会 全体構成 ファイアーウオール経由での使用方法 ディスクの構成 バッチキュー 運用、その他.
データベース設計 第7回 実用データベースの運用例 クライアント=サーバシステム(1)
複数ホストにまたがって動作する仮想マシンの障害対策
VMMのソフトウェア若化を考慮した クラスタ性能の比較
UPSのバッテリ劣化もNarSuSでわかる! 入力電源異常などのUPSの エラーもNarSuSで記録可能!
インターネットに接続できない環境下にあるLAN DISKも LAN内で状態管理可能に! 新登場!
スーパーコンピュータ講習会 全体構成 ファイアーウオール経由での使用方法 ディスクの構成 バッチキュー 運用、その他.
ネットワークをシンプルにする エンタープライズ NFV
InTriggerクラスタ環境の構築 i-explosion 支援班 クラスタ環境の概要 研究に使える「共有資源」を提供
Peer-to-Peerシステムにおける動的な木構造の生成による検索の高速化
広島大学におけるHEPnet-J 利用状況
異種セグメント端末による 分散型仮想LAN構築機構の設計と実装
IPmigrate:複数ホストに分割されたVMの マイグレーション手法
複数ホストにまたがるVMの 高速かつ柔軟な 部分マイグレーション
東大素セ 松本浩,田中純一, 上田郁夫,坂本宏,真下哲郎
ベイジアンネットワークと クラスタリング手法を用いたWeb障害検知システムの開発
地域データ解析センターの経緯・概要・計画
Presentation transcript:

グリッド技術を利用した大規模計算機システムの構築 東大素粒子物理国際研究センター 松永浩之、磯部忠昭、小林富雄、坂本宏、真下哲郎、松井長隆、森下可奈子

Worldwide LHC Computing Grid LHC実験では、データ量がかつてないほど多いので、 CERNだけでデータの保管や処理を行うことが不可能 Raw データの量だけで >3PB/year Worldwide LHC Computing Grid (WLCG) LHCの実験に必要な計算機資源を確保し、Grid middleware の開発・配備を行う WLCG においても、仮想組織(VO: Virtual Organization) ごとに使用・運用方法は少しずつ異なる (VO は各実験に対応:ATLAS VO など) WLCGサイト間の連携や、サイトでのソフトウェアのインストール方法など

地域解析センター 東大素粒子センターに、日本におけるアトラス実験のデータ解析の拠点として、「地域解析センター」を設置 地域解析センターでは、WLCG として使用する資源とそれ以外 (非WLCG) の資源に区別して運用 WLCGでは ATLAS VO のみサポート 非WLCG 分は、ATLAS日本グループが独占して使用 ただし、WLCG に提供しているストレージ(ディスク)は、非WLCG の計算機からもアクセス可能なように設計 WLCG で使用されている三種類の Grid middleware のうち、ヨーロッパを中心に開発されている gLite を用いて、WLCG のサイト (TOKYO-LCG2) を構築・運用

計算資源 昨年から本システム設置 計算サーバー: 650 ノード x 4 コア ディスクアレイ: 140台 テープライブラリ:8000本 120 ノードを gLite の Worker Node として使用 (~1000kSI2k) また、一部は gLite “Head Node” として使用 ディスクアレイ: 140台 1台に 500GB x 16 HDD、RAID-6 で使用 30台 (~190TB) を WLCG に提供 近く65台 (~400TB) まで追加予定 テープライブラリ:8000本 LTO-3 (400GB/本)

Tape Robot PC Servers Disk Arrays Disk Arrays ~270 m2

WLCG サイト構成 CE (Computing Element) + WN SE (Storage Element) Torque + Maui の batch system Fair share、Priority (Production、software インストール) (将来 WN 数が増加した場合) LSF への移行も検討 WN は、8GB memory (2GB/core)、~40GB working disk space (10GB/core) SE (Storage Element) DPM (Disk Pool Manager) で構築 CERN の Castor から派生(テープはなし) rfio、name server (MySQL based) データ転送は gridFTP xrootd の動作も可能 rfio などにより、(非LCG 上のノードの)ジョブから直接ファイルをアクセス可能 SRM (Storage Resource Manager) プロトコル対応 実験からの機能要求、異なる実装に対する interoperability Information System (BDII、Globus MDS)、LFC File Catalog、Resource Broker、User Interface、Monitoring/Accounting など

SE の構築 1台のファイルサーバーに5台のディスクアレイ (~6TB/台) を接続 4Gbps の Fibre-Channel ファイルサーバーでは、Chelsio の 10Gbps の NIC を使用 遠くの相手と効率よくデータ転送するため、TCP の Window size 等を調整 東大のサイトは、主にフランス・リヨンのサイトとの間でデータを転送 (RTT~280ms) SL3/i386 用パッケージしかないころより、 SL4/x86_64 の OS で(互換モードで)稼動。また、filesystem には XFS を使用 SL4 の TCP の実装 (BIC-TCP) は、SL3 のもの (TCP Reno)より輻輳制御が優れている 大きな Filesystem (>2TB) を作成可能。 大量のファイル消去は ext3 より XFS のほうが高速。また、XFSは大きなファイルの扱いが得意 gridFTP を用いた multi-stream でのデータ転送による fragmentation の効果が XFS は ext3 より小さい ただし、XFS は (RedHat Linux でサポートされていないため)独自に patch を当てたり kernel parameter の調整をしないと高負荷で不安定になる場合がある

利用ソフトウェア Quattor Lemon MRTG, SmokePing OS インストール (+ アップデート) Lemon Fabric モニター MRTG, SmokePing Network モニター OpenManage (Dell), RAIDWatch (Infortrend) サーバー、RAID 管理 自家製 scripts SE でのディスク利用、データ転送状況 CE でのアカウンティング その他、LCG で提供されているモニター、アカウンティング

高可用性・高信頼性 東大のサイトは高可用性・高信頼性を実現 ハードウェアの選択 事前の高負荷でのテストによる不良発見 WLCGサイトにおいて上位 2008年1月には、可用性98%、信頼性99% ハードウェアの選択 UPS、冗長構成(RAID、電源、Oracle RAC) 事前の高負荷でのテストによる不良発見 FB-DIMM の ECC single bit error 電源ユニットの故障 XFSに起因する kernel panic gLite middleware の慎重な update 頻繁に update が release されるが、仕様・設定の変更や bug が含まれることが多い 各種モニタリング・ツールの活用

サイトの利用統計 月ごとのCPU 使用量 ディスク使用量、使用可能量 50TB 200TB CPU、ディスクの使用とも順調に増加 CPU は ATLAS Production の状況で変化 ディスクは昨年8月に~190TB追加

まとめと予定 TOKYO-LCG2 の運用は順調 今後の予定 高可用性、高信頼性を実現 使用率も除々に増加 データ転送のための最適化も進展(次のトーク) 今後の予定 Oracle RAC の運用 gLite の backend の database として ATLAS Conditions database ATLAS software 等を AFS で提供 (非WLCG部分での)Castor の導入