「LHC First Collisionに向けた実験準備」

Slides:



Advertisements
Similar presentations
Linuxを組み込んだマイコンによる 遠隔監視システムの開発
Advertisements

ATLAS実験データ解析に向けた、長距離広帯域ネットワークにおけるデータ転送
Learning Appearance in Virtual Scenarios for Pedestrian Detection
高エネルギー加速器研究機構 素粒子原子核研究所 濱田 英太郎
最新ファイルの提供を保証する代理FTPサーバの開発
仮想テープライブラリ クラウド環境で利用できるテープバックアップの代替サービス 簡単な図 (網羅性より象徴性)
LCG上でのATLASデータ解析 LCGとATLAS計算モデル グリッド上のデータのアクセス グリッド上のAtlasRelease
COPPER/FINESSE System構築
電磁カロリーメーターを使って中性パイ中間子を見よう!
ATLAS実験における シミュレーション&解析環境
MEG実験2009 陽電子スペクトロメータの性能評価
神奈川大学大学院工学研究科 電気電子情報工学専攻
データベースとストレージ の最新動向 12.MAR.2015.
グリッド技術を利用した大規模計算機システムの構築
肥後 芳樹, ○石尾 隆, 渡邊 結, 出張 純也, 畑 秀明, 三宅 達也, 水野 修, 丸山 勝久
スーパーコンの概要 日本物理学会(首都大学) 2007年3月25日 大阪大学核物理研究センター 計算機室  外川浩章.
LHC Run-2 進展状況 [1] Run-2に向けたアトラス検出器の改良 [0] Run-2 LHC
スパコンとJLDG HEPの計算環境 HEPnet-J
Status and Plans for the Tier 1 Tokyo (Japan)
X線天文衛星用CCDカメラの 放射線バックグランドの評価
LHCのデータ量.
専門演習Ⅰ 国際経済学部 国際産業情報学科 2年 石川 愛
microTPC を用いたガンマ線 イメージング検出器の開発V
ATLAS実験シリコン飛跡検出器の宇宙線テストにおけるノイズ解析
ATLAS実験における超対称性事象のバックグラウンドの実験的評価
DAQ-Middleware の新機能 コンポーネント制御機能
アトラス実験における データ解析用グリッド環境の構築
CERN (欧州原子核研究機構) LEP/LHC 世界の素粒子物理学研究者の半数以上の約7000人が施設を利用
ATLAS実験 SOI Transistor TEG の測定
ATLAS実験における Anomaly-mediation超対称性模型の探索と研究
E16実験へのDAQ-Middlewareの応用
論文講読 Measurement of Neutrino Oscillations with the MINOS Detectors in the NuMI Beam 2009/11/17 Zenmei Suzuki.
実行時情報に基づく OSカーネルのコンフィグ最小化
理化学研究所 重イオン核物理研究室 馬場 秀忠
Internet広域分散協調サーチロボット の研究開発
ATLAS実験における J/Y->mm過程を用いたdi-muon trigger efficiency の測定方法の開発及び評価
オープンソース開発支援のための ソースコード及びメールの履歴対応表示システム
ATLAS実験における高速飛跡トリガーシステムの開発と構築3
EGSに対応した粒子軌跡と 計算体系の3次元表示ソフト - CGVIEW -
LHCでの発見へ向け 世界最大コンピューティンググリッドが始動
ATLAS実験におけるシミュレーションを用いたエンドキャップトリガーの性能評価
ATLAS実験イベントビルダへの 品質保証機能の適用と性能評価
研究会 「LHCが切り拓く新しい素粒子物理学」
LHC-ATLAS実験SCTシリコン 飛跡検出器のコミッショニング - II
3次元位置感応型ガンマ線検出器と それに必要なデバイス
J-PARC E16実験におけるDAQ-Middleware を用いたDAQソフトウェアの開発
宇宙科学統合解析環境の構築とAstro-E2解析支援
未使用メモリに着目した 複数ホストにまたがる 仮想マシンの高速化
ATLAS 実験における Inner Detector を用いた レベル2ミューオン・トリガーの性能評価
シミュレーションサンプルを用いた光子コンバージョン再構成
Z(mm)イベントを用いた ATLAS LVL1 Muon Trigger Systemのコミッショニング
EMCalにおけるπ0粒子の 不変質量分解能の向上
LHC計画で期待される物理 ヒッグス粒子の発見 < 質量の起源を求めて > 2. TeVエネルギースケールに展開する新しい物理パラダイム
LHC計画で期待される物理 ヒッグス粒子の発見 < 質量の起源を求めて > 2. TeVエネルギースケールに展開する新しい物理パラダイム
アトラスシリコン半導体飛跡検出器:ATLAS Silicon-strip Tracking Detector
ATLAS実験における高速飛跡 トリガーシステムの開発と構築1
第5回 メモリ管理(2) オーバレイ方式 論理アドレスとプログラムの再配置 静的再配置と動的再配置 仮想記憶とメモリ階層 セグメンテーション
広島大学におけるHEPnet-J 利用状況
iSeries Site 人事・給与C/S版のハードウェア・ソフトウェア要件
Db2 Warehouse on Cloud Db2 on Cloud フルマネージドサービス提案時の注意点
期間:7/2/2010 ‒ 8/3/2010 実施場所:CERN研究所, France/Switzerland
蓄積されたオブジェクトの動作履歴を用いた 実行履歴削減手法の提案
BNL report AYAKO HIEI LOCAL meeting 2008/6/23
データ中心システム設計方法論“DATARUN” 
LHC-ATLAS実験開始に向けた ミュー粒子トリガーシステムの統合試運転
SksMinus status 13 HB meeting 2008/10/3 白鳥昂太郎.
目的とするユーザーコードを 作成するために
ATLAS実験におけるSUSY の発見能力
ベイジアンネットワークと クラスタリング手法を用いたWeb障害検知システムの開発
地域データ解析センターの経緯・概要・計画
Presentation transcript:

「LHC First Collisionに向けた実験準備」 ATLASコンピューティングと グリッド 上田郁夫 東京大学素粒子物理国際研究センター 2008年3月24日 日本物理学会 シンポジウム 「LHC First Collisionに向けた実験準備」 

コンピューティング 計算システム 測定器 データ 物理事象 物理成果 飛跡検出 粒子エネルギー測定 データ処理 ・保管・解析 データ  飛跡検出 粒子エネルギー測定 データ処理 ・保管・解析 物理事象 物理成果 2008.03.24 日本物理学会 24pZE06 上田郁夫 東大素セ

ATLASのデータ量 データサイズ: 1.6 – 2 MB/event イベント数: 200Hz、2x109/yr データ量: 3.2 – 4 PB/yr 2008.03.24 日本物理学会 24pZE06 上田郁夫 東大素セ

比較 テープライブラリ 400GB のテープ x 8000本 =3.2PB LEP/OPAL ~3TB/yr 2008.03.24 日本物理学会 24pZE06 上田郁夫 東大素セ

データ量が膨大 保管の困難 計算量が膨大 ⇒ 「地域センター」 テープに保存 ディスク容量 I/O負荷 データを作る アクセスの困難 (記録装置の容量) 計算量が膨大 (計算機の台数) → CERN計算機センターだけでは足りない 実験Collaborationで分担 ⇒ 「地域センター」 テープに保存 アクセスの困難 ディスク容量 I/O負荷 ⇒ サイズを絞った   データを作る 2008.03.24 日本物理学会 24pZE06 上田郁夫 東大素セ

データ階層 RAW 1.6 MB Raw data Event Summary Data Analysis Object Data ESD 測定器から読み出されたデータ Byte Stream Event Summary Data データ較正、イベント再構成したもの Track, EnergyCluster, … Analysis Object Data 物理解析用データ (0.1MB) Particle, Jet, Missing Energy, … ESD 0.5 MB イベント再構成 (Reconstruction) AOD 0.1 MB 2008.03.24 日本物理学会 24pZE06 上田郁夫 東大素セ

データ階層 Tag data Derived Physics Data イベント選択用 データベース 物理解析の目的毎 AOD 100 kB Tag data イベント選択用 データベース Derived Physics Data 物理解析の目的毎 Histogramming TAG 1 kB DPD 10 kB DPD 10 kB DPD 10 kB DPD 10 kB 2008.03.24 日本物理学会 24pZE06 上田郁夫 東大素セ

計算資源階層 (Tiers) Tier0 (RAW) Tier1 (RAW, ESD, AOD, …) 初回Reconstruction Tier0 (RAW) RAW記録 各種データ保管 Reconstruction Simulation Tier1 (RAW, ESD, AOD, …) 物理解析 Simulation Tier2 (AOD, TAG, DPD) 2008.03.24 日本物理学会 24pZE06 上田郁夫 東大素セ

Tiers & Sites CERN 地域センター (Regional Centers) 比較的大規模の計算機センター Tier0: RAW記録・保管・送出 CERN Analysis Facility: 物理解析、較正  地域センター (Regional Centers) Tier1: データ保管、Reconstruction、Simulation 比較的大規模の計算機センター 10 Sites Tier2: 物理解析、 Simulation ある程度の資源を揃えた研究所、大学 34 Sites (ATLAS日本は東大素粒子センターが Tier2 センター) 2008.03.24 日本物理学会 24pZE06 上田郁夫 東大素セ

WLCG Collaboration Worldwide LHC Computing Grid WLCG MoU WLCG Collaboration Worldwide LHC Computing Grid LHC実験のデータ解析に必要な計算機資源を整備するためのCollaboration 必要なソフトウェア (middleware) を開発・配備 各実験と各センターの協議の場 WLCG MoU 各Siteの供給資源の約束(実験毎) 各Tierの役割とサービスレベルの取り決め 2008.03.24 日本物理学会 24pZE06 上田郁夫 東大素セ

WLCG MoU 東京大学素粒子センターはTier2 site としてWLCGに参加 2008.03.24 日本物理学会 24pZE06 上田郁夫 東大素セ

ATLAS日本の地域解析センター 東京大学素粒子センターに設置された計算機システム 2008.03.24 日本物理学会 24pZE06 上田郁夫 東大素セ

グリッド Grid: 各地の計算機センターを統一的に利用出来る様にしたもの データ管理: 分散したデータを統一管理 データカタログ データ転送 データ処理: 各センターのバッチを統合 どのセンターに割り振るか自動判定 データのある所、ジョブの少ない所 2008.03.24 日本物理学会 24pZE06 上田郁夫 東大素セ

グリッド (データ管理) カタログ データ 要求 RC SE SE = Storage Element 2008.03.24 日本物理学会 24pZE06 上田郁夫 東大素セ

グリッド (データ処理) 処理割振り ジョブ 投入 ジョブ 出力 RC CE CE = Computing Element ( = batch system) 2008.03.24 日本物理学会 24pZE06 上田郁夫 東大素セ

データ配置の秩序化 グリッド = 混沌? データ処理の困難 データ管理の困難 無原則な利用 → データが無秩序に分散 1ジョブに複数の入力ファイル → ジョブ毎にデータ転送が生じて非効率 ⇒ 同種のデータはまとめて配置(データセット) データ管理の困難 膨大なデータ → データカタログの負担 ⇒ データカタログの階層化 中央カタログ: データセットの所在を記録 地域カタログ: データファイルの所在を記録  2008.03.24 日本物理学会 24pZE06 上田郁夫 東大素セ

Cloudモデル Tier0 Tier1 Tier1 Tier1 Tier2 Tier2 Tier2 Tier2 Tier2 Tier2 2008.03.24 日本物理学会 24pZE06 上田郁夫 東大素セ

Cloud毎のデータ処理 Simulation Production は Cloud 単位 Tier1 Tier1 Tier2 Tier2 各データセットはCloud内で完結 (ひとつのTier1でまとめて保管) Dataset A Dataset B Tier1 Tier1 Simulation Process A Tier2 Tier2 Tier2 Tier2 Simulation Process B Tier2 Tier2 Tier2 2008.03.24 日本物理学会 24pZE06 上田郁夫 東大素セ

Cloud毎のデータ管理 データカタログ Tier1 Tier1 Tier2 Tier2 データセットカタログ: 全データセットを管理 ファイルカタログ: Cloud内のファイルを管理 Dataset Catalog Tier2 Tier1 Dataset A Tier1 Tier2 Dataset B File Catalog 2008.03.24 日本物理学会 24pZE06 上田郁夫 東大素セ

Cloud毎のデータ分散 データ分配 Tier1 Tier1 Tier2 Tier2 Tier1 に AOD フルセット (データ保管) Cloud 内の Tier2 全体でフルセット ⇒ Cloud 内で全解析可 Tier2 Tier1 Tier1 Tier2 AOD 100% AOD 100% 保管 AOD 100% AOD 100% 解析 2008.03.24 日本物理学会 24pZE06 上田郁夫 東大素セ

ATLAS Analysis Model TAG Event Selection DPD AOD on-Grid within Athena (ATLAS Common Framework) on- or off-Grid out-of-Athena Results 2008.03.24 日本物理学会 24pZE06 上田郁夫 東大素セ

Distributed Analysis 2008.03.24 日本物理学会 24pZE06 上田郁夫 東大素セ Atlas software & computing workshop (2007.Oct.) Johannes Elmsheuser 2008.03.24 日本物理学会 24pZE06 上田郁夫 東大素セ

Distributed Analysis 2008.03.24 日本物理学会 24pZE06 上田郁夫 東大素セ Atlas software & computing workshop (2007.Jun.) Tadashi Maeno 2008.03.24 日本物理学会 24pZE06 上田郁夫 東大素セ

Distributed Analysis 2008.03.24 日本物理学会 24pZE06 上田郁夫 東大素セ Atlas software & computing workshop (2008.Feb.) Johannes Elmsheuser 2008.03.24 日本物理学会 24pZE06 上田郁夫 東大素セ

実験開始に向けた最終試験 FDR (Full Dress Rehearsal) ATLAS の Software + Computing System の最終試験 FDR-1 (Feb. 2008), FDR-2 (May 2008) CCRC’08(CommonComputingReadinessChallenges) 実験個別の試験だけでなく、LHC四実験同時の試験が必要 (主にデータ転送) Phase-I (Feb. 2008), Phase-II (May 2008) 2008.03.24 日本物理学会 24pZE06 上田郁夫 東大素セ

Full Dress Rehearsal FDR‐1 (Feb. 2008) Online System →(10 hrs @200 HZ)→ Tier0 → Tier1 → Tier2 Tier0: 較正、Data quality、Reconstruction、Grid: データ解析 基本的な動作は確認出来たが各所に修正が必要 Tier0 → Tier1s 2008.03.24 日本物理学会 24pZE06 上田郁夫 東大素セ

Tokyo in FDR-1 割り当て分を全て受信 (13 datasets, 26 files) (青) Tier1s → Tier2 (Tokyo) 2008.03.24 日本物理学会 24pZE06 上田郁夫 東大素セ

CCRC’08 Phase-I (Feb. 2008) Tier0 → Tier1 ATLAS: 700 MB/s for 2 days, peak > 1 GB/s cf. 1.6 MB x 200 Hz = 320 MB/s Total: >1.5 GB/s, peak >2 GB/s WLCG All ATLAS Tier0 → Tier1s 2008.03.24 日本物理学会 24pZE06 上田郁夫 東大素セ

Tokyo in CCRC’08 ATLAS は Tier0 → Tier1 の転送試験に集中していたが、自発的に Tier1 → Tier2 (Tokyo) 試験を実施 (青) Tier1s → Tier2 (Tokyo) 2008.03.24 日本物理学会 24pZE06 上田郁夫 東大素セ

実験開始に向けた試験 Cosmic Ray Runs 宇宙線を利用した ATLAS 測定器の試験 同時にコンピューティングシステムも試験 測定器 ⇒ Online ⇒Tier0 ⇒ Tier1 ⇒ Tier2 cf. FDRはOnline systemから、CCRCはTier0から 2008.03.24 日本物理学会 24pZE06 上田郁夫 東大素セ

Tokyo in Cosmic Ray Run Data transferred (GB) T1-T2 Mar. 07 - 13 Thuroughput (MB/s) T1-T2 Mar. 07 – 13 (青) 2008.03.24 日本物理学会 24pZE06 上田郁夫 東大素セ

モニタリング 短期的な機能試験・性能試験だけでなく、長期的動作・安定性も確かめる必要がある Availability + Reliability 各サイトの安定性 Accounting 使用量が供出量に比較して適正か確認 Fair share の実現のために必要 2008.03.24 日本物理学会 24pZE06 上田郁夫 東大素セ

WLCG T2 Reliability 2008.03.24 日本物理学会 24pZE06 上田郁夫 東大素セ WLCG T2 Reliability http://cern.ch/LCG/MB/accounting/Tier-2/January2008/Tier-2%20Accounting%20Report_January2008.pdf 2008.03.24 日本物理学会 24pZE06 上田郁夫 東大素セ

(Values from http://cern.ch/LCG/planning/planning.html) ATLAS CPU Usage (Values from http://cern.ch/LCG/planning/planning.html) 2008.03.24 日本物理学会 24pZE06 上田郁夫 東大素セ

ATLAS Jobs per Site 2007.10. http://dashb-atlas-prodsys.cern.ch/dashboard/request.py/summary?grouping=site   2008.03.24 日本物理学会 24pZE06 上田郁夫 東大素セ

まとめ ATLASコンピューティングシステムはグリッドを利用して整備され、実験開始に向けて準備が整いつつある グリッドを利用したデータ解析も既に可能となっている 測定器からのデータをCERNで記録し、同時に各地域センターに配布する試験を実施し、動作することを確認した。また、必要な転送レートも達成している。 ATLAS日本の地域解析センターとして、東京大学素粒子センターは積極的に試験に参加し、実験データを確実に、かつ高い転送レートで受けられることを確認した 同センターは長期間安定して動作しており、Simulation data の生産でも着実に貢献している 2008.03.24 日本物理学会 24pZE06 上田郁夫 東大素セ