スパコンとJLDG HEPの計算環境 HEPnet-J

Slides:



Advertisements
Similar presentations
1 広島大学 理学研究科 尾崎 裕介 石川 健一. 1. Graphic Processing Unit (GPU) とは? 2. Nvidia CUDA programming model 3. GPU の高速化 4. QCD with CUDA 5. 結果 6. まとめ 2.
Advertisements

ユーザー支援報告 寺崎順 筑波大計 算科学研究センター 1.何をやるのか 2.どういう人達がやるのか 3.依頼者にとって何がいいのか 4.どういう依頼が来たか、どう回答したか 5.ウェブページ 6.まとめ 2013 年 3 月 6 日 東京.
専修大学情報科学センターのパソコンを 使ったグリッドコンピューティング ― SPACE計画 - 森正夫 1 、水崎高浩 1 、内藤豊昭 2 、中村友保 2 及び 専修大学情報科学センター 及び 専修大学情報科学センター 1 専修大学 法学部/自然科学研究所 1 専修大学 法学部/自然科学研究所 2 専修大学.
核融合研究グリッドへ向けたITBLの適用
MPIを用いたグラフの並列計算 情報論理工学研究室 藤本 涼一.
第3回 並列計算機のアーキテクチャと 並列処理の実際
GPU上の大規模格子QCDシミュレーション に向けて
同志社大学 知識工学科 知的システムデザイン研究室 廣安 知之
コンピュータの主役はCPU(Central Processing Unit)
分散遺伝的アルゴリズムによる各種クラスタのベンチマーク
各種PC クラスタの性能評価 同志社大学 工学部 廣安 知之 三木 光範 谷村 勇輔.
PCクラスタ上での 連立一次方程式の解の精度保証
スーパーコンの概要 日本物理学会(首都大学) 2007年3月25日 大阪大学核物理研究センター 計算機室  外川浩章.
数値予報研究開発プラットフォームにおける気象庁モデルの貸与
第8回WGミーティング 2011年11月29日(火) 後藤雄二(理研)
応用数理工学特論 線形計算と ハイパフォーマンスコンピューティング
CMCスーパーコンピューティング環境 現状と将来
全電子混合基底第一原理計算法を活用したネットワーク型エネルギー絶対値算定マテリアルズ・インフォマティクス
アクセラレータを用いた 大規模へテロ環境における Linpack
JLDG/ILDG 講習会・利用検討会     2010年1月27日     於 筑波大学 計算科学研究センター.
文献名 “Performance Tuning of a CFD Code on the Earth Simulator”
e-サイエンス推進のための 広域分散ファイルシステムの 適用と評価
現実の有限密度QCDの定性的な振る舞いに
現実の有限密度QCDの定性的な振る舞いに
大阪市立大学 学術情報総合センター 大西克実
計算理工学基礎 「ハイパフォーマンスコンピューティングの基礎」
格子シミュレーションによる 非自明固定点の探索
応用数理工学特論 第6回 計算理工学専攻 張研究室 山本有作.
杉山耕一朗(北大理) 2009/02/06 epnetfan
Graphic Card を使った 高性能計算
MPIを用いた最適な分散処理 情報論理工学研究室 角 仁志
「計算科学による素粒子・原子核・宇宙の融合」
#6 性能向上、ブレイクスルー、集中と分散 Yutaka Yasuda.
コンピュータの歴史 〜計算速度の進歩〜 1E15M009-3 伊藤佳樹 1E15M035-2 柴田将馬 1E15M061-1 花岡沙紀
格子QCDからハドロン間相互作用へ 石井理修(筑波大) 連携の位置関係 現在の計算法 今後5年間での到達点・目標 研究者間での連携
九州大学情報基盤研究開発センター長 青柳 睦
HPC基盤における大量データ転送のためのデータ転送ツールの評価
担当教官 理論: 菅沼 秀夫 実験: 成木 恵 前期: それぞれ週1回のゼミ 後期: 理論ゼミ + 実験作業
LHCでの発見へ向け 世界最大コンピューティンググリッドが始動
スーパーコンピュータ「京」 理化学研究所 計算科学研究センター
有限温度下におけるチャーモニウム 前澤 祐 (理研・橋本数理物理研究室) 重イオン衝突実験におけるQGP生成のシグナル
スーパーコンピュータ講習会 全体構成 ファイアーウオール経由での使用方法 ディスクの構成 バッチキュー 運用、その他.
素粒子原子核理論のフロンティア 岡田安弘 総研大大学院説明会 2006年6月.
「核力についてどんなことができるか」展望
核理研利用者の会報告 2007.5.21.
InTriggerクラスタ環境の構築 i-explosion 支援班 クラスタ環境の概要 研究に使える「共有資源」を提供
Peer-to-Peerシステムにおける動的な木構造の生成による検索の高速化
ストレンジネスで探る原子核 -ハイパー核の世界-
素粒子分野における計算機物理 大野木哲也 (京都大学基礎物理学研究所).
QCDの有効理論とハドロン物理 原田正康 (名古屋大学) at 東京大学 (2006年11月6日~8日)
並列処理プロセッサTPCOREの 組み込みシステムへの応用 理工学研究科数理情報科学専攻 福永 力,岩波智史,情報システム研究室.
広島大学におけるHEPnet-J 利用状況
格子ゲージ理論によるダークマターの研究 ダークマター(DM)とは ダークマターの正体を探れ!
計画研究代表者 京都大学基礎物理学研究所 大野木 哲也
Marco Ruggieri 、大西 明(京大基研)
非等方格子上での クォーク作用の非摂動繰り込み
Sine-Gordon Integrability of Classical String Solutions on AdS5 × S5
天文・宇宙分野1 梅村雅之 「次世代スーパーコンピュータでせまる物質と宇宙の起源と構造」
理工学部情報学科 情報論理工学研究室 延山 周平
行列模型から4次元は出るのか? ~ガウス展開法とシミュレーションの進展と展望~
「大阪大学レーザーエネルギー学研究センターの共同利用・共同研究拠点化」に向けた要望書・意見書のお願い
媒質中でのカイラル摂動論を用いた カイラル凝縮の解析
爆速サーバー IBM Power Systemsが 超リアルタイムビジネスを実現
2007年度三者センター校 ☆三者予算の管理 ⇒ 暫定決算報告 (議案書) ☆外部団体への援助・協賛の申請
2007年度三者センター校(北大) @春の三者総会  予算案の修正について  役職校への諸連絡.
情報論理工学 研究室 第1回:並列とは.
宇宙線研究所電子計算機システム 全体構成図
分散メモリ型並列計算機上での行列演算の並列化
超弦理論の非摂動的効果に関する研究 §2-超弦理論について §1-素粒子論研究とは? 超弦理論: 4つの力の統一理論の有力候補
? リー・ヤンの零点 これまでの格子QCD計算の結果 今年度の計画 リー・ヤンの零点分布から探る有限密度QCDにおける相構造の研究
Presentation transcript:

スパコンとJLDG HEPの計算環境 HEPnet-J 利用者会@KEK 松古 栄夫 (計算科学センター) High Energy Accelerator Research Organization (KEK)

KEKスーパーコンピューターシステム http://scwww.kek.jp/ 2006年3月1日より稼働 構成: 2つの計算サーバが中心 システムA: Hitachi SR11000 理論演算性能 2.15TFlops 汎用計算サーバ システムB: IBM Blue Gene 理論演算性能 57.3TFlops 高並列型計算に特化 ディスク: 合計約 80TB 運用: 大型シミュレーション研究 ユーザ テープドライブ フロントエンドA ディスクA (4.5TB) SR11000 データディスク (61.3TB) フロントエンドB ディスクB (16TB) Blue Gene

スパコン@KEK/システムA Hitachi SR11000 model K1 (16 node, peak 2.15 TFlops) プロセッサ: POWER5+ (2.1GHz, 8.4 Gflops, 36MB L3 cache) 1ノード=16CPU, SMP並列 (134.4 GFlops), 24GBメモリ 自動並列化, MPI並列も可能 ノード間: クロスバスイッチ MPI並列 Wilson solver: 約 25-30 % of peak 1ノード、4ノードキューで運用

スパコン@KEK/システムB IBM System Blue Gene Solution (10 rack, 57.3TFlops) 1 rack = 1024 nodes = 2048 CPU プロセッサ: PowerPC440 (700MHz, 2.8 Gflops) Double FPU: 複素数演算を高速に処理 1 ノード= 2CPU, 4MB L3 cache (共有)、512MB memory Virtual node mode: 2つのCPUが独立に計算 Coprocessor mode: 片方のCPUが通信を担当 ノード間ネットワーク Rack/2: 3次元トーラス(8x8x8) global tree Wilson solver: 約 25-30% of peak 最大1024ノードキューで運用

スパコン@KEK/大型シミュレーション研究 研究プロジェクトの申請、利用の枠組 (http://ohgata-s.kek.jp/) 共同利用: 素粒子、原子核理論のシミュレーション 格子QCD (全体の7-8割) オーバーラップフェルミオンの Full QCD 計算 (JLQCD Collab.) ハドロンスペクトル、散乱振幅 有限温度、密度 ハドロン間相互作用 原子核構造 散乱振幅の自動計算 宇宙論、行列模型、etc 共同研究: KEK 内研究者との共同研究  加速器シミュレーション 物性理論など

他のスーパーコンピューター 素粒子/原子核理論研究、特に格子QCDに利用できるシステム 筑波大計算科学研究センター: PACS-CS 理論演算性能 14.3 Tflops、2006年6月稼働 2+1 flavor QCD の大規模シミュレーション (PACS-CS Collab.) 阪大核物理研究センター: NEC SX-5 1.3 TFlops --> 24+ TFlops (2007年1月) 1/4 – 1/6 程度を理論計算に利用可能 京大基礎物理学研究所: NEC SX-8 1 TFlops (2006年1月より稼働中) 理論物理の共同利用 広島大学: Hitachi SR11000 0.7 TFlops

JLDG ILDG: International Lattice DataGrid 格子QDCデータ共有への動き 公開中のデータ Gauge Connection@NERSC, USA) LQA(Lattice QCD Archive)@Tsukuba Univ. ILDG: International Lattice DataGrid 2006年6月より正式運用 JLDG: Japan Lattice DataGrid (立ち上げ準備中) 国内グループでのデータの高速な転送、共有 on HEPnet-J/sc ILDGにデータを提供する国内組織 ファイルシステムの開発 高速かつ一元的管理 -- Gfarm を中心とした構成 ミドルウェアの開発 (ILDGへのゲートウェイ)

まとめ 理論研究のための計算機が大きくパワーアップ 格子QCDでは大規模ダイナミカルシミュレーションの計画 Overlap quark @KEK Nf=2+1 improved Wilson quark @PACS-CS Tsukuba 世界的なデータ共有の流れ: ILDG データ共有のための国内組織の整備 HEPnet-J/sc, JLDG