解適合格子法によるプラズマ粒子(AMR-PIC)シミュレーション

Slides:



Advertisements
Similar presentations
1 広島大学 理学研究科 尾崎 裕介 石川 健一. 1. Graphic Processing Unit (GPU) とは? 2. Nvidia CUDA programming model 3. GPU の高速化 4. QCD with CUDA 5. 結果 6. まとめ 2.
Advertisements

宇宙空間物理学の課題 長井 嗣信 東京工業大学 2005 年 3 月 25 日 教室発表会. 1. 2004 年は どのような年であったか.
esc/images/journal200404/index.html How the OFES (OGCM for the Earth Simulator) simulates the climatological state of the.
Magnetic Reconnection in the Magnetotail: Geotail Results
YohkohからSolar-Bに向けての粒子加速
極紫外撮像分光装置 (EIS) 国立天文台 渡 邊 鉄 哉
有限差分法による 時間発展問題の解法の基礎
平成20年度 核融合科学研究所共同研究 研究会 「負イオン生成および負イオンビーム加速とその応用」 プロセスプラズマのPIC計算のモデリング
太陽フレアの磁気リコネクション流入流の発見
サブストームの課題   長井嗣信 (東京工業大学).
(Fri) Astrophysics Laboratory MATSUO Kei
高精度有限体積法による 非静力学惑星大気循環モデルの開発 神戸大学 地球および惑星大気科学研究室 河合 佑太
Bファクトリーにおけるビームビームリミットの研究
4. 双曲型偏微分方程式の数値解法入門 双曲型の偏微分方程式(partial differential equation, PDE)の最も簡単なの例として1変数の線形PDE    を考える; この方程式の意味は大雑把に言って、Δx の セル内に流入流出する f の量がフラックス その結果セル内で f.
学年 名列 名前 福井工業大学 工学部 環境生命化学科 原 道寛
SHIGENOBU HIROSE AND JULIAN H. KROLIK
X-BAND RF電子銃の シミュレーション
交通量観測地点を考慮した時間OD推定 モデルの開発と大規模ネットワークへの適用
スパコンとJLDG HEPの計算環境 HEPnet-J
数値相対論の展望        柴田 大 (東大総合文化:1月から京大基研).
非一様空間格子幅・時間ステップ幅 および衝突効果 寺田 直樹 名古屋大学太陽地球環境研究所.
文献名 “Performance Tuning of a CFD Code on the Earth Simulator”
AMR法フレームワークの様々なアーキテクチャへ向けた発展 研究背景と研究目的 Xeon Phi対応に向けた拡張
Astro-E2 Ascent Profile
電磁流体力学乱流の高精度・高並列LESシミュレーションコード開発研究
磁気リコネクション (Craig-Henton解の安定性) ~シミュレーションサマースクール@千葉大より~
Jh NAHI 横田 理央 (東京工業大学) Hierarchical low-rank approximation methods on distributed memory and GPUs 背景  H行列、H2行列、HSS行列などの階層的低ランク近似法はO(N2)の要素を持つ密行列をO(N)の要素を持つ行列に圧縮することができる。圧縮された行列を用いることで、行列積、LU分解、固有値計算をO(NlogN)で行うことができるため、従来密行列の解法が用いられてきた分野では階層的低ランク近似法
無衝突プラズマにおけるイオン粒子スケール速度勾配層の構造
フォースフリーブラックホール 磁気圏 ~BH時空におけるGS方程式の解析~
宇宙プラズマ相互作用の大規模シミュレーション
研究課題名 研究背景・目的 有機エレクトロニクス材料物質の基礎電子物性の理解 2. 理論 3. 計算方法、プログラムの現状
原子核物理学 第2講 原子核の電荷密度分布.
Relativistic Simulations and Numerical Cherenkov
第7回 授業計画の修正 中間テストの解説・復習 前回の補足(クロックアルゴリズム・PFF) 仮想記憶方式のまとめ 特別課題について
磁気回転不安定性によるブラックホール降着流の角運動量輸送機構の 解明
通信機構合わせた最適化をおこなう並列化ンパイラ
超並列宇宙プラズマ粒子シミュレーションの研究
先進的計算基盤システムシンポジウム SACSIS2007併設企画 マルチコアプログラミングコンテスト 「Cellスピードチャレンジ2007」
応用課題 8.太陽風磁気圏相互作用 ベクトル化とベクトル並列化(MPI)の3次元グローバルMHDコードを用いて、SUNワークステーションとベクトル並列型のスーパーコンピュータ Fujitsu VPP5000で太陽風と地球磁気圏相互作用のシミュレーションを行い、惑星間磁場(IMF)が北向きと南向きの場合の磁気圏構造を調べる。図形処理として、PostScript言語を用いた断面図や3次元磁力線の描画、VRMLを用いた3次元可視化を実行する。
GW space-timeコードの大規模な有機-金属界面への適用に向けた高効率化
目的:高速QR分解ルーチンのGPUクラスタ実装
背景 課題 目的 手法 作業 期待 成果 有限体積法による汎用CFDにおける 流体構造連成解析ソルバーの計算効率の検証
重要な効果 ブラックホールや中性子星(パルサー)磁気圏 銀河団スケールの加速(L×Bが大きい) 1020 eV以上
太陽フレアにおける Plasmoid-Induced-Reconnection の MHD シミュレーション
円柱座標系の基底関数系を用いたSCF法による 円盤銀河のシミュレーション
Multi-Purpose Particle and Heavy Ion Transport code System
シミュレーションサマースクール課題 降着円盤とジェット
Numerical solution of the time-dependent Schrödinger equation (TDSE)
大阪市立大学 宇宙物理(重力)研究室 D2 孝森 洋介
フレア・CMEのトリガー機構と エネルギー解放過程
MHD Simulation of Plasmoid-Induced-Reconnection in Solar Flares
高精細計算を実現するAMR法フレームワークの高度化 研究背景と研究目的 複数GPU間での袖領域の交換と効率化
プラズモニック構造付シリコン光検出器のHPC援用設計に関する研究
(Earth Simulator Center, JAMSTEC)
プラズマの渦構造 ーその宇宙論的起源を考えるー
強結合プラズマ 四方山話 − 水素とクォーク、高密核融合、 クーロンクラスター、そして粘性 −
パルサーの ポーラーキャップモデル 柴田 晋平 山形大学・理学部.
惑星と太陽風 の相互作用 惑星物理学研究室 4年 深田 佳成 The Interaction of The Solar
対象:せん断補強筋があるRCはり(約75万要素)
地球近傍における宇宙線陽子・反陽子空間分布シミュレーション
大型ヘリカル装置における実座標を用いた 粒子軌道追跡モンテカルロコードの開発
Preflare Features in Radios and in Hard X-Rays
格子ボルツマン法によるリアルタイム物質拡散シミュレーション手法の開発
γ線パルサーにおける電場の発生、粒子加速モデル
河村 聡人 京都大学附属花山天文台 2017/08/25 – CANS+部分電離化計画 河村 聡人 京都大学附属花山天文台 2017/08/25 –
2008年 電気学会 全国大会 平成20年3月19日 福岡工業大学 放電基礎(1)
背景 粒子法(SPH・MPSなど)は大規模流体シミュレーションなどで幅広く利用.一方で,手法の数学的正当化(数値解析)が不十分
磁気リコネクションによる Alfven波の発生
核融合プラズマ研究のための超並列粒子シミュレーションコード開発と その可視化
大規模粒子法による大型クルーズ船の浸水解析
Presentation transcript:

解適合格子法によるプラズマ粒子(AMR-PIC)シミュレーション 藤本 桂三 国立天文台 理論研究部

内容 理解したい物理は何か? 開発の動機、戦略 AMR-PICコードの開発 最近の研究成果 まとめ SS2012

開発の動機、戦略 SS2012

Magnetic Reconnection Line:Field line, Contour: ne  Arrow:Ve Anti-parallel B-field Particle acceleration Change in field line topology Plasma acceleration and heating SS2012

Magnetic Reconnection in Space 地球磁気圏(オーロラ)サブストーム 太陽フレア [NASA] SS2012

Multi-Scale Nature of Reconnection 1km 10km 103km 105km 1011km ∬ Dissipation Hall effect Topology lDe re, le ri, li Lc L Coulomb mean free path MHD Full PIC bi ~ 1 (Particle-In-Cell) (Magnetohydrodynamics) SS2012

Num of particles per grid 陽的PICスキームの制約 Grid spacing Dx ≲ 3lDe Num of particles per grid Np ≳ 102 Memory requirement per grid Field (ns, Js, E, B) 14×4 Byte Particle (xs, vs) (12×4 Byte)×102 << 使用可能メモリ 粒子数決定 システムサイズ SS2012

国内外のスパコン事情 K Sequoia 10倍 Jaguar Oakleaf-FX TSUBAME FX1@名大 SS2012

AMR-PICコード lDe,lobe ~ 6×103 m lDe,ps ~ 3×102 m 不必要な格子を取り除く! 陽解法の制約 [Fujimoto, JCP, 2011] 陽解法の制約 Dx ≲ 3lDe (Adaptive Mesh Refinement – Particle-in-Cell) lDe,lobe ~ 6×103 m lDe,ps ~ 3×102 m 不必要な格子を取り除く! 電子スケールの構造 粒子分割 格子分割 SS2012

AMR-PIC Simulations SS2012

AMR-PICコードの開発 SS2012

陽的電磁粒子(EMPIC)コード [Birdsall and Langdon, IOP, 1991] Super-particle S: Shape function 超粒子(Buneman-Boris法) 電磁場(Yee-Bunemanスキーム) 電荷保存法 [Villasenor & Buneman, 1992] SS2012

Staggering Grid Scheme [Yee, 1966; Buneman, 1968] C’ DEx C DBx 電磁フラックスが厳格に保存 電磁波に対する数値散逸なし SS2012

von Neumannの安定解析 SS2012

AMRの適用:データ構造 Similar to a fully threaded tree (FTT) structure (Khokhlov, 1998). [Fujimoto & Machida, JCP, 2006] SS2012

AMRの適用:階層間同期 細分化格子の解がより高精度 SL SL+1 Level L Level L+1 Coarse-to-Fine Op Fine-to-Coarse Op Level L Level L+1 SS2012

AMRの適用:階層間同期 Fine-to-Coarse Operation Coarse-to-Fine Operation を保存させる Coarse-to-Fine Operation ファラデーの式を満たすように電磁フラックスを保存させる。 e.g., on cell surfaces SS2012

AMRの適用:電磁場のスムージング ESM=fSM(E) BSM=fSM(B) SS2012

超粒子の分割・統合 [Lapenta, JCP, 2002] x, y, z q1 = q2; m1 = m2 分割前後で保存させる 格子点上のモーメント(rc, J)、全電荷・質量(Src, Sm)、粒子の全エネルギー(Smv2/2)、粒子の分布関数(f(v)) q1 = q2; m1 = m2 x0 = (x1 + x2)/2 V0 = (V1 + V2)/2 q0 = q1 + q2; m0 = m1 + m2 2次元の場合 3次元の場合 x, y, z SS2012

分散並列化:問題点 8ノード並列の例 PICシミュレーションでは全計算時間の99%以上を粒子に関する計算に要する。 ノード当たり粒子数の不均衡性 SS2012

適合ブロック法 pOct iPr バッファ領域とプライベートオクトの生成 バッファブ領域 プライベートオクト グローバルオクト 各ノードで個別に設定 すべてのノードでシェア pOct rank: ノード番号 iNb: 隣接するオクトの親セル ipr: 親セル OctCh: 子オクト ・・・ 物理データ grank: ノード番号 gOctNb: 隣接するオクト iPr SS2012

適合ブロックを用いたシミュレーション 8ノード並列の例 ノード当たり粒子数の不均衡性 SS2012

超並列AMR-PICコードの性能 Fujitsu FX1 (名大情報基盤センター) 並列化率:99.8% ノード CPU (4コア) メモリ (32G) CPU (4コア) メモリ (32G) 並列化率:99.8% CPU (4コア) メモリ (32G) CPU (4コア) メモリ (32G) SS2012

最近の研究成果 (磁気X線における磁気拡散機構) SS2012

Simulation Setup Fujitsu FX1, 1024 cores 81 li mi/me = 100 Bx = -B0 tanh(z/l) Jy = -J0 sech2(z/l) mi/me = 100 Max resolution: 4096×512×4096 ~ 1010 Max number of particles Ion + Electron ~ 1011 Max memory used ~ 6TB 81li ~ 10Re 10li ~ 1Re SS2012

Time Evolution of the Current Sheet Surface: |J|, Line: Field line Color on the surface: Ey, Cut plane:Jy SS2012

Wave Activity SS2012

Anomalous Momentum Transport Anomalous effects SS2012

Plasmoid-Induced Turbulence Plasmoid formation Wave amplification Local turbulence enhancement Propagation along the field line Intensified turbulence at the x-line SS2012

Plasmoid-Induced Turbulence Dt = 1.6 wci-1 * LXO = 0.95 li* Information propagates at Vp ~ VA* (B* = 0.5B0) LXO SS2012

まとめ AMR-PICコードの必要性 空間非一様性が強く、かつ、運動論効果が重要な現象 国内汎用スパコンを用いて世界最大規模の計算を実現 細分化レベル間の同期(場と粒子のconsistency保持) 電磁場のスムージング(短波長モードの除去) データ構造(ツリー構造が便利) 粒子分割・統合(格子当たりの粒子数調節) SS2012

今後の課題 開放境界条件 逐次計算効率の向上 (粒子データのソーティング) 数千コア並列以上の場合における最適化 ソースコードの公開   (粒子データのソーティング) 数千コア並列以上の場合における最適化 ソースコードの公開 マニュアルの作成 ユーザの拡大 SS2012

適合ブロック法(その1) (ブロック: 並列計算において各ノードが分担する計算領域) (ブロック: 並列計算において各ノードが分担する計算領域) 全計算領域の基底オクト(グローバルオクト)を最適な順番に並べ替える。 出発点から数えて(xoct, yoct, zoct)番目にあるオクトの順番 初期に1度だけ実施 この順番に沿って粒子数を数え、各ノード(ブロック)の粒子数が均等になるように基底オクトを分割する。 ブロックの表面積を小さくし、通信量を減らす。 SS2012