表紙 並列プログラミングを用いた RFグロー放電のPIC/MCシミュレーション 〇丸 篤 佐藤 孝紀 伊藤 秀範 田頭 博昭(室蘭工業大学)

Slides:



Advertisements
Similar presentations
HBSP モデル上での 行列積を求めるアルゴリ ム 情報論理工学 吉岡健太.
Advertisements

専修大学情報科学センターのパソコンを 使ったグリッドコンピューティング ― SPACE計画 - 森正夫 1 、水崎高浩 1 、内藤豊昭 2 、中村友保 2 及び 専修大学情報科学センター 及び 専修大学情報科学センター 1 専修大学 法学部/自然科学研究所 1 専修大学 法学部/自然科学研究所 2 専修大学.
MPIを用いたグラフの並列計算 情報論理工学研究室 藤本 涼一.
計算理工学基礎 「ハイパフォーマンスコンピューティングの基礎」
クラスタの構成技術と クラスタによる並列処理
最新ファイルの提供を保証する代理FTPサーバの開発
平成20年度 核融合科学研究所共同研究 研究会 「負イオン生成および負イオンビーム加速とその応用」 プロセスプラズマのPIC計算のモデリング
自己重力多体系の 1次元シミュレーション 物理学科4年 宇宙物理学研究室  丸山典宏.
研究集会 「超大規模行列の数理的諸問題とその高速解法」 2007 年 3 月 7 日 完全パイプライン化シフト QR 法による 実対称三重対角行列の 固有値並列計算 宮田 考史  山本 有作  張 紹良   名古屋大学 大学院工学研究科 計算理工学専攻.
PCクラスタにおける2個体分散遺伝的アルゴリズムの高速化
電子物性第1 第5回 ー 原子の軌道 ー 電子物性第1スライド5-1 目次 2 はじめに 3 場所の関数φ 4 波動方程式の意味
対角マトリックスを用いた3次元剛塑性有限要素法の並列計算 対角マトリックスを用いた剛塑性有限要素法
仮想マシンの並列処理性能に対するCPU割り当ての影響の評価
P,Q比が変更可能なScaLAPACKの コスト見積もり関数の開発
多数の遊休PC上での 分散ゲーム木探索 導入 ゲーム木探索 ⇒遊休PCを利用して高速化 例)コンピュータ将棋における次手の計算
USB2.0対応PICを用いたデータロガーの製作
流体のラグランジアンカオスとカオス混合 1.ラグランジアンカオス 定常流や時間周期流のような層流の下での流体の微小部分のカオス的運動
ネットワーク性能に合わせた 分散遺伝的アルゴリズムにおける 最適な移住についての検討
スペクトル・時系列データの前処理方法 ~平滑化 (スムージング) と微分~
MPIによる行列積計算 情報論理工学研究室 渡邉伊織 情報論理工学研究室 渡邉伊織です。
京都大学大学院医学研究科 画像応用治療学・放射線腫瘍学 石原 佳知
原子核物理学 第4講 原子核の液滴模型.
MPIによるwavからmp3圧縮の検証 情報論理工学研究室 04‐1‐47‐200 木村 惇一.
電気学会 北海道支部連合大会 放電物理 83 北見工業大学 12 October 2002
弱電離気体プラズマの解析(XLVIII)
MPIを用いた最適な分散処理 情報論理工学研究室 角 仁志
電磁流体力学乱流の高精度・高並列LESシミュレーションコード開発研究
PIC/MCによる窒素RFグロー放電シミュレーション
コンピュータの歴史 〜計算速度の進歩〜 1E15M009-3 伊藤佳樹 1E15M035-2 柴田将馬 1E15M061-1 花岡沙紀
Jh NAHI 横田 理央 (東京工業大学) Hierarchical low-rank approximation methods on distributed memory and GPUs 背景  H行列、H2行列、HSS行列などの階層的低ランク近似法はO(N2)の要素を持つ密行列をO(N)の要素を持つ行列に圧縮することができる。圧縮された行列を用いることで、行列積、LU分解、固有値計算をO(NlogN)で行うことができるため、従来密行列の解法が用いられてきた分野では階層的低ランク近似法
12/14 全体ミーティング 米澤研究室卒論生 山崎孝裕
弱電離気体プラズマの解析(LXXIV) 大気圧コロナ放電によるベンゼン、トルエン およびキシレン分解
巡回冗長検査CRC32の ハード/ソフト最適分割の検討
研究背景 電荷移行反応とは・・・ 核融合(重水素 + 三重水素→ヘリウム原子核+中性子) ・・・しかし、
研究課題名 研究背景・目的 有機エレクトロニクス材料物質の基礎電子物性の理解 2. 理論 3. 計算方法、プログラムの現状
原子核物理学 第2講 原子核の電荷密度分布.
22章以降 化学反応の速度 本章 ◎ 反応速度の定義とその測定方法の概観 ◎ 測定結果 ⇒ 反応速度は速度式という微分方程式で表現
通信機構合わせた最適化をおこなう並列化ンパイラ
東京工業大学 情報理工学研究科 数理・計算科学専攻 千葉研究室 栗田 亮
大阪府立大工 発表者:米田 典宏 松浦寛人、中田真吾、道本圭司、沼野正溥
開放端磁場における低温プラズマジェットに関する研究
直流コロナ放電照射による水中のROS生成
東北大学 大学院情報科学研究科 応用情報科学専攻 田中 和之(Kazuyuki Tanaka)
GW space-timeコードの大規模な有機-金属界面への適用に向けた高効率化
背景 課題 目的 手法 作業 期待 成果 有限体積法による汎用CFDにおける 流体構造連成解析ソルバーの計算効率の検証
液中通電法を用いたAu, Pt, Pdナノ粒子の作成
サーマルプローブを用いたイオン温度計測の新しいアプローチ
VMが利用可能なCPU数の変化に対応した 並列アプリケーション実行の最適化
永久磁石を用いた高出力マイクロ波 放電型イオン源の開発
プラズモニック構造付シリコン光検出器のHPC援用設計に関する研究
堆積炭塵爆発に対する大規模連成数値解析 研究背景 研究目的 計算対象および初期条件 燃焼波の様子(二次元解析) 今後の予定
GbEにおける TCP/IP の研究について
実験結果速報 目的 装置性能の向上 RF入射実験結果 可動リミター挿入 RFパワー依存性 トロイダル磁場依存性 密度依存性
理工学部情報学科 情報論理工学研究室 延山 周平
DSPを用いた高電界誘電特性解析システムの開発
【第六講義】非線形微分方程式.
大型ヘリカル装置における実座標を用いた 粒子軌道追跡モンテカルロコードの開発
MPIを用いた並列処理計算 情報論理工学研究室 金久 英之
弱電離気体プラズマの解析 (LVII) 低気圧グロー放電中のベンゼン分解と 分解生成物の濃度測定
BSPモデルを用いた 最小スパニング木 情報論理工学研究室 02-1-47-134 小林洋亮.
2008年 電気学会 全国大会 平成20年3月19日 福岡工業大学 放電基礎(1)
弱電離気体プラズマの解析(LXXVI) スプラインとHigher Order Samplingを用いた 電子エネルギー分布のサンプリング
MPIを用いた 並列処理 情報論理工学研究室 06‐1‐037‐0246 杉所 拓也.
高次のサンプリングとスプラインを用いた電子エネルギー分布のサンプリング
TRG-OESによる放電プラズマ診断 Plasma diagnostics by trace rare gas optical emission spectroscopy (TRG-OES)        石原 秀彦* ,勝又 綾子,佐藤 孝紀,伊藤秀範 (室蘭工業大学) はじめに 実験装置および実験条件.
Penta Quark Search in sNN=200 GeV Au+Au Collisions at RHIC-PHENIX
大規模粒子法による大型クルーズ船の浸水解析
平成15年度 電気学会 北海道支部連合大会 北海学園大学 18 October 2003
コロナ放電によるベンゼンの分解 ○吉澤 宣幸 林 押忍 佐藤 孝紀 伊藤 秀範 田頭 博昭(室蘭工業大学) 下妻 光夫(北海道大学)
Presentation transcript:

表紙 並列プログラミングを用いた RFグロー放電のPIC/MCシミュレーション 〇丸 篤 佐藤 孝紀 伊藤 秀範 田頭 博昭(室蘭工業大学) 第51回 応用物理学会関係連合講演会 平成16年3月28日(日) 東京工科大学 表紙 並列プログラミングを用いた        RFグロー放電のPIC/MCシミュレーション PIC/MC simulation of RF glow discharge with parallel programming technique. 〇丸  篤  佐藤 孝紀  伊藤 秀範  田頭 博昭(室蘭工業大学) Atushi Maru, Kohki Satoh, Hidenori Itoh, Hiroaki Tagashira (Muroran I.T.) 目次 はじめに 並列計算の分類 計算方法及び条件 結果 まとめ

はじめに 流体モデル 現在の主流として用いられている 粒子モデル(Monte Calro Simulation)      現在の主流として用いられている ・ 粒子流連続の式を用いる (電子に関しては                ) ・ 連続の式中のスオームパラメータに関して バルク部(平衡領域) → 電界の関数として与える シース部(非平衡領域) → 局所電界近似などによって与える ・ 計算速度が速い 粒子モデル(Monte Calro Simulation) ・ Newton力学や電磁気学を用いて荷電粒子を個々に追跡 ・ バルク部(平衡領域) シース部(非平衡領域) ・ 統計変動を抑えるためには,長時間の計算が必要  → 実用化に対する大きな問題 どちらの領域も正確にシミュレートできる 本研究では,並列計算を行うことにより粒子モデルシミュレーションを 高速化することを試みる

並列計算の分類 共有メモリ型 分散メモリ型 ・通信に時間がかからない ・CPUの接続数には限界がある メモリ ・通信の競合はユーザが管理する ・大規模並列化が容易である ・データ分割の考慮が必要 ・通信時間による計算時間の増加 ・コンパイラによる自動並列化が困難 CPU メモリ 通信ネットワーク 標準ライブラリMPI(Massage Passing Interface)を用いて 並列計算を行う

計算方法および条件 PIC/MC(Particle-In-Cell/Monte Calro collision) を用いてN2ガス中のRFグロー放電の荷電粒子の挙動を1次元モデルで計算する。 印加電圧 : V=300sin2pft [V] , 周波数 f : 13.56 [MHz] , 電極 : 平行平板 電極間隔 : 3.0 [cm]       , 気圧 : 0.5 [Torr] , 温度 : 20 [℃] 初期荷電粒子数密度 : 1.0×107cm-3(電極間に一様分布) Scaling : 初期設定値の5倍に達した時点で行う 並列計算機台数 20台  (IBM xSeries305 ,CPU:Intel pentium4 プロセッサ, メモリ:256MB, クロック周波数:2.8GHz) 電子の衝突断面積[1] 正イオンの衝突断面積[2] [1] Y.Ohmori ら, 1987, J.Phys. D:Appl.Phys., Vol 21, pp.724-9 [2] A.V.Phelps, 1991, J.Phys. Chem. Ref. Data, Vol 20, No 3, pp.557-573

PIC/MCのフローチャート Begin Begin MPIで並列化 ・・・ Scaling Scaling End End 電界計算 MPIを用いて並列化したPIC/MC Begin Begin 初期条件設定 初期条件設定 MPIで並列化 Δt間の荷電粒子の挙動計算 PC1 PC2 PC20 Δt間の荷電粒子の挙動計算 Δt間の荷電粒子の挙動計算 Δt間の荷電粒子の挙動計算 PIC法による空間 電荷分布計算 ・・・ PIC法による空間電荷分布計算 PIC法による空間電荷分布計算 PIC法による空間電荷分布計算 電界計算 電界計算 Scaling Scaling No シミュレーション 終了 No シミュレーション 終了 Yes Yes End End

追跡超粒子数条件  従来のPIC/MCによる計算でも,超粒子30,000個程度を追跡すれば放電プラズマのおおまかな性質はシミュレートすることができる。  そこで,Case 1およびCase 2の条件におけるMPIによって並列化されたPIC/MCの計算結果と従来の計算結果の比較を行う。 Case 1 各PCの初期超粒子数を1,500個とする。(20PCで30,000個) ・総粒子数は従来と同じ ・計算結果の統計変動は従来と同じ ・計算速度の向上を図る(予想 20倍) Case 2 各PCの初期超粒子数を30,000個とする。(20PCで600,000個) ・1PCあたりの粒子数は従来と同じ ・計算時間は従来と同じ ・統計変動の抑制を図る

計算時間と速度向上率(Case1の場合) 総粒子数 各PCの 追跡超粒子数 計算時間 速度向上率 S[倍] 並列化率 α[%] 1,000cycle追跡時の計算時間 総粒子数 各PCの 追跡超粒子数 計算時間 速度向上率 S[倍] 並列化率 α[%] 従来のPIC/MC 30,000 30:06:10 MPIを適用したPIC/MC 1,500 2:48:12 10.8 95.5 Amdahl’s Law[1] 計算時間の概略図 計算時間 従来 並列化 並列化可能部分 並列計算時間 並列化不可能部分 通信時間 [1]天野 秀晴,「並列コンピュータ」,情報系教科書シリーズ,尚晃堂,1996

計算時間と計算機台数 PC台数の変化 計算時間の変化 [hour] 1,000 cycle 100 cycle 5PC → 10PC 9.7 → 5.9 (-3.8) 5.9 → 3.2 (-2.7) 10PC → 15PC 5.9 → 4.6 (-1.3) 3.2 → 2.2 (-1.0) 15PC → 20PC 4.6 → 2.8 (-1.8) 2.2 → 1.8 (-0.4)

計算時間と速度向上率(Case2の場合) 消滅 生成 総粒子数 各PCの 追跡超粒子数 計算時間 速度向上率 S[倍] 並列化率 α[%] 1,000cycle追跡時の計算時間 総粒子数 各PCの 追跡超粒子数 計算時間 速度向上率 S[倍] 並列化率 α[%] 従来のPIC/MC 30,000 30:06:10 (600,000) (602:03:20) MPIを適用したPIC/MC 600,000 35:47:36 16.8 99.0 消滅 生成 1000~4000cycleでの生成・消滅割合の平均値 平均値[%] 標準偏差[%] 電子 100.01 1.25 正イオン 100.00 2.21 図表中の値は          を示す

C3Pu励起レートの時空間変化 30:06:10 35:47:36 ピーク位置に定性的な一致が見られる 従来の計算結果 MPIを用いて並列計算した結果 30:06:10 35:47:36 追跡粒子数×20 ピーク位置に定性的な一致が見られる ItohらによるC3Pu発光プロファイルの実験結果[1] [1] Itohら,「窒素RFプラズマの発光分光診断」,電気学会論文誌,Vol 121-A,No.5, pp465-70, 2001

まとめ 本研究ではPIC/MCにMPIを適用し, N2RFグロー放電の1次元モデルシミュレーションの高速化を試みた。 計算時間に関して   ・ 計算時間の減少量は,計算機の増加に伴い少なくなる   ・ 計算負荷が大きいほど速度向上率は大きくなる 統計変動の抑制に関して   ・ 計算時間は従来と同程度   ・ 変動に隠された情報を得ることが出来た 並列計算は10台程度の計算機を用いればよい 計算負荷の大きなモデルほど並列化のメリットは賢著に現れる

C3Pu励起レートの時空間変化(従来の計算結果) G P    計算時間 30:06:10

粒子の生成・消滅割合の時間変化 消滅 生成 N台で並列化 平均値[%] 標準偏差[%] 電子 100.01 1.25 正イオン 100.00 1000~4000cycleでの生成・消滅割合の平均値 平均値[%] 標準偏差[%] 電子 100.01 1.25 正イオン 100.00 2.21 4,000cycle追跡に要した計算時間 150時間 1,000cycle以降でほぼ定常状態であると考えられる 表中の値は          を示す

速度向上率と並列化率 95.5% 99.0% 並列化率が100%に近い場合では数%の並列化率の違いが速度向上率の大きな差となる

計算時間と計算機台数 並列計算には最低10台の計算機が必要

正イオン生成レートの時空間変化 P G P G 並列化によって,同様の計算時間で詳細な解析を行う事ができる。 従来の計算結果 MPIを用いて並列計算した結果 P G P G 追跡粒子数×20    計算時間 30:06:10 計算時間 35:47:36 従来の結果    : おおまかな傾向は読み取れるが,詳細は不明 並列計算の結果 : 瞬時陽極側の小さなピークを読み取る事ができる 並列化によって,同様の計算時間で詳細な解析を行う事ができる。

正イオン生成レートの時空間変化(従来の計算結果) G P    計算時間 30:06:10

空間電荷および電界の時空間変化 従来 : 変動がある 並列化 : 変動が小さい 超粒子数 30,000 600,000 電界には影響しない 従来の計算結果 MPIを用いて並列計算した結果 従来 : 変動がある 並列化 : 変動が小さい G G 超粒子数 P 30,000 600,000 P 電界には影響しない G G P P 高密度のプラズマでは空間電荷分布の変動が無視できなくなる   高密度プラズマに対するPIC/MCの適用上限を上昇できる