Download presentation
Presentation is loading. Please wait.
Published byしゅんすけ くまじ Modified 約 7 年前
1
表紙 並列プログラミングを用いた RFグロー放電のPIC/MCシミュレーション 〇丸 篤 佐藤 孝紀 伊藤 秀範 田頭 博昭(室蘭工業大学)
第51回 応用物理学会関係連合講演会 平成16年3月28日(日) 東京工科大学 表紙 並列プログラミングを用いた RFグロー放電のPIC/MCシミュレーション PIC/MC simulation of RF glow discharge with parallel programming technique. 〇丸 篤 佐藤 孝紀 伊藤 秀範 田頭 博昭(室蘭工業大学) Atushi Maru, Kohki Satoh, Hidenori Itoh, Hiroaki Tagashira (Muroran I.T.) 目次 はじめに 並列計算の分類 計算方法及び条件 結果 まとめ
2
はじめに 流体モデル 現在の主流として用いられている 粒子モデル(Monte Calro Simulation)
現在の主流として用いられている ・ 粒子流連続の式を用いる (電子に関しては ) ・ 連続の式中のスオームパラメータに関して バルク部(平衡領域) → 電界の関数として与える シース部(非平衡領域) → 局所電界近似などによって与える ・ 計算速度が速い 粒子モデル(Monte Calro Simulation) ・ Newton力学や電磁気学を用いて荷電粒子を個々に追跡 ・ バルク部(平衡領域) シース部(非平衡領域) ・ 統計変動を抑えるためには,長時間の計算が必要 → 実用化に対する大きな問題 どちらの領域も正確にシミュレートできる 本研究では,並列計算を行うことにより粒子モデルシミュレーションを 高速化することを試みる
3
並列計算の分類 共有メモリ型 分散メモリ型 ・通信に時間がかからない ・CPUの接続数には限界がある メモリ ・通信の競合はユーザが管理する
・大規模並列化が容易である ・データ分割の考慮が必要 ・通信時間による計算時間の増加 ・コンパイラによる自動並列化が困難 CPU メモリ 通信ネットワーク 標準ライブラリMPI(Massage Passing Interface)を用いて 並列計算を行う
4
計算方法および条件 PIC/MC(Particle-In-Cell/Monte Calro collision) を用いてN2ガス中のRFグロー放電の荷電粒子の挙動を1次元モデルで計算する。 印加電圧 : V=300sin2pft [V] , 周波数 f : [MHz] , 電極 : 平行平板 電極間隔 : 3.0 [cm] , 気圧 : 0.5 [Torr] , 温度 : 20 [℃] 初期荷電粒子数密度 : 1.0×107cm-3(電極間に一様分布) Scaling : 初期設定値の5倍に達した時点で行う 並列計算機台数 20台 (IBM xSeries305 ,CPU:Intel pentium4 プロセッサ, メモリ:256MB, クロック周波数:2.8GHz) 電子の衝突断面積[1] 正イオンの衝突断面積[2] [1] Y.Ohmori ら, 1987, J.Phys. D:Appl.Phys., Vol 21, pp.724-9 [2] A.V.Phelps, 1991, J.Phys. Chem. Ref. Data, Vol 20, No 3, pp
5
PIC/MCのフローチャート Begin Begin MPIで並列化 ・・・ Scaling Scaling End End 電界計算
MPIを用いて並列化したPIC/MC Begin Begin 初期条件設定 初期条件設定 MPIで並列化 Δt間の荷電粒子の挙動計算 PC1 PC2 PC20 Δt間の荷電粒子の挙動計算 Δt間の荷電粒子の挙動計算 Δt間の荷電粒子の挙動計算 PIC法による空間 電荷分布計算 ・・・ PIC法による空間電荷分布計算 PIC法による空間電荷分布計算 PIC法による空間電荷分布計算 電界計算 電界計算 Scaling Scaling No シミュレーション 終了 No シミュレーション 終了 Yes Yes End End
6
追跡超粒子数条件 従来のPIC/MCによる計算でも,超粒子30,000個程度を追跡すれば放電プラズマのおおまかな性質はシミュレートすることができる。 そこで,Case 1およびCase 2の条件におけるMPIによって並列化されたPIC/MCの計算結果と従来の計算結果の比較を行う。 Case 1 各PCの初期超粒子数を1,500個とする。(20PCで30,000個) ・総粒子数は従来と同じ ・計算結果の統計変動は従来と同じ ・計算速度の向上を図る(予想 20倍) Case 2 各PCの初期超粒子数を30,000個とする。(20PCで600,000個) ・1PCあたりの粒子数は従来と同じ ・計算時間は従来と同じ ・統計変動の抑制を図る
7
計算時間と速度向上率(Case1の場合) 総粒子数 各PCの 追跡超粒子数 計算時間 速度向上率 S[倍] 並列化率 α[%]
1,000cycle追跡時の計算時間 総粒子数 各PCの 追跡超粒子数 計算時間 速度向上率 S[倍] 並列化率 α[%] 従来のPIC/MC 30,000 30:06:10 MPIを適用したPIC/MC 1,500 2:48:12 10.8 95.5 Amdahl’s Law[1] 計算時間の概略図 計算時間 従来 並列化 並列化可能部分 並列計算時間 並列化不可能部分 通信時間 [1]天野 秀晴,「並列コンピュータ」,情報系教科書シリーズ,尚晃堂,1996
8
計算時間と計算機台数 PC台数の変化 計算時間の変化 [hour] 1,000 cycle 100 cycle 5PC → 10PC
9.7 → 5.9 (-3.8) 5.9 → 3.2 (-2.7) 10PC → 15PC 5.9 → 4.6 (-1.3) 3.2 → 2.2 (-1.0) 15PC → 20PC 4.6 → 2.8 (-1.8) 2.2 → 1.8 (-0.4)
9
計算時間と速度向上率(Case2の場合) 消滅 生成 総粒子数 各PCの 追跡超粒子数 計算時間 速度向上率 S[倍] 並列化率 α[%]
1,000cycle追跡時の計算時間 総粒子数 各PCの 追跡超粒子数 計算時間 速度向上率 S[倍] 並列化率 α[%] 従来のPIC/MC 30,000 30:06:10 (600,000) (602:03:20) MPIを適用したPIC/MC 600,000 35:47:36 16.8 99.0 消滅 生成 1000~4000cycleでの生成・消滅割合の平均値 平均値[%] 標準偏差[%] 電子 100.01 1.25 正イオン 100.00 2.21 図表中の値は を示す
10
C3Pu励起レートの時空間変化 30:06:10 35:47:36 ピーク位置に定性的な一致が見られる 従来の計算結果
MPIを用いて並列計算した結果 30:06:10 35:47:36 追跡粒子数×20 ピーク位置に定性的な一致が見られる ItohらによるC3Pu発光プロファイルの実験結果[1] [1] Itohら,「窒素RFプラズマの発光分光診断」,電気学会論文誌,Vol 121-A,No.5, pp465-70, 2001
11
まとめ 本研究ではPIC/MCにMPIを適用し, N2RFグロー放電の1次元モデルシミュレーションの高速化を試みた。 計算時間に関して
・ 計算時間の減少量は,計算機の増加に伴い少なくなる ・ 計算負荷が大きいほど速度向上率は大きくなる 統計変動の抑制に関して ・ 計算時間は従来と同程度 ・ 変動に隠された情報を得ることが出来た 並列計算は10台程度の計算機を用いればよい 計算負荷の大きなモデルほど並列化のメリットは賢著に現れる
14
C3Pu励起レートの時空間変化(従来の計算結果)
G P 計算時間 30:06:10
15
粒子の生成・消滅割合の時間変化 消滅 生成 N台で並列化 平均値[%] 標準偏差[%] 電子 100.01 1.25 正イオン 100.00
1000~4000cycleでの生成・消滅割合の平均値 平均値[%] 標準偏差[%] 電子 100.01 1.25 正イオン 100.00 2.21 4,000cycle追跡に要した計算時間 150時間 1,000cycle以降でほぼ定常状態であると考えられる 表中の値は を示す
16
速度向上率と並列化率 95.5% 99.0% 並列化率が100%に近い場合では数%の並列化率の違いが速度向上率の大きな差となる
17
計算時間と計算機台数 並列計算には最低10台の計算機が必要
18
正イオン生成レートの時空間変化 P G P G 並列化によって,同様の計算時間で詳細な解析を行う事ができる。
従来の計算結果 MPIを用いて並列計算した結果 P G P G 追跡粒子数×20 計算時間 30:06:10 計算時間 35:47:36 従来の結果 : おおまかな傾向は読み取れるが,詳細は不明 並列計算の結果 : 瞬時陽極側の小さなピークを読み取る事ができる 並列化によって,同様の計算時間で詳細な解析を行う事ができる。
19
正イオン生成レートの時空間変化(従来の計算結果)
G P 計算時間 30:06:10
20
空間電荷および電界の時空間変化 従来 : 変動がある 並列化 : 変動が小さい 超粒子数 30,000 600,000 電界には影響しない
従来の計算結果 MPIを用いて並列計算した結果 従来 : 変動がある 並列化 : 変動が小さい G G 超粒子数 P 30, ,000 P 電界には影響しない G G P P 高密度のプラズマでは空間電荷分布の変動が無視できなくなる 高密度プラズマに対するPIC/MCの適用上限を上昇できる
Similar presentations
© 2024 slidesplayer.net Inc.
All rights reserved.