Download presentation
Presentation is loading. Please wait.
1
応用数理工学特論 線形計算と ハイパフォーマンスコンピューティング
応用数理工学特論 線形計算と ハイパフォーマンスコンピューティング 2008年4月17日 計算理工学専攻 張研究室 山本有作 日立製作所の山本有作です。 「~」について発表いたします。
2
計算科学・工学における大規模シミュレーション
流体計算 タンパク質の シミュレーション 構造解析 電子状態計算 数万~数億の自由度を持つ超多自由度の系 解析のために多大な計算機パワーが必要
3
最新の計算機を効率的に使うには アーキテクチャの理解と最適化手法の習得 線形計算の高速化
最新の計算機がどんな原理で高速化を実現しているかを理解し,その高速性を引き出すための手法を学ぶことが必要 線形計算の高速化 科学技術計算では,計算の大部分が線形計算に帰着されることが多い。 流体計算 → 連立一次方程式の解法,高速フーリエ変換 構造解析 → 連立一次方程式の解法,固有値計算 電子状態計算 → 固有値計算 その高速化は重要な課題 ファイナンス理論では,確率論をはじめとする数学が大きな役割を果たす。 更に,実際の問題に適用するには,数値計算が必須。 そのため,数学出身者が多い。 金融工学とも呼ばれる。
4
授業の目標 最新の計算機で大規模な計算を高速に行うための技法について学ぶ。 線形計算のための高速アルゴリズムについて学ぶ。
生協の書籍部の数学の棚に行くと,金融工学と呼ばれる本がたくさん並んでいる。 ブラック=ショールズという名前のついた本もたくさん見つかるはず。
5
授業の構成 高性能計算のための計算機アーキテクチャ 行列乗算の高性能化手法 連立一次方程式の高性能解法(密行列の場合)
連立一次方程式の高性能解法(疎行列の場合) 固有値計算の高性能化手法(非対称行列の場合) 固有値計算の高性能化手法(対称行列の場合) 高速フーリエ変換の高性能化手法 高性能計算に関する最新トピックス グループ発表 前のスライドで述べたようなことを念頭におきながら,次のような解法を勉強する。
6
テーマ間の関連 高性能計算のための計算機アーキテクチャ 行列乗算の高性能化手法 グループ発表 連立一次方程式 (密行列) 連立一次方程式
(疎行列) 固有値計算 高速フーリエ 変換 ・関連図を示す。 ・実は必ずしも矢印の根元から先の方へ,授業が進むわけではない。親しみやすいトピックから先に話をしたり,あるいは,偏微分方程式のように,物理的な重要性がわかりやすい問題から先に話をして,それに必要な計算法として,連立一次方程式の話をすることもある。 ・ただし,各回の授業を聞くに当たっては,この図を思い出して,その回で勉強したことがどんなふうに使われるのかを頭に置いて欲しい。 グループ発表
7
授業の進め方(1) レポート グループ発表 2回出題予定 最後の2回の授業を使って行う。 2~3人のグループで1つの発表を行う。
論文を読んでまとめるか,あるいは講義で勉強したことをもとに自分たちで数値実験を行った結果を発表。
8
授業の進め方(2) 授業ノート 各回の授業内容を担当者(2名)が記録して提出 TeX,テキスト形式,あるいは Word で
提出は授業後1週間以内に 山本のホームページに掲載予定 /lectures/hpc2008/hpc2008.html ノート担当はレポート提出1回分とみなす この授業では,新しい試みとして,学生さんによる授業ノート作りをお願いしたい。 ノート担当は,ぜひ積極的に。 こちらで必要な補足などを行ってから,HPに載せる。
9
授業の進め方(3) スーパーコンピューティング実習との連携
この講義を受ける人で,OpenMP,MPIを使ったことがない人は,できるだけ石井克哉教授担当の講義「計算科学フロンティア特別講義: 並列計算特論」(5/7開講)も受講してください。 これにより,OpenMP/MPIの使い方が学べるとともに,情報連携基盤センターのスーパーコンピュータのアカウントが発行され,並列計算のアルゴリズムなどを実地に試せるようになります。 その回の授業内容をどれだけ理解してもらったか,フィードバックが欲しい。
10
授業の進め方(4) 連絡先 3号館南479号室 山本まで あるいはメールで
3号館南479号室 山本まで あるいはメールで
11
参考書 J. Demmel: Applied Numerical Linear Algebra, SIAM, 1997.
G. H. Golub & C. F. van Loan: Matrix Computations, 3rd Edition, Johns Hopkins Univ. Press, 1996. K. A. Gallivan et al.: Parallel Algorithms for Matrix Computations, SIAM, 1994. K. R. Wadleigh and I. L. Crawford: Software Optimization for high Performance Computing, Prentice-Hall, 2000. B. Wilkinson and M. Allen: Parallel Programming: Techniques and Applications Using Network of Workstations and Parallel Computers, Prentice-Hall, 1999. 今野先生の本は,本講義で扱うテーマの概要を知るには大変お勧め。 講義はOption Pricing の本に沿う。ただし,確率論の基礎についてもう少し簡単なところから述べる。
12
ハイパフォーマンスコンピューティング(HPC)技術とは
大規模な計算を高速かつ高精度に行うための技術 HPC技術の内容 高速・高精度な計算アルゴリズム 単体プロセッサ向けの性能最適化技術 並列化技術 ネットワーク・GRID技術
13
PC向けプロセッサの クロック周波数の向上
周波数は10年間で約50倍も向上 たとえば AMD Opteronプロセッサ(1.6GHz)の場合,1秒間に最高で32億回の浮動小数点演算を実行可能 (3200MFLOPSのピーク性能)
14
それでは,一般的な科学技術計算のプログラムでは,ピーク性能の何%程度を発揮できているか?
例: 連立一次方程式を解くためのガウスの消去法 do k=1, n do i=k+1, n a(i,k)=a(i,k)/a(k,k) end do do j=k+1, n a(i,j)=a(i,j)–a(i,k)*a(k,j) n=1000のとき,Opteronでの性能はピークの何%? 10% 30% 50% 80%
15
Opteronでの性能測定結果 n=1000 での性能は225MFLOPS(ピークの7%) n が大きくなるにつれ,性能は低下
Performance (MFLOPS) n
16
ピークよりはるか下の性能しか得られない原因は?
最大の要因は,データ転送速度のネック 計算を行うには,主メモリに格納されているデータをプロセッサ内の演算器に転送する必要あり。 演算器は十分速いが,データを供給する速度が追い付かない。 それでは,データ転送速度のネックを解消するにはどうすればよいか? まず,プロセッサのアーキテクチャを知る必要がある。
17
典型的なマイクロプロセッサのメモリ階層 演算器に近い記憶装置ほど高速だが,容量は小さい。 演算器と主メモリの速度差は,年々大きくなっている。
データ転送速度 非常に大 レジスタ 演算器 8~128 ワード データ転送速度大 キャッシュ 数100Kバイト ~ 数Mバイト データ転送速度小 ラインサイズ 主メモリ 数100Mバイト ~ 数Gバイト 演算器に近い記憶装置ほど高速だが,容量は小さい。 演算器と主メモリの速度差は,年々大きくなっている。
18
性能最適化の原理 データがレジスタ中にあれば,演算器は最高速度で計算が可能
いったんデータをレジスタに持ってきたら,そのデータに対して必要な計算を集中して行うよう,計算の順序を変更する。 (データ参照の局所性を高める。) キャッシュと主メモリについても,同じ方針で最適化を行う。
19
性能最適化の具体例 もっとも単純なアルゴリズムである行列乗算 C=AB に対して最適化を行う。 最適化前のプログラム
do i=1, n do j=1, n sum=0.0d0 do k=1, n sum=sum+a(i,k)*b(k,j) end do c(i,j)=sum 性能 = 77.7MFLOPS (Opteron 1.6GHz,n=500) ピーク性能の2.4%
20
レジスタの再利用性を高める最適化(レジスタブロッキング)
iのループを2倍展開 → 162.8MFLOPS i, jの各ループを2倍展開 → 240.8MFLOPS iを4倍,jを2倍展開 → 324.7MFLOPS i, jの各ループを4倍展開 → 495.5MFLOPS
21
キャッシュの再利用性を高める最適化(キャッシュブロッキング)
行列を部分行列(1個がL×L)に分割 部分行列単位で乗算を行う。 Lは部分行列3個がキャッシュに格納できるサイズに取る。 演算量は同じだが,主メモリへのアクセス回数が約1/Lに減少する。 do I=1, n/L do J=1, n/L CIJ=0 do K=1, n/L CIJ=CIJ + AIKBKJ end do
22
キャッシュブロッキングの効果 Block size
23
これまでに説明した最適化手法の限界 レジスタブロッキングとキャッシュブロッキングの併用により,行列乗算の性能は800MFLOSまで向上できた。 しかし,ピーク性能に対しては,まだ25%に過ぎない。 その理由 実際のプロセッサでは,キャッシュが2階層になっている。 データ転送速度だけでなく,アクセス遅延時間も考慮した最適化が必要,など。 性能を最大限に引き出すには,これらの点も考慮した最適化が必要
24
BLAS (Basic Linear Algebra Subprograms)
行列乗算 行列とベクトルの積 ベクトルの和,内積,など。 ATLAS(Automatically Tuned Linear Algebra Subprograms) 自分で自分を最適化するBLAS インストール時に,ループ展開のサイズやキャッシュブロッキングのサイズなどの最適値を自分で探し,設定。
25
ATLASの性能 n=1000のとき,ピーク性能の95%以上を達成している。
26
その他の行列乗算の高速化手法 Strassenのアルゴリズム A,B,Cをそれぞれ2×2に分割して乗算を行う。 乗算の回数を7/8に削減可能
Strassenのアルゴリズムで現れる小行列の乗算に対し,再帰的にStrassenのアルゴリズムを使うことにより,計算量を更に削減可能 ただし,標準的なアルゴリズムに比べて加減算の回数が増えるため,丸め誤差は増大 再帰的に使うと,さらに誤差が増大 誤差に敏感でない問題に限って使うべき。
27
Strassenのアルゴリズム P1 = (A11+A22) (B11+B22) P2 = (A21+A22) B11
P3 = A11 (B12 – B22) P4 = A22 (B21 – B11) P5 = (A11+A12) B22 P6 = (A21 – A11) (B11+B12) P7 = (A12 – A22) (B21+B22) C11 = P1 + P4 – P5 + P7 C12 = P3 + P5 C21 = P2 + P4 C22 = P1 + P3 – P2 + P6
28
まとめ 1. マイクロプロセッサのメモリ階層 2. 単体プロセッサ向けの高性能化手法 3. アルゴリズムの工夫による演算量の削減
1. マイクロプロセッサのメモリ階層 レジスタ,キャッシュ,主メモリ 2. 単体プロセッサ向けの高性能化手法 データ参照の局所性の向上 レジスタ有効利用のためのループ展開 キャッシュ有効利用のためのブロック化 行列乗算の例 3. アルゴリズムの工夫による演算量の削減 行列乗算のための Strassen アルゴリズム 本発表では,はじめに,研究の背景を述べてから,スパースソルバの概要,並列化手法,そして本研究で工夫した点の一つであるRISCプロセッサ向けの最適化についてご説明します。最後に,並列計算機SR2201上での性能評価とまとめを述べます。
Similar presentations
© 2024 slidesplayer.net Inc.
All rights reserved.