東京工業大学 学術国際情報センター AOKI Lab. Tokyo Institute of Technology GPU GPUによる超⾼速・⾼精度な混相流・流動層シミュレーション 粒⼦-流体間の直接相互作⽤ 従来の固気・固液シミュレーション 新しい大規模の固気・固液シミュレーション GPUコンピューティングの利⽤ 最新のGPUは1チップに3,500個を超えるコアを搭載し、ピーク性能は 10テラ・フロップスを超える。GPUの抜群のコストパフォーマンス・電 力比効率を引き出すために並列計算の研究成果を導入し、CUDAに よりプログラミングを行う。 LBM(格⼦ボルツマン法) 高精度,非球形粒子 乱流 固体粒子は計算格子より小さい 固体粒子は計算格子より大きい ラグランジュ粒子 流体-固体間の直接相互作用を計算 球形粒子を仮定した相互作用モデル Streaming Step + 一般的な接触・反発モデルを法線方向と接線方向に2次精度で時間積分を行う。複 数GPUでの計算負荷・メモリ分散を行うための計算空間の動的領域分割が重要。 様々なサイズの 直⽅体の沈降 Collison Step D3Q27 流体をいくつかの離散速度を持った仮想粒子の分布関数と仮定し、位 相空間で並進と衝突による分布関数の時間発展を計算する。分布関 数の速度には、1タイムステップで粒子が隣接格子点に移動するよう な速度のみを選び、離散化している。速度空間は複雑境界条件に対 して最も精度よく表現できる3次元27速度 (D3Q27) モデルを用いる。 ⼤きさやアスペクト⽐を変えた 5種類の直⽅体が沈降する計算 を⾏った。格⼦ボルツマン法に よ る 流 体 計 算 に は 512×512×1,024格⼦点を⽤い、 10,300個の直⽅体の沈降を調べ た。⼤きい固体粒⼦が先⾏して 沈降し、⼩さい固体粒⼦は沈降 速度が遅いために上⽅に分離す る結果を得た。 MRT(Multiple Relaxation Time)モデル 1 eq 衝突項= M SM f ( x, t ) f ( x, t ) 固液 流動層の⼤規模直接シミュレーション 速度分布関数の方向に応じた時間積分を行うと、計算安定 性の大幅な向上。計算負荷が増大するが、演算律速になる ためGPUの計算効率が上昇し、計算時間は余り変わらない。 128GPU に よ る 96×2,560×5,120 格 子 と 562,500個の球形粒子を用いた流動層 解析を 実行した 。 床面 からの流入により粒子 が混合されている。粒 子周りの流れを捉えた 高精度計算を実現して いる。 舞い落ちるイチョウの葉 連絡先︓ 東京工業大学 学術国際情報センター 152-8550 目黒区大岡山 2-12-1 青木 尊之 [email protected] (03-5734-3667) http://www.sim.gsic.titech.ac.jp/
© Copyright 2024 ExpyDoc