2014/12/25 平成 27 年度 学際大規模情報基盤共同利用・共同研究拠点 公募型共同研究 課題募集要項 「学際大規模情報基盤共同利用・共同研究拠点」 (通称:JHPCN)は,北海道大学,東北大学,東京 大学,東京工業大学,名古屋大学,京都大学,大阪大学,九州大学にそれぞれ附置するスーパーコンピ ュータを持つ8つの施設を構成拠点とし,東京大学情報基盤センターがその中核拠点として機能する 「ネットワーク型」共同利用・共同研究拠点として,文部科学大臣の認定を受け,平成 22 年 4 月より 本格的に活動を開始しました。平成 25 年度からは,革新的ハイパフォーマンス・コンピューティング・ インフラ(HPCI)の計算機システム(HPCI システム)の一部として,当構成拠点が提供する計算機 システム(HPCI-JHPCN システム)を当拠点共同研究の研究資源として運用することになりました。 このため,HPCI-JHPCN システムを利用する研究課題については,HPCI 利用研究課題の公募窓口を 通して応募を受け付け,当拠点の趣旨に沿った課題が選定されます(当拠点の課題審査については「6. 研究課題審査」を参照)。 本ネットワーク型拠点の目的は,超大規模計算機と超大容量のストレージおよび超大容量ネットワー クなどの情報基盤を用いて,地球環境,エネルギー,物質材料,ゲノム情報,Web データ,学術情報, センサーネットワークからの時系列データ,映像データ,プログラム解析,その他情報処理一般の分野 における,これまでに解決や解明が極めて困難とされてきた,いわゆるグランドチャレンジ的な問題に ついて,学際的な共同利用・共同研究を実施することにより,我が国の学術・研究基盤の更なる高度化 と恒常的な発展に資することにあります。本ネットワーク型拠点には上記の分野における多数の先導的 研究者が在籍しており,これらの研究者との共同研究によって,研究テーマの一層の発展が期待できま す。本公募型共同研究(平成 27 年度)は,平成 27 年 4 月~平成 28 年 3 月までの期間に実施します。 1. 共同研究分野 本公募型共同研究では,大規模情報基盤を利用した学際的な研究を対象として,超大規模数値計算 系応用分野,超大規模データ処理系応用分野,超大容量ネットワーク技術分野,およびこれらの研究 分野を統合した超大規模情報システム関連研究分野について,全体でのべ 60 程度(*)の研究課題を募 集します。 (*) 研究課題ごとの利用構成拠点数の合計値。 (1) 超大規模数値計算系応用分野 地球環境,エネルギー,物質材料等の科学・工学分野における科学技術シミュレーション,およ び,それを支えるモデリング,数値解析アルゴリズム,可視化手法,情報基盤等 (2) 超大規模データ処理系応用分野 ゲノム情報,Web データ(Wikipedia,ニュース,ブログなどを含む),学術情報コンテンツ, センサーネットワークからの時系列データ,映像を始めとするストリームデータなどに対する高度 なメディア情報処理,プログラム解析,アクセスや検索,情報抽出,統計的・意味的分析,データ マイニング等 (3) 超大容量ネットワーク技術分野 超大規模データ共有のためのネットワーク品質の確保や制御,超大容量ネットワーク自体の構築 と運用に必要な監視や管理,そのようなネットワークの安全性の評価と維持確保,およびこれら 諸技術の研究開発の支援のための技術等 (4) 上記研究分野を統合した超大規模情報システム関連研究分野 エクサスケールコンピュータのアーキテクチャ,高性能計算基盤ソフトウェア,グリッド,仮想 化技術,クラウドコンピューティング等 提案にあたっては以下の点に特に留意ください。 1 2014/12/25 ① 幅広い専門領域の研究者の協力体制による学際的な共同研究のみ採択します。たとえば, 「超 大規模数値計算系応用分野」においては,計算科学分野と計算機科学分野の協調的相補的な研 究形態を想定しています。すなわち,計算機を利用してある分野の問題を解こうとしている研 究者と計算機科学の分野でアルゴリズム,モデリング,並列処理など情報処理に関する研究を 行っている研究者が共同して行う共同研究です。 ② ①の条件を満たす限りは,必ずしも HPCI-JHPCN システムや各構成拠点が提供するその他 の研究資源を使用する必要はありません。これらの研究資源を使用しない共同研究も受け入れ ます。 ③ ネットワーク型拠点の特徴を生かして複数拠点の計算機資源を活用する,又は異なる拠点に 所属する複数の研究者と連携して取り組む研究課題は特に高く評価します。例えば,広域分散 型の大規模情報システム,遠隔可視化,アプリケーションのマルチプラットフォーム実装など に関する複数構成拠点の研究者と計算資源を利活用した共同研究,シミュレーションと可視化 などの異なる分野について異なる構成拠点の研究者と協働するタイプの共同研究などが考え られます。 2. 共同研究の体制 1.で述べた学際的共同研究の体制を前提とします。このため,副代表者として研究課題代表者とは 異なる分野の研究者を申込書に明記して下さい。また,別紙に記載されている「HPCI-JHPCN シス テム」を使用する研究課題では,課題採択後の対面認証の責任を果たす目的で,さらに別の副代表者 を記載しても結構です。計算機の利用は必須ではありませんが,計算機の利用が必要な場合は,別紙 に挙げる HPCI-JHPCN システムを利用できます。共同研究者として学生が参加する場合には,大学 院生以上を認めます。HPCI-JHPCN システムや構成拠点が提供するその他の研究資源の利用資格等 に関しては,各構成拠点の利用資格を参照ください。 共同研究への応募,実施にあたって,各構成拠点に所属している計算機科学分野等の研究者や研究 グループの支援・協力を必要とする場合には,具体的な対象,必要分担項目を申込書の該当箇所に記 入してください。本ネットワーク型拠点において,可能な範囲で支援・協力体制をアレンジさせてい ただきます。 申請に当たっては,共同研究を希望する大学(構成拠点)を指定してください。複数の構成拠点を 指定することも可能です。指定が難しい場合は,構成拠点側で研究内容等を考慮した上で,受け入れ 構成拠点を指定することもできますので,必ず予め問い合わせ先(5 頁目に記載)までご相談下さい。 3. 応募資格 研究課題代表者については,文部科学省および日本学術振興会が公募する科学研究費補助金に応募 できる研究者とします。 4. 共同研究期間 平成 27 年 4 月 1 日~平成 28 年 3 月 31 日 ただし,計算機利用アカウント発行手続きの都合により,計算機利用開始が遅れる場合があります。 その旨,あらかじめご承知おき下さい。 5. 施設利用負担金 共同研究に関わる計算機などの施設利用負担金は,別紙に記載されている研究資源の範囲内で,課 題採択時に許可された資源については徴収いたしません。 2 2014/12/25 6. 研究課題審査 応募された共同研究課題につきましては,各構成拠点に所属する教職員と外部委員から構成される 共同研究課題審査委員会(当拠点が設置する委員会),および,産学官の有識者から構成される HPCI 利用研究課題審査委員会において,科学技術上の妥当性,施設・設備を利用する必要性,利用・開発 の実施可能性等について総合的かつ専門的に審査いたします。また,共同研究希望先の構成拠点での 利用資源の妥当性,協力・連携体制についても審査の対象となります. また,前年度からの継続課題及び実質的に継続性があると判断された課題の場合は,前年度の中間 報告書の評価及び,計算資源の利用状況も審査時に考慮される場合があります. 7. 採否結果の通知 平成 27 年 3 月中旬までに結果を通知する予定です。 8. 応募方法 ※1. 別紙に記載されている「HPCI-JHPCN システムを使用する研究課題」と「HPCI-JHPCN システムを使用しない研究課題」とで下記の「(1) 応募手順」が異なりますのでご注意下さい。 ※2. 特に,「HPCI-JHPCN システムを使用する研究課題」では,課題応募前までに,課題代表者 と副代表者,及び計算機利用する共同研究者全員が HPCI-ID を取得済みでなければなりません。 (1) 応募手順 拠点 Web ページ(http://jhpcn-kyoten.itc.u-tokyo.ac.jp/)から入手した申込書を作成し,電子 申込を行い,研究課題申込書を印刷・押印したものを東京大学情報基盤センターまで郵送してい ただきます。なお,申込の詳細については,拠点 Web ページで確認してください。 応募の概略は以下のとおりです。 Ⅰ:「HPCI-JHPCN システムを使用する研究課題」の場合 ※ 下記の概要説明の他に,「HPCI-JHPCN クイックスタートガイド」も確認して下さい。 ① 上記の拠点 Web ページから,申込書の様式(Word ファイル)をダウンロードし,研究 課題申込書を作成してください。課題申込書作成と並行して,課題代表者と副代表者,及 び HPCI-JHPCN システムを利用される共同研究者全員が HPCI-ID を取得して下さい。 取得方法は上記の HPCI-JHPCN クイックスタートガイドに記載されています(HPCI ク イックスタートガイドに記載されている手順と同じです)。ここで取得した HPCI-ID は, 他の HPCI 利用研究課題の申請の際にも有効です。また,既に取得済みの方は,その HPCI-ID を 使 用 し て 下 さ い 。 ② の Web 入 力 で は , 課 題 代 表 者 と 副 代 表 者 , 及 び HPCI-JHPCN システム利用の共同研究者全員の HPCI-ID を登録する必要があります。こ こで未登録の共同研究者に対しては,計算機利用のアカウント(HPCI アカウント,ロー カルアカウント)は発行されず,計算機利用ができません。 ② 上記の拠点 Web ページの課題応募ページにあるリンク「HPCI-JHPCN システムを使用 する研究課題」からアクセスし(HPCI 申請支援システムへ移動します),必要事項を入力 の上,①で作成した研究課題申込書(押印なし)の PDF をアップロードしてください。 ※「HPCI-JHPCN システムを使用する研究課題」では,当拠点が用意する課題申込みの Web システムは使用しません。 3 2014/12/25 ③ ①で作成した研究課題申込書を印刷・押印し,本募集要項の末尾の郵送先に郵送してく ださい。 ◆ 課題採択された後は,HPCI の定める課題採択後の手続きの要領に従って下さい ( https://www.hpci-office.jp/user/taimen.html )。特に,対面認証は,当該課題の全ての 責任を負うことができる方(課題代表者もしくは副代表者)が,計算機利用する全共同研究 者の写真付身分証のコピーを持参して認証する必要があります(秘書等の連絡責任者では 対面認証は受けられません)。 Ⅱ:「HPCI-JHPCN システムを使用しない研究課題」の場合 ① 上記の拠点 Web ページから,申込書の様式(Word ファイル)をダウンロードし,研究課 題申込書を作成してください。 ② 上記の拠点 Web ページの課題応募ページにあるリンク「HPCI-JHPCN システムを使用し ない研究課題」からアクセスし,必要事項を入力の上,①で作成した研究課題申込書(押 印なし)の PDF をアップロードしてください。受領通知のメールが研究課題申込ページで 登録した電子メールアドレスに送信されます。 ※ 「HPCI-JHPCN システムを使用しない研究課題」では,HPCI 申請支援システムは 使用しません。HPCI-ID の取得も不要です。 ③ ①で作成した研究課題申込書を印刷・押印し,本募集要項の末尾の郵送先に郵送してく ださい。 (2) 応募締切 Web 登録(PDF 申込書提出): 平成 27 年 1 月 9 日(金)17:00【厳守・必須手続き】 印刷物の課題申込書提出: 平成 27 年 1 月 16 日(金)17:00【必須手続き】 研究課題申込書については,上記締切必着を原則とします。ただし,上記(1)Ⅰ③や(1)Ⅱ③で作 成した印刷物の提出が遅れる場合には当拠点事務局宛(5 頁目に記載)に事前連絡ください。 (3) 研究課題申込書作成時に留意すべき事項 ① 日本国内で研究資源等を利用すること。 ② 採択研究課題の目的にのみ研究資源等を利用すること。 ③ 平和利用目的の提案であること。 ④ 人権および利益保護への配慮を行うこと。 ⑤ 文部科学省「生命倫理・安全に対する取組」に適合すること。 ⑥ 経済産業省「安全保障貿易管理について」に適合すること。 9. その他の留意事項 (1) 誓約書の提出 研究課題採択が決まった研究グループには,採択結果通知後に,上記 8.応募方法の(3)研究課 題申込書作成時に留意すべき事項の内容を遵守することを誓約していただく誓約書を提出してい ただきます。具体的な提出方法は採択後に案内いたしますが,見本を Web ページに掲載していま すので,予め内容をご確認ください。 (2) 利用規程 施設の利用に関しては,利用する構成拠点が定めた研究資源に関する利用規程を遵守していただ きます。 4 2014/12/25 (3) 各種報告書等 研究紹介ポスター,中間報告書,最終報告書の提出を予定しています。各種報告書は,指定され た期日までに提出とし,研究紹介ポスター並びに最終報告書は原則公開といたします(当拠点の Web ページ参照)。また,当拠点のシンポジウムにて,研究成果報告(口頭発表・ポスター発表や 原稿執筆)をお願いする予定です。 今回採択された課題については,当拠点のシンポジウム(前年度実施課題の研究成果報告を実施) にて,研究内容紹介のポスター発表をお願いします。開催時期は,課題実施年度の夏頃を予定して おります。 (4) 免責事項 本公募型共同研究に関連して利用者に生じた,いかなる不利益な事項に対しても,各構成拠点は 一切の責任を負いません。 (5) 知的財産等の取り扱い 原則として,本公募型共同研究で発生した知的財産は各研究グループに帰属します。ただし,共 同研究の実施者における発明者の認定については,各大学の知的財産ポリシー等に基づき対応がな されることを想定しています。詳細やその他の例外的な事項の取り扱いにつきましては,各構成拠 点までご相談ください。 (6) その他 ① 本公募により提供された個人情報は研究課題審査とシステム利用の目的にのみ利用させてい ただきます。 ② 研究課題採択後に,研究課題申込書に記載された研究課題名と研究課題代表者名・所属を公表 させていただきます。 ③ 研究課題採択後は,利用構成拠点の変更,および利用する計算機の変更はできません。 ④ 応募に関する相談などは,以下の電子メールアドレスにお問い合わせください(電話でのお問 い合わせについては,お答えできませんので,あらかじめご了承ください)。 ◆ 問い合わせ先(応募に関する相談など) 学際大規模情報基盤共同利用・共同研究拠点 事務局 電子メールアドレス : jhpcn@ itc.u-tokyo.ac.jp ただし,拠点ごとの利用資格や知的財産の取り扱いの詳細などに関しては, 直接,各拠点にお尋ねいただいても結構です。当拠点 Web ページ (http://jhpcn-kyoten.itc.u-tokyo.ac.jp/)内のメニュー 「構成拠点の案内と研究テーマ」から各拠点のホームページへアクセスできます。 ◆ 研究課題申込書の郵送先 〒113-8658 東京都文京区弥生 2-11-16 東京大学情報基盤センター 学際大規模情報基盤共同利用・共同研究拠点 事務局宛 (または,「情報基盤拠点事務局」や「JHPCN 拠点事務局」の略称でも可) 以上 5 2014/12/25 別紙 共同研究で利用可能な構成拠点の研究資源一覧 ※ (1)(2)は HPCI-JHPCN システムとして利用していただきます。 (1)共同研究で利用可能な計算機資源一覧 構成拠点名 北 海 道 大 学 情報基盤セ ンター 東 北 大 学 サイバーサ イエンスセ ンター 東 京 大 学 情報基盤セ ンター 東京工業大 学 学 術 国 際情報セン ター 名 古 屋 大 学 情報基盤セ ンター 計算機資源,利用形態 ① HITACHI SR16000/M1 (168 ノード,5,376 物理コア,総主記憶容量 21TB,164.72 TFLOPS) (一般ユーザーと共有,1 ジョブで最大 128 ノードまでの MPI 並列実行可能) 1) 演算時間 35,000,000 秒 ファイル 3.5TB 2) 演算時間 3,500,000 秒 ファイル 0.88TB (想定資源量:1)と 2)を合わせて 500,000,000 秒,53TB) ② クラウドシステム Blade Symphony BS2000 (2 ノード,80 コア) Lサーバ 4 台相当(Sサーバ,Mサーバの利用も可能),XLサーバ 1 台 ③ データサイエンスクラウドシステム HITACHI HA8000 1) 仮想サーバ (10 コア,ディスク 800GB, 下記 a,b,c のストレージ各 1TB 付) 7 台 2) 物理サーバ (20 コア,メモリ 80GB,ディスク 2TB) 2 台 クラウド統合ストレージシステム a. 仮想サーバ用追加ストレージ 最大 18TB b. ローカル用 gfarm ストレージ 最大 68TB c. Amazon S3 互換オブジェクトストレージ 最大 18TB d. WebDAV ストレージ 最大 22TB ・スーパーコンピュータシステム SX-ACE(2,560 ノード) 理論ピーク性能 707TFLOPS,主記憶容量 160TB,一般利用者と共用 ・計算サーバシステム(68 ノード) 理論ピーク性能 31.3TFLOPS,主記憶容量 8.5TB,利用単位は 24 ノード, 12 ノード,6 ノード,1 ノード,一般利用者と共用 ・ストレージ 4PB (1 課題あたり最大 20TB) ① Fujitsu PRIMEHPC FX10 採択各課題に 12 ノードまたは 24 ノード×1 年相当のトークンが与えられ ます。優先ノード数は課題採択数によって変動しますが, 最大で 24 ノード×課題採択数です。 ② Fujitsu PRIMERGY RX200 (26 ノード,312 コア) OS,仮想マシンモニタ等の研究開発を含む利用を想定しています。 OS,仮想マシンモニタを含むすべてのソフトウェアを利用者が準備し, 利用者の責任でインストール,管理,運用する必要があります。 クラウド型グリーンスパコン「TSUBAME 2.5」 (TSUBAME2.5 の 180 口(=Thin ノードにて 54 万ノード時間積に相当) を提供。最大で 420 ノード (CPU 64.3TF + GPU 1.56PF)を同時利用可能。 1 課題の標準的利用口数を 10~20 口=3~6 万ノード時間積と想定) (一般ユーザーと共有) ①Fujitsu PRIMEHPC FX10(平成 27 年度 4 月から 8 月) 90.8TF 程度(384 ノード) Fujitsu PRIMEHPC FX100(平成 27 年度 9 月から 3 月) 2.9PF 程度(2592 ノード程度) ②Fujitsu PRIMERGY CX400/250 後継機 465TF 程度(384 ノード) ③Fujitsu PRIMERGY CX400/270 518TF 程度(184 ノード+ 184 Xeon Phi) ④SGI UV2000 24.5TF 程度,20TB メモリ,1280 コア 6 課題採択 数の目安 ①+②: 10 ③ 1):7 2):2 (最大 9) 10 ①+②: 10 14 ①+②+ ③+④: 10 2014/12/25 全資源を一般利用者と共用で提供。 1 口=5 万ノード時間積(18 万円の追加負担金に相当)。 1 課題の最大利用口数を 5 口=25 万ノード時間積。10 課題を予定。 大規模ストレージを使用する場合は 10TB:5000 ノード時間積に換算。 ※ ②システムは、平成 27 年 4 月稼働予定。 Cray XE6 (Camphor) ①( 32 ノード,1,024 コア,10.24 TFLOPS) ②(128 ノード,4,096 コア,40.96 TFLOPS) (①:通年,全グループで共有,②:4 週間/グループ割り当て) ①②:5 京 都 大 学 Cray XC30 (Magnolia: Xeon×2/node) ③④:5 学術情報メ ③( 32 ノード,896 コア,32.97 TFLOPS) ディアセン ⑤:4 ④(128 ノード,3,584 コア,131.89 TFLOPS) ター (③:通年,全グループで共有,④:4 週間/グループ割り当て) Cray XC30 (Camellia: Xeon + Xeon Phi/node) ⑤(128 ノード,1280+7680 コア,154.99 TFLOPS) (⑤:通年,全グループで共有) ①スーパーコンピュータシステム SX-ACE 計算ノード:最大 32 ノード (8.192 TFlops)を 280,000 ノード時間 積まで共有利用として通年提供する。 ストレージ:1 課題あたり 20TB 大 阪 大 学 ②大規模可視化対応 PC クラスタ サイバーメ 計算ノード:56 ノード(CPU 18.64 TFLOPS 以上,GPU 28.06 TFLOPS 以 ①②: 5 ディアセン 上) ター を占有利用および共有利用として 24,000 ノード時間を通年提供とする。 なお、高精細表示システムと連動利用は、大規模可視化対応 PC クラス タの占有利用が必要です。 ストレージ:1 課題あたり 20TB HITACHI HA8000-tc/HT210 九 州 大 学 (965 ノード, 1,930 CPU 500.25TFlops + 210 Xeon Phi 212.28TFlops) 情 報 基 盤 研 (一般ユーザと共有) 8 究 開 発 セ ン (1 課題当たり最大同時利用可能ノード 128 ノード) ター (1 ジョブ当たり最大利用可能ノード 128 ノード,Xeon Phi 搭載ノードは 16 ノードまで利用可能) ●先端ソフトウェア運用基盤ホスティングサーバ「RENKEI-VPE」:HPCI 先端ソフトウェア運用基盤 当該 4 拠点とは個々に共同研究を実施できます(複数拠点とする必要はありません)が,同システム のアカウント発行・計算機システム管理等の運用自体は東京工業大学学術国際情報センターが行います。 構成拠点名 計算機資源,利用形態 北 海 道 大 学 物理ノード:1 ノード(40 コア,メモリ 128GB ,ディスク 2TB) 情 報 基 盤 セ ン 1 物理ノードあたり 40VM が動作可能(ただし,HPCI と共有利用) ター VM 標準仕様:1 コア, 3GB メモリ 物理ノード:1 ノード(12 コア,メモリ 48GB ,ディスク 20TB)(共有) 東京大学情報 1 物理ノードあたり 12VM が動作可能 基盤センター VM 標準仕様:1 コア, 4GB メモリ 東 京 工 業 大 学 物理ノードを 2 ノード(1 物理ノードあたり 6VM 以上が動作),VM 標準 学術国際情報 仕様:1CPU,3GB メモリ(利用単位:3 VM/年) センター 九州大学情報 物理ノードを4ノード(24VM 以上が動作),VM 標準仕様:1CPU,3GB メモ 基盤研究開発 リ, 100GB Disk(利用単位:1VM/年) センター 7 課題採択 数の目安 1 3 3 3 2014/12/25 (2)共同研究で利用可能なソフトウェア • 北海道大学 情報基盤センター HITACHI SR16000/M1 【言語コンパイラ】最適化 FORTRAN90(日立),XL Fortran(IBM),XL C/C++(IBM) 【 ラ イ ブ ラ リ 】 MPI-2( 動 的 プ ロ セ ス 生 成 機 能 を 除 く ) , MATRIX/MPP , MATRIX/MPP/SSS,MSL2,NAG SMP Library,ESSL,Parallel ESSL, BLAS,LAPACK, ScaLAPACK,ARPACK,FFTW2.1.5/3.2.2 【アプリケーションソフトウェア】Gaussian09 クラウドシステム Blade Symphony BS2000 アプリケーションサーバ 【言語コンパイラ】Intel Composer XE 2011 【アプリケーションソフトウェア】LS-DYNA,Gaussian09,Amber,COMSOL, AVS/Express,Open FOAM プロジェクトサーバ 【OS】CentOS 5.5 【言語コンパイラ】Intel Composer XE 2011(XL サーバのみ),gcc 【ライブラリ】Hadoop(XL サーバを除く),OpenMPI,OpenMP3.0 【アプリケーションソフトウェア】Gaussian09(XL サーバのみ) 先端ソフトウェア運用基盤ホスティングサーバ「RENKEI-VPE」 【OS】CentOS 6.3 【アプリケーションソフトウェア】gfarm, gfarm2fs, kvm 任意のコンパイラ・ライブラリ・アプリケーションを利用者が導入可能 • 東北大学 サイバーサイエンスセンター 【言語コンパイラ】FORTRAN90/SX,C++/SX, Intel Cluster Studio XE(Fortran, C, C++) 【ライブラリ】MPI/SX,ASL,ASLSTAT,MathKeisan,MKL,NumericFactory 【アプリケーションソフトウェア】Gaussian09 • 東京大学 情報基盤センター Fujitsu PRIMEHPC FX10 【言語コンパイラ】FORTRAN90,C,C++ 【ライブラリ】MPI,BLAS,LAPACK/ScaLAPACK,FFTW,PETSc,METIS/ParMETIS, SuperLU/SuperLU_DIST 【アプリケーションソフトウェア】OpenFOAM,ABINIT-MP,PHASE,FrontFlow/Blue, FrontFlow/Red,REVOCAP 先端ソフトウェア運用基盤ホスティングサーバ「RENKEI-VPE」 【OS】CentOS 6.x, CentOS 5.x (予定), Scientific Linux 5.x, 6.x (予定) 任意のコンパイラ・ライブラリ・アプリケーションを利用者が導入可能 • 東京工業大学 学術国際情報センター クラウド型グリーンスパコン「TSUBAME 2.5」 【言語コンパイラ】Intel C/C++ Fortran, PGI C/C++ Fortran アクセラレータ対応 8 2014/12/25 版,GNU C, GNU Fortran, CUDA for C, CUDA for Fortran, HMPP 【ライブラリ】OpenMP, MPI(OpenMPI, MPICH2, MVAPICH2),BLAS,LAPACK,CULA 【アプリケーション】Gaussian 09 先端ソフトウェア運用基盤ホスティングサーバ「RENKEI-VPE」 【OS】CentOS 5, 6, 7 (予定) 任意のコンパイラ・ライブラリ・アプリケーションを利用者が導入可能 • 名古屋大学 情報基盤センター Fujitsu PRIMEHPC FX10 後継機 【言語コンパイラ】Fortran,C,C++,XPFortran 【ライブラリ】MPI, BLAS, LAPACK, ScaLAPACK, SSLII, NUMPAC, FFTW, HDF5 【アプリケーションソフトウェア】Gaussian, LS-DYNA, HPC ポータル Fujitsu PRIMERGY CX400 後継機 【言語コンパイラ】富士通 Fortran C C++ XPFortran,Intel Fortran C C++ 【ライブラリ】MPI(富士通,Intel), BLAS, LAPACK, ScaLAPACK, SSLII(富士通), MKL(Intel), NUMPAC, FFTW, HDF5 【アプリケーションソフトウェア】ABAQUS, ADF, AMBER, GAMESS, Gaussian, Gromacs, HyperWorks, LAMMPS, LS-DYNA, NAMD, OpenFOAM, Poynting, STAR-CCM+, AVS/ExpressDev/PCE, EnSightGold, IDL, ENVI, ParaView, HPC ポータル SGI UV2000 【言語コンパイラ】Intel Fortran C C++ 【ライブラリ】MPT(SGI),MKL(Intel), FFTW, HDF5, NETCDF 【アプリケーションソフトウェア】 AVS/ExpressDev, EnSightDR, IDL, ENVI(SARscape), ParaView, POV-Ray, NICE DCV, JINDAIJI, 3DAVS Player • 京都大学 学術情報メディアセンター 【言語コンパイラ】Fortran90/C/C++(Cray,Intel, PGI) 【ライブラリ】MPI,BLAS, LAPACK, ScaLAPACK,IMSL,NAG(XE6) 【アプリケーションソフトウェア】Gaussian09(XE6) • 大阪大学 サイバーメディアセンター 【言語コンパイラ】FORTRAN90/SX,C++/SX,Intel(R) Fortran Compiler, Intel(R) C Compiler 【ライブラリ】ASL-SX,MPI/SX, MathKeisan 【アプリケーション】Nastran,Marc,AVS,IDL など • 九州大学 情報基盤研究開発センター HITACHI HA8000-tc/HT210 【言語コンパイラ】Intel Cluster Studio XE(Fortran, C, C++), 日立最適化 Fortran 【ライブラリ】BLAS, LAPACK, ScaLAPACK, MKL, FFTW, HDF5, NetCDF 9 2014/12/25 【アプリケーション】Gaussian09, AMBER, Ensight, WRF, GAMESS, GROMACS 等 先端ソフトウェア運用基盤ホスティングサーバ「RENKEI-VPE」 【OS】CentOS 6.2 (予定) 【アプリケーションソフトウェア】gfarm, gfarms2fs, kvm, 任意のコンパイラ・ライブラリ・アプリケーションを利用者が導入可能 (3)共同研究で利用可能な他の設備・資源 • 北海道大学 情報基盤センター Ø 利用者端末 Ø 3 次元可視化装置(AVS/ExpressViz, EnSight, FieldView) • 東北大学 サイバーサイエンスセンター Ø 大判カラープリンタ,フィルムスキャナ Ø 三次元可視化システム(12 面大型立体表示システム(1920×1080(フル HD)50 インチプ ロジェクションモジュール×12 面),可視化サーバ×4. 三次元可視化ソフトウェア (AVS/Express MPE),液晶シャッターメガネ) • 名古屋大学 情報基盤センター Ø 可視化システム 高精細 8K ディスプレイシステム(185 インチタイルディスプレイ 16 面), Full HD 円偏 光立体視システム(150 インチスクリーン,プロジェクタ, 円偏光メガネ等),遠隔可視 化システム,ヘッドマウントディスプレイシステム(Mixed Reality,VICON 等) ,ドーム 型ディスプレイシステム,オンサイト利用システム(データ転送用) • 大阪大学 サイバーメディアセンター Ø 高精細表示システム:24 面大型立体表示システム 大阪大学サイバーメディアセンター吹田本館 1920x1080(フル HD) 50 インチプロジェクションモジュール x 24 面 画像処理用 PC 7 台(AVS Express/MPE VR, IDL, ParaView ) (注) 大規模可視化対応 PC クラスタを利用した可視化を行う利用者を優先させていただ きます。 Ø 高精細表示システム: 15 面シリンドリカル立体表示システム 大阪大学サイバーメディアセンターうめきた拠点 1366x768(WXGA) 46 インチ LCD x 15 面 画像処理用 PC 5 台(AVS Express/MPE VR, IDL, ParaView) (注) 大規模可視化対応 PC クラスタを利用した可視化を行う利用者を優先させていただ きます。 10
© Copyright 2024 ExpyDoc