InTriggerの概要・利用ルール 東京大学 近山・田浦研究室 高橋 慧 kay_at_logos.ic.i.u-tokyo.ac.jp.

Slides:



Advertisements
Similar presentations
Internet Explorer 障害解析 最初の一歩 - IE のトラブルを理解する -. 概要 Internet Explorer を使用中に発生するトラブルの 種類と、調査のための切り分け方法を紹介します! (以降は IE と略称で表記します) よくあるお問い合わせ Web ページの表示が白画面のまま完了しない.
Advertisements

PROCESS 14:一般情報(2) InstallShieldLecture
第2回 プロセス管理 ジョブ、プロセスとは? プロセスの状態遷移 プロセス制御ブロック スケジューリング.
計算機工学III オペレーティングシステム #14 ファイル: より進んだファイルシステム 2006/07/21 津邑 公暁
コンピュータプラクティス I 再現性 水野嘉明
最新ファイルの提供を保証する代理FTPサーバの開発
PowerPoint による スライドの作成
サイボウズ ガルーン バージョン 4.2 機能紹介ガイド 管理権限とアクセス権 第2版
管理権限とアクセス権 サイボウズ株式会社 Copyright © Cybozu.
クラウドにおける ネストした仮想化を用いた 安全な帯域外リモート管理
Android と iPhone (仮題) 情報社会とコンピュータ 第13回
Novell ZENworks Desktop Management Starter Campaign
UNIX Life KMSF M2 saburo.
サイボウズ ガルーン バージョン4.0 機能紹介ガイド 管理権限とアクセス権 第1版
解析サーバの現状と未来 2006/07/18 衛星データ処理勉強会 村上 弘志 現状のシステム構成など 統合解析環境としての整備
報告 (2006/9/6) 高橋 慧.
キャンパスクラウドによる 実験環境の構築 情報ネットワーク特論 講義資料.
Webサイト運営 09fi118 橋倉伶奈 09fi131 本間昂 09fi137 三上早紀.
ファイルシステムキャッシュを 考慮した仮想マシン監視機構
Debian GNU/Linux ー Linuxインストールに必要な基礎知識 ー 三上 彩 鈴木 倫太郎
(original Takagi & Saito, 2007)
OSが乗っ取られた場合にも機能するファイルアクセス制御システム
概要 認証システム ネットワーク接続 メールシステム Webサービス(ホームページ) 実習室システム 印刷システム.
スーパーコンの概要 日本物理学会(首都大学) 2007年3月25日 大阪大学核物理研究センター 計算機室  外川浩章.
ネストした仮想化を用いた VMの安全な帯域外リモート管理
サーバ構成と運用 ここから私林がサーバ構成と運用について話します.
情報技術演習Ⅰ 人文学研究のための情報技術入門 2017/06/22
サスペンドした仮想マシンの オフラインアップデート
公開鍵認証方式の実習 TeraTermの場合
Java ソフトウェア部品検索システム SPARS-J のための リポジトリ自動更新機能の実現
1 2 ワークスタイルを変えるOffice変革 クラウド導入をサポートする Microsoft CSPプログラムのご案内
建設・建築現場のデータもクラウドへ自動バックアップ!
FreeBSDインストール 2002年4月10日.
九州大学キャンパスクラウド 利用法 情報ネットワーク特論 講義資料.
過負荷時の分散ソフトウェアの 性能劣化を改善する スケジューリングの提案
共生第二 解析&ファイルサーバー taro , pochi , hanako ,tama のご紹介
杉山耕一朗(北大理) 2009/02/06 epnetfan
Cisco Router GUI設定 CCPE3.2 紹介 本資料に記載の各社社名、製品名は、各社の商標または登録商標です。
Xenによる ゲストOSの監視に基づく パケットフィルタリング
仮想計算機を用いて OSを介さずに行う安全な ファイルアクセス制御
NASのアクセス履歴を記録・検索できる! マイナンバー制度対応のファイルサーバー(NAS)ログ管理ソフト
他のプロセスに あたえる影響が少ない 実行時ミラーリングシステム
OSの仕組みとその機能 1E16M001-1 秋田 梨紗 1E16M010-2 梅山 桃香 1E16M013-3 大津 智紗子
オープンソフトウェア利用促進事業 第3回OSSモデルカリキュラム導入実証
リモートホストの異常を検知するための GPUとの直接通信機構
実行時情報に基づく OSカーネルのコンフィグ最小化
仮想メモリを用いた VMマイグレーションの高速化
複数ホストに分割されたメモリを用いる仮想マシンの監視機構
キャンパスクラウドによる 実験環境の構築 情報ネットワーク特論 講義資料.
仮想計算機を用いたサーバ統合に おける高速なリブートリカバリ
東京工業大学 情報理工学研究科 数理・計算科学専攻 千葉研究室 栗田 亮
7-0.SWORD Client for WEKO インストールマニュアル Version 2.2
クラウドにおけるVM内コンテナを用いた 自動障害復旧システムの開発
未使用メモリに着目した 複数ホストにまたがる 仮想マシンの高速化
計算機工学III オペレーティングシステム #4 並行プロセス:排他制御基礎 2006/04/28 津邑 公暁
複数ホストにまたがって動作する仮想マシンの障害対策
VMMのソフトウェア若化を考慮した クラスタ性能の比較
インターネットに接続できない環境下にあるLAN DISKも LAN内で状態管理可能に! 新登場!
VMが利用可能なCPU数の変化に対応した 並列アプリケーション実行の最適化
InTriggerクラスタ環境の構築 i-explosion 支援班 クラスタ環境の概要 研究に使える「共有資源」を提供
Virtualizing a Multiprocessor Machine on a Network of Computers
仮想環境を用いた 侵入検知システムの安全な構成法
Cell/B.E.のSPE Isolationモードを用いた監視システム
仮想マシンの監視を継続可能なマイグレーション機構
VMリダイレクト攻撃を防ぐための 安全なリモート管理機構
SQL Server ベースの SAP システム における高可用性ソリューション
IPmigrate:複数ホストに分割されたVMの マイグレーション手法
複数ホストにまたがるVMの 高速かつ柔軟な 部分マイグレーション
複数ホストにまたがるVMの メモリ使用状況に着目した高速化
古いサーバーが 金食い虫になっているかも? こんな会社 はご注意! 1 追加、追加でサーバーが増えている
Presentation transcript:

InTriggerの概要・利用ルール 東京大学 近山・田浦研究室 高橋 慧 kay_at_logos.ic.i.u-tokyo.ac.jp

hongo (東京大学) chiba (NII) suzuk (東京工業大学) kyoto, imade (京都大学) InTrigger環境とは (1) 2 ▐ 日本中に設置されたクラスタを統合的に管理 ► 研究目的に巨大な計算資源を提供 ► 最終的には20-30拠点、数千台規模を目指す ► 6拠点・324台(504プロセッサ)が稼働中 ◘ 千葉(chiba), 東京(hongo, okubo, suzuk), 京都(kyoto, imade) ► 今後も引き続き拡張が進む 2006年度導入済 2007年度導入予定 はこだて未来大学 okubo (早稲田大学) 慶應義塾 大学 神戸大学 九州大学 広島大学

InTrigger環境とは (2) 3 ▐ 各拠点の環境は基本的に同一 ► アカウントは全拠点で共通 ► 全ノードへのソフトのインストールが簡単にできる ◘ 全拠点についてソフトウェアごとに管理者を設定 ◘ OSなどのシステムも簡単にアップデート可能 ▐ 自由度の高い資源利用ポリシー ► 様々な利用方法に対応したい ► 特定のシステムに依存しない「利用ルール」を設定

[発表の流れ] 4 1.InTrigger環境の概要 ► ハードウェア構成 ► 情報監視ソフトウェア (Ganglia, VGXP) 2.資源利用ルールについて ► CPU資源の利用について ► ディスク利用について

1.InTrigger環境の概要 InTrigger環境の構成 5 ▐ 多数の拠点(クラスタ)をインターネットで接続 ▐ 一拠点の構成: ► 1台のNFS/NISノード (chiba-charlieなど) ► 1-2台のコンパイルノード (chiba000, chiba100など) ► 多数の計算ノード (chiba001,002…) Chibaサイト/拠点 chiba-charlie (NFSサーバ) chiba-charlie (NFSサーバ) chiba000 コンパイルノード chiba000 コンパイルノード chiba001 計算ノード chiba001 計算ノード chiba002 計算ノード chiba002 計算ノード Hongoサイト/拠点 hongo-charlie (NFSサーバ) hongo-charlie (NFSサーバ) hongo000 コンパイルノード hongo000 コンパイルノード hongo001 計算ノード hongo001 計算ノード hongo002 計算ノード hongo002 計算ノード Kyotoサイト/拠点 kyoto-charlie (NFSサーバ) kyoto-charlie (NFSサーバ) kyoto000 コンパイルノード kyoto000 コンパイルノード kyoto001 計算ノード kyoto001 計算ノード kyoto002 計算ノード kyoto002 計算ノード NAT

1.InTrigger環境の概要 NAT SSHでログインするには 6 ▐ NIS/NFSサーバにはログインできません ▐ NAT環境では入り口ノードのみ直接ログイン可能 ▐ InTrigger内のノード間ではフィルタリング無し Chibaサイト/拠点 *.intrigger.nii.ac.jp chiba-charlie (ログインできません) chiba-charlie (ログインできません) chiba000 コンパイルノード chiba000 コンパイルノード chiba001 計算ノード chiba001 計算ノード chiba002 計算ノード chiba002 計算ノード Hongoサイト/拠点 *.logos.ic.i.u-tokyo.ac.jp hongo-charlie (ログインできません) hongo-charlie (ログインできません) hongo000 コンパイルノード hongo000 コンパイルノード hongo001 計算ノード hongo001 計算ノード hongo002 計算ノード hongo002 計算ノード Kyotoサイト/拠点 *.para.media.kyoto-u.ac.jp kyoto-charlie (ログインできません) kyoto-charlie (ログインできません) kyoto000 コンパイルノード kyoto000 コンパイルノード kyoto001 計算ノード kyoto001 計算ノード kyoto002 計算ノード kyoto002 計算ノード SSH

1.InTrigger環境の概要 ハードウェア構成 7 ▐ 大部分のノードは64bit Dual core ▐ chiba, hongoでは32bitと64bitが混在 ► chiba は32bit, は64bit ► バイナリの互換性が無いので注意 ▐ ローカルHDDを積極的に使って下さい(後述) HostsAddressCPURAMHDD (local)HDD (nfs) hongo000-hongo069GlobalPentium M 1.8GHz1GB80GB2TB hongo100-hongo113Core2Duo 2.33GHz4GB500GB chiba000-chiba069GlobalPentium M 1.8GHz1GB80GB9TB (raid) chiba100-chiba157Core2Duo 2.33GHz4GB500GB okubo000-okubo113GlobalCore2Duo 2.33GHz4GB500GB9TB (raid) suzuk000-suzuk035GlobalCore2Duo 2.33GHz4GB500GB9TB (raid) kyoto000-kyoto034PrivateCore2Duo 2.33GHz4GB500GB9TB (raid) imade000-imade029PrivateCore2Duo 2.33GHz4GB500GB9TB (raid) 32bit NAT

1.InTrigger環境の概要 情報サイトなど 8 ▐ ユーザーポータル ► ノードの障害情報などをご案内します ▐ メーリングリスト ► intrigger-users__at__logos.ic.i.u-tokyo.ac.jp ► 重要なお知らせを流します ► 登録メールアドレスの変更は、 ポータルの「登録情報編集」 からお願いします

1.InTrigger環境の概要 InTriggerの状態監視 9 ▐ Ganglia: 各サイトでの負荷を記録・表示 ▐ VGXP: 3Dで各ノードの負荷をリアルタイムで表示 ► どちらもユーザポータルからリンクされています

[発表の流れ] 10 1.InTrigger環境の概要 ► ハードウェア構成 ► 情報監視ソフトウェア (Ganglia, VGXP) 2.資源利用ルールについて ► CPU資源の利用について ► ディスク利用について

2.資源利用ルール InTrigger資源の利用 ▐ 使いやすい環境を提供したい ► 「バッチキュー専用」より柔軟なシステム ▐ 様々な用途のユーザが共存 ► 短時間占有してパフォーマンスを測定するユーザ ► 長期に渡って、空きCPUを利用したいユーザ ► 対話的に並列プログラムを開発したいユーザ 11

2.資源利用ルール 避けたい状態 ▐ ルール無しでコマンド実行可能にすると… ► 一部のユーザーが長期に亘って資源を占有 ▐ キュー専用にすると… ► デバッグのたびに順番待ち ► 普段はがらがら、混雑時は1時間単位で実行待ち ► 新しいMiddlewareの開発・テストが出来ない 12 これらをふまえて、 以下の利用方法・ルールを設定した

2.資源利用ルール 共存する仕組み ▐ プロセス起動の手続きは限定しない ► バッチキュー・対話式シェル・独自のミドルウェアなど ▐ ルールを設定する ► キュー経由のプロセスに優先権を与える ► 優先権のあるプロセスの邪魔をしてはいけない ► 優先権を濫用しない・並列度の高い実行を推奨 ► コンパイルノードは除外 ▐ 各ユーザはルールを守るよう努める ► (よろしくおねがいします) ▐ ルール違反を検出し、週報とし公開する (準備中) ► アカウントごとに「ポイント」として記録する 13

2.資源利用ルール キューを通したプロセス起動 ▐ Torque(キュー)をインストールしました ► $ qsub task.sh のようにジョブを投入 ► 順番が来たら、クラスタ内のどこかのノードで 排他的に実行される ► 一般のプロセスに対し優先権を持つ (占有できる) qsubで キューに投入 Job 1 Job 4 imade002 Job 5 Job 6 Job 0 Job 3 imade003 Job 2 CPU1 CPU2 CPU1 CPU2 CPU1 CPU2 imade001 空いている プロセッサで 実行 14

2.資源利用ルール ルール1: キュー優先 ▐ キュー以外から起動されたプロセスは、キュー 経由のプロセスの邪魔をしてはいけない ► キュー以外のプロセスが利用できるCPU使用率を、 (CPU数 – キュー経由のプロセス数)*100% と定義する ► キュー経由以外のプロセスの使用率が100%を越え たら、100%を越えないようCPU使用率を減らす CPU1 優先プロセス キューから起動 一般プロセス 利用可能 利用不可 CPU2 CPU1 優先プロセス キューから起動 一般プロセス 利用可能 利用不可 CPU2 一般プロセス OK NG 15

2.資源利用ルール ルール2: キューを占有しない ▐ キュー (Torque)を長時間占有しない ► 時間に制限を設ける ▐ 並列実行を推奨する ► [ sqrt(使用プロセッサ数) * 使用時間 ] を基準に用いる ▐ 全プロセッサを1時間/週 占有できる値を設定 ► 400プロセッサ →1時間 ► 100プロセッサ →2時間 ► 4プロセッサ →10時間 (キュー以外のプロセスはこの制限を受けない) 16

2.資源利用ルール ルールの運用について ▐ アカウントごとにルール違反をポイント化 ► ルール1に関して: 利用可能分を超過したCPU使用 率を、その時点で使っている一般プロセスで比例配分 ▐ ユーザポータルで週報を公開 (システム準備中) ▐ 週報の公開が始まったら、各自で定期的に チェックするようお願いします。 17 CPU1 優先プロセス キューから起動 一般プロセス 利用可能 利用不可 CPU2 一般プロセス 超過分 迷惑 Point 超過分をその時点での CPU利用率に応じて 比例配分し、迷惑 ポイントとする

2.資源利用ルール ルール違反をしないために… ▐ 短時間でパフォーマンス測定など ► 利用時間を各自で把握してキュー経由で実行 ► キューの残り利用時間今後コマンドを提供する ▐ 開発・デバッグなど ► TopやGanglia, VGXPで監視して、対話的に実行 ▐ 長期間実行するプロセス ► キューやプロセスの状態を監視しつつ実行する仕組 みを自作する ► Nicerを用いる 18 Nicerとは? 今から説明します

2.資源利用ルール Nicerの概要 ▐ ルールを常に守って資源を使うためのツール ► 実行方法: $ nicer./a.out ► InTriggerの各ノードにインストールされます (準備中) ▐ 動作: ► nicerを通じて実行されるプロセス(ジョブ)を制御 ◘ シグナルを送って、ジョブプロセスを開始/停止する ◘ 一般プロセスの合計CPU使用率が上限を超えたら、 ジョブプロセスをsleepさせる ◘ 一般プロセスの合計CPU使用率が十分低くなったら、 ジョブプロセスを再開させる ► 定期的にジョブプロセスをsleepさせ、自律的に他の nicerプロセスとの公平性を保つ 19

2.資源利用ルール CPU1 優先プロセス キューから起動 一般プロセス CPU2 10分実行→停止 CPU1 優先プロセス キューから起動 一般プロセス CPU2 混雑してきたら停止 Nicerの詳しい動作 ▐ 常に約1分間隔で使用率をチェック ▐ ジョブプロセス停止時: ► 利用可能な空きCPUが90%以上で起動 ▐ ジョブプロセス実行時: ► 一般プロセスのCPU使用率の合計が、使用可能なCPU使用率 を越えたら停止 ► 10分以上走ったら一度停止させる CPU1 優先プロセス キューから起動 一般プロセス Nicer プロセス CPU2 Nicer プロセス 空いていたら起動 一般プロセス 別のNicer プロセス 20

2.資源利用ルール システム整備の予定 ▐ ルール自体は既に適用されています ▐ 監視システム・週報 ► 準備中です ▐ Nicer ► GXPに古いバージョンが入っています (少し動作が異なります) ► 今後、今回の発表に即したものにアップデートします ► InTriggerの各ノードにもインストールされる予定です 使えるようになり次第、メールでご連絡します 21

2.資源利用ルール ディスクの利用について ▐ /home/$USER: NFS (raid) ► 永続的な保存場所 (バックアップは取っていません) ► 全員で2TB ・Quota無し ▐ /data/1, /data/2, /data/3: NFS ► 大きなデータの一時的な置き場所 ► 各自で/data/1/$USER のような サブディレクトリを作り、自由に用いる ▐ /data/local: 計算ノードのローカルディスク ► プログラムが読み書きするデータ ► /data/local/$USERのような サブディレクトリを作り、自由に用いる 22 プログラムの置き場所 データの置き場所 プログラムの作業場所 (適宜削除して下さい)

2.資源利用ルール NFSを作業ディレクトリにすると… ▐ 実験: 10台のノード(hongo )が1GBの ファイルを同時に書き込み ► 1台の場合: Mbps * 1 ► 10台の場合:30Mbps * 10 ▐ 性能が出ないだけでなく、他のユーザにも影響 ► NFSサーバのload averageが常時10以上 ► ホームでlsすると結果が返ってこない ► 他のユーザがsshログインするのに10秒以上かかる (/home/$USER/.ssh/authorized_keysを読めないため) 23

2.資源利用ルール ローカルディスクの活用 ▐ NFS上のデータを多数のノードが読み書きする と、クラスタ全体のパフォーマンスが低下 ► アクセスが遅く、プログラムの性能が出ない ► その他のユーザも、ディスクアクセス速度の低下、 ログイン出来ないなどの影響を被る ▐ データを頻繁に読み書きする場合は、ローカル ディスク (/data/local)を使って下さい ► データコピーには、GXPのBCPなどを用いる 24

終わりに 25 1.InTrigger環境の概要を説明した ► ユーザポータルをチェックしてください 2.利用ルールを説明した ► ルール1:キュー経由のプロセスを邪魔しない ► ルール2:キュー経由のプロセスを乱発しない ► 各自で気をつけるか、Nicerを用いる ► 大きなデータを読み書きする場合は、NFSではなくロー カルディスクを用いる 3.今後週報の作成などシステム面の整備を進める ☆ご協力よろしくお願いします☆