Status and Plans for the Tier 1 Tokyo (Japan)

Slides:



Advertisements
Similar presentations
WINDOWS AZURE上での ACTIVE DIRECTORY構築入門 Windows Azure ハンズオン トレーニング.
Advertisements

Introduction to New Media Development Association June 2001 このプレゼンテーションでは、出 席者間で討論をし、アクション アイテムを作成する場合があり ます。 PowerPoint を使ってプ レゼンテーションの実行中にア クション アイテムを作成する.
専修大学情報科学センターのパソコンを 使ったグリッドコンピューティング ― SPACE計画 - 森正夫 1 、水崎高浩 1 、内藤豊昭 2 、中村友保 2 及び 専修大学情報科学センター 及び 専修大学情報科学センター 1 専修大学 法学部/自然科学研究所 1 専修大学 法学部/自然科学研究所 2 専修大学.
Improvement of bootup time using Power Management - Project Update -
ATLAS実験データ解析に向けた、長距離広帯域ネットワークにおけるデータ転送
Webプロキシサーバにおける 動的資源管理方式の提案と実装
データベース構造劣化による OLTP性能低下に関する 一考察
LCG上でのATLASデータ解析 LCGとATLAS計算モデル グリッド上のデータのアクセス グリッド上のAtlasRelease
高速ネットワーク技術、スーパーコンピュータ関連の国際会議にて受賞 家庭用PCで超高速Webアクセス環境を実現するUsadaFoxを用い、 遠距離Webアクセス性能を1000倍高速化 東京大学データレゼボワール実験グループ.
Windows Azure 仮想マシン 入門.
COPPER/FINESSE System構築
DNASシステム上のアプリケーション起動シーケンスのための基盤であるdsh部分の性能評価
ATLAS実験における シミュレーション&解析環境
Grid Datafarm for a HEP application
2009年 3月 17日 法政大学 常盤祐司、児玉靖司、八名和夫、Ivan Ho、Billy Pham
別紙2:利用料金(税別) 今回リリースする機能 利用料金 備考 初期料金 月額上限料金 分課金(概算) ライセンス データベース
ネットワーク構成法 スケール 第6回 11月19日.
Step.4 基本IPネットワーク PC 1 PC 2 PC 3 PC
各種PC クラスタの性能評価 同志社大学 工学部 廣安 知之 三木 光範 谷村 勇輔.
グリッド技術を利用した大規模計算機システムの構築
HP ProLiant DL980 G7 SQL Server 2008 R2 NUMA 環境 ベンチマークテスト結果報告書
Research and Development of Event Building Farm for SuperKEKB
超高速ネットワークのためのデータ・レゼボワール
WindowsNTによるLAN構築 ポリテクセンター秋田 情報・通信系.
TCPソケットプログラミング ソケットプログラミング TCP-echoのデータ通信手順
心理学情報処理法Ⅰ コンピュータネットワーク概論.
Telnet, rlogin などの仮想端末 ftp などのファイル転送 rpc, nfs
Tohoku University Kyo Tsukada
スパコンとJLDG HEPの計算環境 HEPnet-J
Estimating Position Information by Detecting Network-Connection
無線LAN での Make-Before-Break ハンドオーバー の他方式比較とフィールド実証
Provisioning on Multiple Network(NIC) env
Keio Media Space Board for KMSF-CODE の 設計,実装,評価
The new trend in PC/AT architecture
ロングファットネットワーク上での 高速データ転送 「ATLAS地域解析センター Testbed環境の構築」
with Computational Scientists
ギガビットネットワークに対応する ネットワークべンチマークテスト機の試作と ギガビットルータの性能評価
アトラス実験における データ解析用グリッド環境の構築
New accessory hardware Global Platform Division
読み出し回路のアップグレードに向けた研究
Wake-on-LAN 神戸大学 理学部 地球惑星科学科          島津 通.
新世代ネットワーク推進委員会 APANの状況 (APAN update) 後藤滋樹 (早稲田大学) 北村泰一 (NICT)
Wireless Remote I/O- Wireless Remote I/O.
日本アイ・ビー・エム Power Tech Sales 2018/05/02更新
リモートホストの異常を検知するための GPUとの直接通信機構
超高速基幹LANにおける 情報リテラシー教育支援システム
ATLAS実験イベントビルダへの 品質保証機能の適用と性能評価
研究会 「LHCが切り拓く新しい素粒子物理学」
後藤研の紹介 日本語.
<前提条件> iSeriesSite ワークフロー 実行環境 構成イメージ
J-PARC E16実験におけるDAQ-Middleware を用いたDAQソフトウェアの開発
スーパーコンピュータ「京」 理化学研究所 計算科学研究センター
Improvement of bootup time using Power Management - Project Update -
仮想ネットワークを考慮した SoftIRQ制御によるCPU割当ての手法
UPSのバッテリ劣化もNarSuSでわかる! 入力電源異常などのUPSの エラーもNarSuSで記録可能!
M. Uchida, Kyoto University
レポート課題 レポートの提出は による。 提出期間を厳守する。 締切は2010年1月12日(火)
レイドのドレイ 安物RAIDの誘惑 加速器センター 木村 博美.
ALICE work at CERN Kenta Mizoguchi, Hisayuki Torii, Yusuke Okada
広島大学におけるHEPnet-J 利用状況
iSeries Site 人事・給与C/S版のハードウェア・ソフトウェア要件
OSの再インストールや、バックアップからのリストア
APAN と TEIN APAN, Asia Pacific Advanced Network 1997年にスタート
九州大学のキャンパスネットワークを事例にL1~L3を学ぶ Study on L1,L2 and L3 with case of Campus Network of Kyushu Univ. 岡村耕二 Koji OKAMURA.
Step.8 ファイアウォール PC 3 PC 1 PC 2 許可したアクセス のみ通過させる アクセスする ファイアウォール
レポート課題1 基本問題:  課題1. あるマシンまでのRTT (Round Trip Time)を測定したところ 128msec(ミリ秒)であった。このマシンに対してウィンドウサイズ64KByteでTCPの通信を行う場合のスループットの予想値を計算せよ。 ヒント1: 授業中に説明したように、スループットの値は、ウィンドウサイズを往復遅延時間で割れば良い。Byteとbitの換算に注意する。計算を簡単にするために1024≒1000として計算して良い(もちろん、この概算を使わなくても良い)。スループットは、ど
特定ユーザーのみが利用可能な仮想プライベート・ネットワーク
東大素セ 松本浩,田中純一, 上田郁夫,坂本宏,真下哲郎
ソケットの拡張によるJava用分散ミドルウエアの高信頼化
地域データ解析センターの経緯・概要・計画
Presentation transcript:

Status and Plans for the Tier 1 Tokyo (Japan) Hiroshi Sakamoto International Center for Elementary Particle Physics (ICEPP), the University of Tokyo

Contents PC Farm Storage System Wide Area Network Short Term Plan Blade Servers Storage System IDE File Server Prototype Wide Area Network KEK-ICEPP GbE Connection CERN-ICEPP Connectivity Study Short Term Plan KEK-ICEPPの資源について記述すべきであろう。

HP Blade Server HP ProLiant BL20p Xeon 2.8GHz 2CPU/node 1GB memory SCSI 36GBx2, hardware RAID1 3 GbE NIC iLO remote administration tool 8 blades/ Enclosure(6U) Total 108 blades(216 CPUs) in 3 racks Rocks 2.3.2(RedHat 7.3 base) for Cluster management 実装密度の点ではHPのブレードサーバーは6Uのエンクロージャーに8ブレードしか入らない上に、電源ユニット(3U)をラックごとに必要とするので、実装密度は1Uサーバーの1.1~1.2倍と大差ない。 ちなみにNECの製品は1Uサーバーの1.5倍、 IBM の製品は2倍になる。実装密度が低い代わりにHPのブレードはCPUの動作クロックが高い。 iLO(integrated Light-Out)(電源、コンソール、BIOS設定などの管理などの操作をWEB操作にて、ブレードCPUと独立に行える)

HP Blade Server 2 PCファームの経験。性能という様なものは示しがたいが。

HP Blade Server Network Configuration Blade Servers NIC1 NIC2 NIC3 iLO Private LAN PXE/Control Private LAN Data Campus LAN SW Frontend Server SW NIC1 NIC2 NIC3 iLO Private LAN iLO Private LAN(PXE/Control) は、PXEブートにてOSのインストールや、インストール後にログインやジョブを投げたり管理などに使用(NICはGigabitだけどSWは実は100Base-TX) Private LAN(Data) はGigabit Ethernet でブレードサーバー同士で高速に通信する際に使う。 Private LAN(iLO) はブレードサーバーのiLO機能(電源、コンソール、BIOS設定などの管理などの操作をWEB操作にて、ブレードCPUと独立に行える)の為に使用。 Frontend Serverはブレードとは別のマシンを使用。ブレードへのアクセスはfrontend経由で行う SW NIC1 NIC2 NIC3 iLO

File Server Prototype 2 Xeon 2.8GHz (FSB 533MHz) Memory 1GB 2 PCI RAID I/F, 3ware 7500-8 2 GbE(1000Base-T) LAN 4U Rack mount Case, 16 hot-swap IDE HDD bay 16 250GB HDD + 40GB HDD 460W N+1 Redundant Power Supply 7 servers, total 24.5TB in 2003 RAID関係。松本君待ち。

File Server Prototype 2 Benchmarks Read 350MB/s, Write 170-250MB/s RAID0 16 HDD Read 140-160MB/s, Write 20-50MB/s, RAID5 8 HDD RAID0 16HDD RAID5 8 HDD

Network Connectivity 10Gbps SuperSINET Backbone Connect major collaborating institutes International connections Project Oriented 1Gbps Connection KEK-ICEPP for ATLAS experiment Grid middleware study KEK-ICEPP間接続の評価 じゅんちゃんのグリッド

WAN Performance Measurement “A” setting TCP 479Mbps -P 1 -t 1200 -w 128KB TCP 925Mbps -P 2 -t 1200 -w 128KB TCP 931Mbps -P 4 -t 1200 -w 128KB UDP 953Mbps -b 1000MB -t 1200 -w 128KB “B” setting TCP 922Mbps -P 1 -t 1200 -w 4096KB UDP 954Mbps -b 1000MB -t 1200 -w 4096KB "A" setting: 104.9MB/s "B" setting: 110.2MB/s

Connection to CERN 2.5Gbps x 2 (=5Gbps) to NY (2003) 2.5Gbps x 4 Now 広域ネットワークその一 KEK-ICEPP間のGbE 国内の状況とCERNとの接続

CERN-Tokyo (Very preliminary) Large RTT ~ 300ms Possibly certain amount of packet loss [UDP] 17:00-17:30 option: -b 1000MB -w 256KB [ ID] Interval Transfer Bandwidth Jitter Lost/Total Datagrams [ 3] 0.0-1095.5 sec 116 GBytes 906 Mbits/sec 0.015 ms 4723300/89157875 (5.3%) [ 3] 0.0-1095.5 sec 134933 datagrams received out-of-order CERN-Tokyoバンド幅チャレンジのセットアップ

Connection with neighboring countries SINET and APAN (as is on 02/02/2004) AU CN HK JP KR TW US Australia (AU) -- 310 China (CN) 622 155 Hong Kong (HK) 45 Japan (JP) 2000 10000 Korea (KR) Taiwan (TW) --- 5000

Connection with neighboring countries (cont.) SINET and APAN (expected in 2004) AU CN HK JP KR TW US Australia (AU) -- 20000 China (CN) 2500 155 Hong Kong (HK) 10000 Japan (JP) 2000 622 30000 Korea (KR) Taiwan (TW) --- 5000

LCG-1 Very limited resources allocated

Short term plan Network Connectivity PC Farm / Mass Storage LCG-2 CERN-Tokyo to 10Gbps now Tokyo-Taipei connectivity study soon PC Farm / Mass Storage ~100TB fiber-channel disks installed Hierarchical storage study soon (IBM LTO2) PC farm upgrade LCG-2 60 Nodes (Dual 2.8GHz Xeon) ~30TB Disk Space

News Reorganization of our institute 2004.4~2014.3 for LHC ATLAS 1994.4~2004.3 for LEP OPAL Extension approved 2004.4~2014.3 for LHC ATLAS Regional Center (Tier1) for ATLAS Budget for R&D in FY2004 One engineer position New building Completed in March 2005 9th floor for RC