OSI7層の各層の1)名称 2)機能の簡単な説明 3)各階層に関連のあ る機器、規格などを5つ以上書いて下さい。

Slides:



Advertisements
Similar presentations
Windows HPC 講習会 2009/9/25 Windows HPC コンソーシアム 1 - MS-MPIプログラミング演習 - 同志社大学生命医科学部 廣安 知之 同志社大学工学研究科 中尾 昌広.
Advertisements

アルゴリズムと データ構造 第 3 回 基本的なデータ構造(2) : 配列 1. 前回の復習 アルゴリズムの計算量 最悪(最大)計算量 計算量の漸近的評価 (オーダ)  多項式時間アルゴリズム( polynomial time algorithm )  指数時間アルゴリズム( exponential.
11 January 17, Sample answer of the last week's report. (1) 2 #include #include "mpi.h" int main(int argc, char *argv[]) { int i,r, myid, procs,*result;
クラスタの構成技術と クラスタによる並列処理
コンテンツ配信に優れている P2P 技術と、著作権侵害問題の関係について 述べよ。
Parallel Programming in MPI part 2
15.1 文字列処理の基本 15.2 文字列処理用ライブラリ関数
情報基礎演習B 後半第5回 担当 岩村 TA 谷本君.
数理情報工学演習第一C プログラミング演習 (第3回 ) 2014/04/21
クラスタコンピューティングの 並列環境と性能
データ構造とアルゴリズム 第10回 mallocとfree
TCP (Transmission Control Protocol)
並列処理のためのプログラム作成.
第8回 プログラミングⅡ 第8回
トランスポート層.
ま と め と 補 足 ネットワークシステムⅠ 第15回.
(B2) 親: minami, kazuki 多様な認証機器に対応する 認証システム (B2) 親: minami, kazuki.
第3回 配列,構造体,ポインタ ~ データ構造について学ぶための基礎~
Copyright Yumiko OHTAKE
物理層と伝送媒体 2012年度以降の教科書(第5版)と 2011年度までの教科書(第4版)の対応 物理層、伝送媒体と公衆通信サービス
C言語講座 第3回 ポインタ、配列.
Parallel Programming in MPI part 1
Parallel Programming in MPI part 3
インターネットの基礎知識 その3 ~TCP・UDP層編~
マルチスレッド処理 マルチプロセス処理について
Cプログラミング演習 第7回 メモリ内でのデータの配置.
プログラミング 4 記憶の割り付け.
プログラミング入門2 第8回 ポインタ 情報工学科 篠埜 功.
アルゴリズムとデータ構造 補足資料5-2 「サンプルプログラムsetop.c」
プログラミング 3 構造体(2).
プログラミング入門2 第11回 情報工学科 篠埜 功.
知能情報工学演習I 第9回(後半第3回) 課題の回答
プログラミング入門2 第11回 情報工学科 篠埜 功.
第7回 プログラミングⅡ 第7回
復習 前回の関数のまとめ(1) 関数はmain()関数または他の関数から呼び出されて実行される.
Ibaraki Univ. Dept of Electrical & Electronic Eng.
Parallel Programming in MPI part 1
phononの分散関係の計算 -カイラルナノチューブ(18,3)-
MPIを使った加算  齋藤グループ 小林直樹
P n ポインタの基礎 5 q m 5 7 int* p; int 型の変数を指すポインタ int* q; int 型の変数を指すポインタ int n=5, m=7; int 型の変数 int array[3]; int* pArray[3]; p = &n; ポインタにアドレスを代入しているのでOK.
プログラミング基礎B 文字列の扱い.
第2回課題 配布した通り.氏名・学生番号を忘れないこと.
最低限インターネット ネットワークにつなぎましょ!
メモリとメモリアドレス, ポインタ変数,関数へのポインタ渡し
Cプログラミング演習資料.
岡村耕二 TCP通信プログラム 課題と回答例 岡村耕二 情報ネットワーク.
15.1 文字列処理の基本 15.2 文字列処理用ライブラリ関数
プログラミング入門2 第9回 ポインタ 情報工学科 篠埜 功.
勝手にインフラ隊 (の中の人といっしょ) に学ぶネットワーク講座 Part2
プログラミング 3 2 次元配列.
文字列へのポインタの配列 static char *lines[MAXLINES]; lines[0] NULL
高度プログラミング演習 (09).
勝手にインフラ隊 (の中の人といっしょ) に学ぶネットワーク講座 Part2
ポインタとポインタを用いた関数定義.
情報基礎演習B 後半第2回 担当 岩村 TA 谷本君.
OSI7層に関係する機器、仕様、機能など 物理層 データリンク層 ネットワーク層 トランスポート層 セッション層 プレゼンテーション層
「マイグレーションを支援する分散集合オブジェクト」
Parallel Programming in MPI part 2
アルゴリズムとデータ構造1 2009年6月15日
理工学部情報学科 情報論理工学研究室 延山 周平
ネットワーク・プログラミング Cプログラミングの基礎.
プログラミング 4 文字列.
アルゴリズムとデータ構造 2010年6月17日
ネットワーク・プログラミング 1対多のプロセス間通信.
応用数理工学特論 線形計算と ハイパフォーマンスコンピューティング
Cプログラミング演習資料.
プログラミング演習II 2004年11月 16日(第5回) 理学部数学科・木村巌.
15.1 文字列処理の基本 15.2 文字列処理用ライブラリ関数
プログラミング入門2 第5回 配列 変数宣言、初期化について
モバイルプログラミング第3回 Cプログラミングの基礎( 2 )
Presentation transcript:

OSI7層の各層の1)名称 2)機能の簡単な説明 3)各階層に関連のあ る機器、規格などを5つ以上書いて下さい。 導線、光ファイバ、無線上を bit 信号はどのように伝搬するか説明し て下さい。 CSMA/CD と CSMA/CA の機能、相違点を説明して下さい。 イーサネット、IP、TCP/IP で使用される識別子を示し、送信者は相手 の識別子をどのようにして得ることができるか説明して下さい。 TCP と UDP プログラムで、イーサネットフレームよりも大きなパケット を扱う時に注意すべき点を記して下さい。

現在使用されているスーパーコンピュータが全て 分散メモリ型となっている理由を説明して下さい。 秘密鍵と公開鍵を用いて、通信内容が途中で不 正に書き換えられていないことを保証する手順を 説明して下さい。 分散メモリ型並列計算機で用いられるインターコ ネクトトポロジを 2つ以上あげて、それぞれの特 徴を説明して下さい。 MPI(Message Passing Interface)の集団通信につ いて説明するとともに、集団通信の利用にあたっ て注意すべき点を記して下さい。 例を参考にして、MPI関数を使ってプロセス 0が持 つデータを、 他の全プロセスにコピーする集団通 信の関数 my_bcastを作成して下さい。 my_bcast関数の定義は以下の通りとします。 int my_bcast(char *buf, int size); ただし、bufは、プロセス0ではコピー元のデータを格納 している場所へのポインタ、れ以外のプロセスではコ ピーするデータを格納する場所へのポインタとし、size は転送するバイト数とします。また、返り値は、成功し た場合 0、失敗した場合 -1とします。 なお、アルゴリズ ムが正しければ、細かい文法的な間違いは減点の対 象としません。   プロセスの整数ベクトルの総和を計算する my_reduce関数の例) int my_reduce(int *a, int *b, int c) { int i, p, myid, procs; int *t; MPI_Status st; MPI_Comm_rank(MPI_COMM_WORLD, &myid); MPI_Comm_size(MPI_COMM_WORLD, &procs); if (myid == 0){ t = (int *)malloc(c*sizeof(int)); if (t == NULL) return -1; MPI_Recv(t, c, MPI_INT, 1, 0, MPI_COMM_WORLD, &st); for (i = 0; i < N; i++) b[i] = a[i] + t[i]; for (p = 2; p < procs; p++){ MPI_Recv(t, c, MPI_INT, p, 0, MPI_COMM_WORLD, &st); b[i] += t[i]; } } else{ MPI_Send(a, c, MPI_INT, 0, 0, MPI_COMM_WORLD); return 0; 各 MPI関数の定義: int MPI_Comm_rank(MPI_Comm comm, int *rank); comm: コミュニケータ rank: 呼び出したプロセスのランクを格納する変数へのポインタ int MPI_Comm_size(MPI_Comm comm, int *size); size: コミュニケータ中のプロセス数を格納する変数へのポインタ int MPI_Send(void *b, int c, MPI_Datatype d, int dest, int t, MPI_Comm comm); b: 送信データの開始アドレス c: 送信データの要素数 d: 送信データのデータ型 (MPI_INT: 整数、MPI_CHAR: 文字列) dest: 送信先プロセスのランク t: タグ int MPI_Recv(void *b, int c, MPI_Datatype d, int src, int t, MPI_Comm comm, MPI_Status *st); b: 受信データを格納する場所の開始アドレス c: 受信データの要素数 d: 受信データのデータ型 dest: 受信元プロセスのランク st: 受信したメッセージの情報を格納する配列