1 / 67

第3章 情報 の伝達と 通信

第3章 情報 の伝達と 通信. プロトコル (3.2.2) (a) 通信の際の決めごと 通信の秘密と相手の認証 (3.2.3) (a) 暗号 盗聴を防ぐ ( 認証 通信参加者の身元の保証 ) ( 署名 通信内容の改竄の防止、否認の防止 ). 1. Information n. facts provided or learned about something or someone

sitara
Download Presentation

第3章 情報 の伝達と 通信

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. 第3章情報の伝達と通信 プロトコル (3.2.2) (a) 通信の際の決めごと 通信の秘密と相手の認証 (3.2.3) (a) 暗号盗聴を防ぐ (認証通信参加者の身元の保証) (署名通信内容の改竄の防止、否認の防止) 1

  2. Information n. • facts provided or learned about something or someone • what is conveyed or represented by a particular arrangement or sequence of things (OED) 情報  ある事柄に関して伝達(入手)されるデータ(の内容). [通常は送り手・受け手にとって何らかの意味を持つ(形に並んでいる)データを指すが、データの意味内要そのものを指すこともある。さらに、そのデータをもとにして適切な判断を下したり行動をとったりするという判断材料としての側面に重点を置く場合が多い。また、個別のデータが生のままの未整理段階にとどまっているというニュアンスで用いられることもあり、知識に比べて不確実性を包含した用語] (新明解国語辞典(第四判)三省堂) 2

  3. Shannonの情報理論 C.E. Shannon, A mathematical theory of communications, Bell Syst. Tech. J. 27 (1948), pp.379-423. C. E. Shannon, A mathematical theory of communications, Bell Syst. Tech. J. 27 (1948), pp.10-21 C. E. Shannon, Communications in the presence of noise, Proc. IRE 37 (1949), pp.10-21. C. E. Shannon and W. Weaver, The Mathematical Theory of Communication, Univ. Illinois Press, 1949. 甘利俊一「情報理論」ダイヤモンド社, 1970. 3

  4. 情報とは何か ( Shannon の情報理論の中で) 情報の「定義」 Lを非空有限集合。その元を記号と呼ぶ。 「情報」とは有限の長さの記号列のことである。  ここでは この定義が最適である。 ----パターンで表したものは、情報として扱えない。 現在、Shannon 流のほかの情報理論は、知られていない。Shannon は「通信の数学的理論」を作ったのであって、情報理論を作ったわけではない。 4

  5. 3.1.2 情報量の定義 情報量 (ビット bit (binary digit)) (1)確率事象の生起に伴う情報量    確率 p で生起する事象が起こったことを伝達されたとき得る情報量 ビット (2)記号列としての情報量 (記号列のとりうる場合の総数) [注] 8ビット (bit) を1バイト (byte) と呼ぶ。 5

  6. (2) 記号列の長さから定義された情報量 10 進法の記号列 A=2008 の場合の数 10000 をかりに情報量と思う 10 進法の記号列 B=101 場合の数 1000 並べた記号列としてAB= 20081010 :  場合の数 10000+1000 にはならない しかし 情報量=記号列の長さ とすると Aの列の長さ+Bの列の長さ=ABの列の長さ しかし、使える記号が増えれば、短い長さで同じ場合の数が表せる

  7. 2種類 {0,1} の記号の記号列として表現したときの列の長さとして情報量を決めれば、比較可能に一意にうまく定まる。記号列 A の場合の数 M を 0,1 列に直すと の長さが必要になる。この量の単位をビット (bit) と呼ぶ。 01100011 8ビット 2^8 = 256 通りのパターンを表現できる ほかの記号種類の記号列のメモリ容量(情報量) ・ {a,b,c,…,x,y,z,w}長さ 3 の列 26*26*26=17576 通り ・ {0,1,2,3,…,9} 長さ 3 の列  1000 通り    これらを 0, 1 の記号列として表すのに必要な長さは ビット ビット 7

  8. 必要なメモリの容量を見積もってみよう。 1冊200ページからなり、1ページに20行、1行に45文字例題:1 冊の日本語の本を収納するのに 計算上あるとする。1文字2バイト必要と考えて 200 ページ * 20 行 * 45 文字 * 2 バイト = 360 * 10 の 3 乗 バイト = 360 K Byte (キロバイト) のメモリ容量が必要と考えられる。これと同じサイズの本を10万冊蔵書にもつ図書館があるとすれば、その図書館 の本の全体を記録するのに、計算上 36 G Byte (ギガバイト) 必要だということになる。現在のパソコンのハードディスクの容量が40から60ギガバイト程度だということを考えると、逆に、いかに大きな容量のメモリが身近に使えるようになっているかが分かる。 8

  9. 場合の数 m n k n/m k/n 場合の数の減少率が 小 --> 情報量 少ない 場合の数の減少率が 大 --> 情報量 大 情報量が場合の数の減少率で定まるとして、その関数を f とする。当然、以下を満たす。 (1) 事象の生起確立 p から定義される情報量

  10. 場合の数の減少率は、確率 p=n/m, q=k/n と考えた方が一般的になる。 前提:情報量は確率によって決まる。 ・ 前提: 情報量の加法則が成立する。つまり   確率事象AとBが独立で、それぞれの生起確立がp と qとするとき 以下が成立する。 確率p の事象の生起を知って得られる情報量は 特に をビットという単位で呼ぶ 10

  11. 微分の定義 多項式を微分すると 1/x だけが現れない 積分: 微分すると f(x) になる関数を探して F(x) とする。 つまり このとき          (a は定数) 定義から

  12. 対数関数、指数関数の定義 12

  13. 加法則 ゆえに ゆえに 13

  14. ここでCの値を決めると、それぞれの単位の取り方に対応するここでCの値を決めると、それぞれの単位の取り方に対応する のとき ビット のとき ニット 14

  15. • サイコロの目 -log2(1/6)  2.59 ビット • ルーレットの目 -log2(1/100)  6.64 ビット • コイン投げの裏表 -log2(1/2) = 1 ビット 記号列の長さとしての情報量ビットと確率事象の生起の情報量ビットの同値性 0,1 の2値がどちらも確率 1/2 で生起するとすると、そのひとつの値の情報量は 1 ビットになる。このとき 0,1 の特定の長さ n の記号列が発生する確率は で、ゆえにその生起確率から計算される情報量は   ビットである。ゆえに、長さ n の 0,1 列の情報量を n ビットとした記号列の長さで定義した情報量と、整合的である。 15

  16. 事象AとBが独立でないときは、必ずしも加法則はなりたたない。事象AとBが独立でないときは、必ずしも加法則はなりたたない。

  17. 熱力学的観点から:熱力学のエントロピーと情報エントロピーの関係熱力学的観点から:熱力学のエントロピーと情報エントロピーの関係 ・ 1 ビット   0.7 k erg (エルグ) ボルツマン定数 ・ 1 erg は 1 dyn の力で 1cm 物を動かしたときの仕事・エネルギー のCGS単位 ・ 1 dyn は 1 g の質量に  の加速度を与える力の大きさ (約98グラムの重さ) 17

  18. 3.1.3 平均情報量 事象 A1,A2,…,An が独立に確率 (p1,…,pn) で発生する情報源があったとする。この情報源の1文字あたりの平均情報量(情報源のエントロピー)を H とすると、それは 情報源の生起事象を復元可能な符号化によって 0,1 に符号化した列で通知しようとすると、その長さの平均値を L ビットとすると、常に以下の不等式が成立する。 18

  19. 情報源符号化定理 任意の に対して平均符号長 L が以下を満たすような符号化が存在する。 つまり、良い符号化を使えば平均符号長が、情報源のエントロピー(平均情報量) H にいくらでも近くできるということが保証されている。 19

  20. 通話路 復号化 Decoding 符号化Coding C ビット/秒 情報源 A1’ A2’ ・・・ H C 通話路容量 事象{A1,A2,…An} が確率的に生起する H 情報源の出す1事象あたりの平均情報量(情報源のエントロピー) ビット 最適な符号化を取れれば、平均 C/H 文字(事象)伝送できる 20

  21. 雑音のない通信路の基本定理(情報源符号化定理)雑音のない通信路の基本定理(情報源符号化定理) 平均情報量 H の情報源と単位時間当たり C の容量を持つ通信路があるとき、任意の正の数     に対して、単位時間当たり少なくとも 事象で M 個分の情報を送るような符号化で以下を満たすものが存在する。 21

  22. 良い符号化を見つけよう [ハフマン 符号化の原理] データに出現する記号の個数を求める。 それが木構造の葉に相当すると見なし、木を構成する。 まず、葉を含むすべての節点のうち、親を持たないものを集める。 その中から、最小の値をもつものと2番目に小さい値をもつものを取り出す。 それらを子供にもつ新しい節点を作る。 このとき、新しい節点の値は、両方の子供の値の和とする。 22

  23. 以上を繰り返して根節点まで到達して木が完成される。 次に、根から順に左右に0と1の値を割り振っていく(左右のどちらに0と1を与えるかは任意)。 すると、それぞれの葉(記号)に対して、一意にビット列が与えられる。 この記号とビット列の関係をもとに、もとのデータの記号をビット列に変換していくことで符号化が行われる。 ハフマン符号は一意復元可能である。 23

  24. Sample データ : DAEBCBACBBBC 出現頻度と割り当てられた符号 記号 個数 推定確率 符号 24

  25. [例] DAEBCBACBBBC 12桁 を0,1のビット列に符号化 • A:000, B:001, C:010, D:011, E:100 と符号化すると011000100001010001000010001001001010 36 ビット • 平均符号号長3.0 ビット • A:1110, B:0, C:10, D:110, E:1111 と符号化すると • 110 1110 1111 0 10 0 1110 10 0 0 0 10 25ビット • この列の平均符号長2.08333… ビット • 列の長さを無限にするとハフマン符号化の平均符号長2.1666… ビットになる. • [注] 観測列が1事象 B で符号化0 とすると平均符号長は 1.0 ビット! である。 情報源のエントロピー ハフマン符号化の 2.1666… は良い近似である。 25

  26. 同じ例で違う木による符号化 左の木による符号化 12 0 1 0 5 B 7 0 1 3 C 4 1 0 2 A 2 前の例での符号化 0 1 1 D 1 E 26

  27. Huffman Code の例 1.0 0 1 0.5 A 0.5 0 1 0.3 0.2 B 0 1 0.12 0.18 0 1 0 1 0.07 0.05 E 0.1 C 0.08 D 0 1 0.03 0.04 F 1 0 0.01 H 0.02 G 27

  28. Shannon 最適に近づける ---反復を用いる 平均符号長 ハフマン符号化しても、少しも良くなっていない。 情報源のエントロピーの値 28

  29. ハフマン符号化の平均符号長 もとの1文字あたりの平均符号長 ゆえに以下のように情報源のエントロピーの値により近づく 29

  30. 結合エントロピー 結合エントロピーH(X,Y) 30

  31. 3.5.3条件付きエントロピー H(X|Y):Yを受信したときのXのエントロピー (エントロピーはあいまい度のこと) 31

  32. 例 情報伝送速度 0.9 入力側で0,1を1/2 ずつの確率で毎秒 1000個発生するとし、通信路の誤り確率を 0.1 とする。すると、 1 1 0.1 0.1 0 0 0.9 ビット/ 秒 が発信されるので、900 ビット/秒の情報が受け取れるかというとそうではない。出力が 0でもとの信号が正しく0であった確率は0.9, 出力が0でもとの信号が1であった確率は0.1, 信号1についても同様なので, あいまい度は ビット/ 秒 32

  33. だから伝送速度は R=1000-469=531 ビット/秒である。わずか1割の雑音で情報量はほぼ半分に減ってしまうのである。 3.5.4 相互情報量 I(X;Y): 受信Yを観測して得られるXに関する情報量 33

  34. 情報伝達速度R:1秒当たり受信によって得られる情報量 R を情報伝送速度と呼ぶ。このとき、 通信路容量C: 情報伝送速度 R は、入力  の確率  によって決まる。このRの最大値を通信路容量と呼ぶ。   34

  35. 通信路容量 Xの確率分布を変更したときの相互情報量I(X;Y)の最大値 符号化の方法によって相互情報量を通信路容量に近づけることが出来る 35

  36. 通信路容量Cの計算例 情報の構造の一様性を仮定する。すると、 ゆえに H(Y)が最大の値を取るのは          のときだから 36

  37. 1-p 1 1 p 0 1-p 例 m=2, 誤り率: p p 0 この通信路の容量は (注:p=1/2 ならば C=0)  37

  38. 定理(誤りを持つ通信路の基本定理) 容量 C の通信路と1秒当たりKのエントロピーを持つ情報源があるとき、K<C ならば、情報源の情報をこの通信路を通して任意に小さい誤り確率で送れるような符号化が存在する。     このことは、雑音の混入が避けられない通信路で、誤りのない通信ができる。しかも、そのときの情報伝送速度を最大 C まで高められるという、一見常識に反することを意味するので、通信理論にたずさわる人たちを驚かせた。 38

  39. 3.2 情報通信 • 3.2.2 プロトコル • 3.2.3 通信の秘密と相手の認証   共通鍵暗号、公開鍵暗号(非対称鍵)、   ハッシュ関数、電子指紋 • 3.3 情報ネットワークの枠組み   回線交換、パケット交換 • 3.4 インターネット TCP/IP, LAN, IP アドレス、MACアドレス DNS (Domain Name Server)

  40. プロトコル (protocol)---通信の規格 クライアント     サーバ • WWW HTTPプロトコル Webブラウザ     Webサーバ • 電子メイル --- 送信プロトコル smtp  メイルソフト     メイルサーバ • 電子メイル受信のプロトコル --- pop 方式, imap 方式        メイルソフト      メイルサーバ 40

  41. Webサーバ ブラウザ データ HTTP TCP TCP IP IP ヘッダ データ 41

  42. 3.3.3 通信の秘密と相手の認証 ・ 共通鍵暗号(対称鍵暗号) 送信する暗号化での鍵と受信での復号化の鍵が同じもの。(シーザー暗号など) 公開鍵暗号(非対称鍵暗号) 暗号化と復号での鍵が違うもの(RSA方式など) 42

  43. 共通鍵暗号(対称鍵暗号) ヴァーナム使い捨て鍵暗号 (Vernam‘s one-time pad) 全ての受動的攻撃に耐えられる完全秘匿(perfectly secure)な暗号系 欠点 文書と同一の長さの真正ランダム鍵が必要 その鍵が、安全に届けられなければならない(ワシントンモスクワ間での信頼できる特使により運搬されていたそうである) 43

  44. 公開鍵暗号 PAさんの公開鍵 E Aさんだけが知っている秘密鍵 平文        暗号文        平文 Aさんだけが復号化できる 平文         暗号文        平文  発信者が A さんであると分かる P で暗号化 E で復号化 E で暗号化 P で復号化

  45. 共通鍵暗号 一つの鍵で暗号化と復号化が両方できるモデル   鍵を秘密に保つ必要がある 45

  46. 公開鍵暗号 46

  47. 署名と検証 これによりメッセージの発信者が特定でき、かつメッセージが改ざんされていないことが分かる。別掲PDFファイルへ 47

  48. インターネットの通信 • ネットワークの集合体: グループごとに管理 • ルータ: ネットワーク間の通信を中継 • 様々なプロトコル: 役割毎に分割

  49. ネットワーク間通信-IP • ネットワーク間伝達の仕組み • 同一ネットワーク内に宛先があれば直接転送 • そうでない場合は,宛先に送るのに適した同一ネットワーク内のルータに転送 • IPアドレスネットワークアドレス • 経路制御 • 経路表の利用 • 静的経路制御 • 動的経路制御

  50. インターネット通信の実際 例: 東大からテルアビブ大学へのメッセージ ux104$ traceroute post.tau.ac.il traceroute to post.tau.ac.il (132.66.16.11), 30 hops max, 40 byte packets 1 133.11.50.158 (133.11.50.158) 0.78 ms 0.226 ms 0.224 ms 2 192.168.254.65 (192.168.254.65) 0.612 ms 0.49 ms 0.466 ms 3 133.11.249.242 (133.11.249.242) 0.775 ms 0.67 ms 0.647 ms 4 ra36-vlan2.nc.u-tokyo.ac.jp (133.11.127.43) 0.757 ms 0.76 ms 0.701 ms 5 ra37-vlan3.nc.u-tokyo.ac.jp (133.11.127.78) 0.803 ms 0.74 ms 0.721 ms 6 tokyo-s1-g2-0.sinet.ad.jp (150.99.197.169) 0.939 ms 1.229 ms 0.882 ms 7 jt-tokyo-s1-p3-0.sinet.ad.jp (150.99.197.37) 2.186 ms 2.924 ms 2.31 ms 8 nii-s1-p4-0.sinet.ad.jp (150.99.197.22) 2.779 ms 2.615 ms 2.598 ms 9 nii-gate2-p2-0.sinet.ad.jp (150.99.199.174) 2.641 ms 2.473 ms 2.468 ms 10 nii-gate3-p3-0.sinet.ad.jp (150.99.198.246) 189.415 ms 189.298 ms 189.368 ms 11 sinet.ny1.ny.geant.net (62.40.103.233) 199.775 ms 199.893 ms 199.924 ms 12 ny.uk1.uk.geant.net (62.40.96.170) 263.855 ms 263.747 ms 263.851 ms 13 uk.nl1.nl.geant.net (62.40.96.181) 280.256 ms 280.372 ms 280.351 ms 14 nl.il1.il.geant.net (62.40.96.118) 345.219 ms 344.887 ms 345.015 ms 15 iucc-gw.il1.il.geant.net (62.40.103.70) 343.861 ms 343.667 ms 343.758 ms 16 tau-gp1-fe.ilan.net.il (128.139.191.69) 343.89 ms 343.845 ms 348.009 ms 17 * * * 18 * * *

More Related