(Translated by https://www.hiragana.jp/)
情報量 - Wikipedia コンテンツにスキップ

情報じょうほうりょう

出典しゅってん: フリー百科ひゃっか事典じてん『ウィキペディア(Wikipedia)』

情報じょうほうりょう(じょうほうりょう)やエントロピーえい: entropy)は、情報じょうほう理論りろん概念がいねんで、あるできごと(事象じしょう)がきたさい、それがどれほどこりにくいかをあらわ尺度しゃくどである。ありふれたできごと(たとえば「かぜおと」)がこったことをってもそれはたいした「情報じょうほう」にはならないが、ぎゃくめずらしいできごと(たとえば「きょく演奏えんそう」)がこれば、それはよりおおくの「情報じょうほう」をふくんでいるとかんがえられる。情報じょうほうりょうはそのできごとが本質ほんしつてきにどの程度ていど情報じょうほうつかの尺度しゃくどであるとみなすこともできる。

なおここでいう「情報じょうほう」とは、あくまでそのできごとのこりにくさ(かくりつ)だけによってまる数学すうがくてきりょうでしかなく、個人こじん社会しゃかいにおける有用ゆうようせいとは無関係むかんけいである。たとえば「自分じぶんたからくじにたった」と「見知みしらぬAさんがたからくじにたった」は、前者ぜんしゃほう有用ゆうよう情報じょうほうえるが、両者りょうしゃ情報じょうほうりょうまったおなじである(たからくじがたるかくりつ所与しょよ条件じょうけん一定いっていのもとではだれでもおなじであるため)。

自己じこ情報じょうほうりょう自己じこエントロピー)と平均へいきん情報じょうほうりょう(エントロピー)[編集へんしゅう]

それぞれのできごとの情報じょうほうりょうだけでなく、それらのできごとの情報じょうほうりょう平均へいきん情報じょうほうりょうぶ。両者りょうしゃ区別くべつする場合ばあいには、前者ぜんしゃ自己じこ情報じょうほうりょう自己じこエントロピーとも)、後者こうしゃ平均へいきん情報じょうほうりょうエントロピーとも)とぶ。

自己じこ情報じょうほうりょう[編集へんしゅう]

事象じしょう こるかくりつ とするとき、事象じしょう こったことをらされたとき自己じこ情報じょうほうりょう は、以下いか定義ていぎされる:

かくりつ なので自己じこ情報じょうほうりょう 非負ひふである。また対数たいすう単調たんちょう増加ぞうかせいにより、こりにくい事象じしょう(=生起せいきかくりつひく事象じしょう)の情報じょうほうりょうほどおおきい。

対数たいすうそことしてなにえらんでも情報じょうほうりょう定数ていすうばいわるだけなので本質ほんしつてきはない。慣習かんしゅうてきそこに2をえらぶことがおおい。そこが2の場合ばあいかくりつこる事象じしょう情報じょうほうりょう である。

直観ちょっかんてき意味いみ[編集へんしゅう]

整数せいすうたいし、対数たいすうすすむほうでの桁数けたすうにほぼひとしいあらわす。したがって、かくりつこる事象じしょう情報じょうほうりょうは、ほぼ桁数けたすうになる。

情報じょうほうりょう加法かほうせい[編集へんしゅう]

情報じょうほうりょう加法かほうせいつ。すなわち独立どくりつ事象じしょうAとBにたいし、事象じしょう「AもBもこる」の情報じょうほうりょうは、Aの情報じょうほうりょうとBの情報じょうほうりょうやわである。これは以下いか証明しょうめいされる。

たとえば、52まいトランプから無作為むさくいに1まいすという試行しこうかんがえる。「したカードはハートの4である」という事象じしょう情報じょうほうりょうは、前述ぜんじゅつ定義ていぎから log 52 であるとかる。ここで、「したカードのスートはハートである」という事象じしょうと「したカードの数字すうじは4である」という事象じしょうふたつをかんがえると、前者ぜんしゃ情報じょうほうりょうlog 4後者こうしゃlog 13 である。この両者りょうしゃlog 4 + log 13 = log (4×13) = log 52 となり、「したカードはハートの4である」という事象じしょう情報じょうほうりょうひとしい。これは「独立どくりつした情報じょうほうが、全体ぜんたい情報じょうほうりょう一致いっちする」という直感ちょっかんてき要請ようせい合致がっちする。

導出どうしゅつ[編集へんしゅう]

情報じょうほうりょうたいする直感ちょっかんてき要請ようせいには「発生はっせいかくりつひくいほどおおきく(単調たんちょう減少げんしょうせい)」「かくりつかんして連続れんぞくてき変化へんかし(連続れんぞくせい)」「独立どくりつ同時どうじ事象じしょう情報じょうほうりょう周辺しゅうへん事象じしょう情報じょうほうりょうやわひとしい(加法かほうせい)」のさん条件じょうけんげられる。この3条件じょうけんたす関数かんすうコーシーの函数かんすう方程式ほうていしき利用りようすることで一意いちいもとまる。よって情報じょうほうりょう定義ていぎ上記じょうきの3条件じょうけんから一意いちい導出どうしゅつできる。典型てんけいてきには対数たいすうそこを2としてp=1/2で1となるようにCを設定せっていC=-1)する。

平均へいきん情報じょうほうりょう(エントロピー)[編集へんしゅう]

かくりつ空間くうかんとする。ぜん事象じしょう Ωおめが分割ぶんかつ あたえられたとき[2]かく事象じしょう 自己じこ情報じょうほうりょう 定義ていぎした

かくりつ測度そくど Pエントロピー H(P)ぶ(平均へいきん情報じょうほうりょうシャノン情報じょうほうりょう情報じょうほうろんのエントロピーとも)。ただし、ここで のときは、 とみなす。これは であることによる。

また、離散りさんがたかくりつ変数へんすう Xかくりつ分布ぶんぷ Pしたが場合ばあいには、 Xエントロピー H(X)自己じこ情報じょうほうりょう I期待きたいによって定義ていぎする。すなわち、

である[3]。ここで fXXかくりつ質量しつりょう関数かんすうである[4]

より、エントロピーはつね非負ひふである。

かくりつ変数へんすう XYくみ (X, Y)かくりつ変数へんすうとみなせる。このかくりつ変数へんすう発生はっせいかくりつすなわち同時どうじかくりつ とすると、 (X, Y) のエントロピー

になる。これを結合けつごうエントロピーぶ。

(X, Y)たがいに独立どくりつかくりつ変数へんすうである場合ばあいには、一致いっちする。すなわち、全体ぜんたい情報じょうほうりょう は、それぞれのかくりつ変数へんすう情報じょうほうりょうやわである。

しかし、 XYたがいに独立どくりつではない場合ばあいは、一致いっちせず、前者ぜんしゃより後者こうしゃほうおおきいになる。両者りょうしゃ情報じょうほうりょう相互そうご情報じょうほうりょうび、

あらわす。相互そうご情報じょうほうりょうつね非負ひふになる。

事象じしょうBしょうじているという条件下じょうけんかにおける事象じしょうA条件じょうけん情報じょうほうりょう によってさだめる。かくりつ変数へんすう Xあたえられたとき、事象じしょう」の条件じょうけん情報じょうほうりょう xかんする加重かじゅう平均へいきん条件じょうけんきエントロピーい、

あらわす。

さらにかくりつ変数へんすう Yあたえられたとき、事象じしょう」がしょうじているという条件下じょうけんかにおける条件じょうけんきエントロピーyかんする加重かじゅう平均へいきん

も、やはり条件じょうけんきエントロピーぶ。

エントロピーの基本きほんてき性質せいしつ[編集へんしゅう]

  • 情報じょうほうりょうかくりつだけによってまる。
  • 情報じょうほうりょう非負ひふまたは無限むげんだいる。
  • nビットのビット列びっとれつ空間くうかん情報じょうほうげん)から(一様いちようランダムとはかぎらない方法ほうほうで)ランダムにビット列びっとれつえらんだときのエントロピーは、n以下いかになる。エントロピーがnになる必要ひつようじゅうふん条件じょうけんは、ビット列びっとれつ一様いちようランダムにえらばれることである。
  • かくりつ変数へんすうXとYが独立どくりつである必要ひつようじゅうふん条件じょうけんは、成立せいりつすることである。

コインげのれい[編集へんしゅう]

あるコインをげたときにひょうかくりつうらかくりつ とする。このコインをげたときにられる平均へいきん情報じょうほうりょう(エントロピー)は、

である。

この関数かんすうエントロピー関数かんすうぶ。

るとかるように、 では H はゼロである。つまり、コインをげるまえからうらまたはひょうることが確実かくじつかっているときにられる平均へいきん情報じょうほうりょうは、ゼロである。 H最大さいだいになるのは のときであり、一般いっぱんにすべての事象じしょう(できごと)がとうかくりつになるときにエントロピーが最大さいだいになる。

連続れんぞくけいのエントロピー[編集へんしゅう]

じつ数値すうちかくりつ変数へんすうXかくりつ密度みつど関数かんすうp(x)とするとき、Xのエントロピーを

によって定義ていぎする。

X有限ゆうげん集合しゅうごうかくりつ変数へんすうである場合ばあいには、Xのシャノン情報じょうほうりょう定義ていぎできる。Xnとおりのるとき、は、

たす。

ただし、ここでnもと集合しゅうごうじょう一様いちよう分布ぶんぷとする(すなわち)。

Renyiエントロピー[編集へんしゅう]

を、だい有限ゆうげん集合しゅうごうであるかくりつ空間くうかんとする。Pうえかくりつ分布ぶんぷとし、非負ひふ実数じっすうとする。

のとき、Pのdegee Renyiエントロピー

によって定義ていぎする。 また、場合ばあいには、Renyiエントロピーを

によって定義ていぎする。

たんRenyiエントロピーった場合ばあい意味いみすることもおおい。

さらに、かくりつ変数へんすうXかくりつ分布ぶんぷPしたがうとき、によって定義ていぎする。

Renyiエントロピーは以下いか性質せいしつたす:

  • 成立せいりつする。
  • はシャノン情報じょうほうりょう 一致いっちする。
  • が2以上いじょう整数せいすう場合ばあいには、 成立せいりつする。ここで、 かくりつ分布ぶんぷ したが独立どくりつどういち分布ぶんぷであって、 をそれぞれしたがってえらんだときに成立せいりつするかくりつとする。
  • 成立せいりつする。この minエントロピーともいう。

歴史れきし[編集へんしゅう]

「エントロピー」の概念がいねん1865ねんルドルフ・クラウジウスがギリシャの「変換へんかん」を意味いみする言葉ことば語源ごげんとして、ねつ力学りきがくにおける気体きたいのある状態じょうたいりょうとして導入どうにゅうした。これは統計とうけい力学りきがくでは微視的びしてき状態じょうたいすう対数たいすう比例ひれいするりょうとしてあらわされる。1929ねんにはレオ・シラードが、気体きたいについての情報じょうほう観測かんそくしゃ獲得かくとくすることと統計とうけい力学りきがくにおけるエントロピーとのあいだ直接ちょくせつ関係かんけいがあることをしめし、現在げんざい 1 ビット(1 シャノン)とりょう統計とうけい力学りきがくk ln 2 に対応たいおうするという関係かんけいみちびいていた[5]

現在げんざい情報じょうほう理論りろんにおけるエントロピーの直接ちょくせつ導入どうにゅう1948ねんクロード・シャノンによるもので、その論文ろんぶん通信つうしん数学すうがくてき理論りろん』でエントロピーの概念がいねん情報じょうほう理論りろん応用おうようした[6]。シャノン自身じしんねつ統計とうけい力学りきがくでこの概念がいねん関連かんれんする概念がいねんがすでに使つかわれていることをらずにこの定義ていぎ到達とうたつしたが、その名称めいしょうかんがえていたとき同僚どうりょうフォン・ノイマンが、ねつ統計とうけい力学りきがくのエントロピーにていることから示唆しさしたもので、フォン・ノイマンは「統計とうけいエントロピーがなになのかを理解りかいしてるひとすくないから、議論ぎろんになったら有利ゆうりであろう」とかたったとされる[7][8]。しかしシャノンはフォン・ノイマンとの会話かいわみとめつつその影響えいきょう否定ひていしている[9]

なお、シャノン以前いぜんにもラルフ・ハートレー1928ねんに、集合しゅうごうAたいしてというりょう考察こうさつしている(“”はAもとかず)。Aうえ一様いちよう分布ぶんぷのエントロピーに一致いっちする。現在げんざいでは、Aハートレー・エントロピー[10]

単位たんい[編集へんしゅう]

情報じょうほうりょう本来ほんらい次元じげんりょうである。しかし、対数たいすうそことしてなにもちいたかによってことなるので,単位たんいけて区別くべつしている。前述ぜんじゅつのように、情報じょうほうりょうかくりつ逆数ぎゃくすう桁数けたすう期待きたいなので、単位たんい桁数けたすうのそれを流用りゅうようする。このため対数たいすうそことして2、e、10をえらんだときの情報じょうほうりょう単位たんいは、それぞれビット(bit)、ナット(nat)、ディット(dit)である。

また、いまのところ主流しゅりゅうではないものの、1997ねん日本工業規格にほんこうぎょうきかく JIS X 0016:1997(これは国際こくさい規格きかく ISO/IEC 2382-16:1996と一致いっちしている)は、これらのりょうあらわ単位たんいべつさだめている。

対数たいすうそこ単位たんい
そこ 通常つうじょう単位たんい JISおよびISOがさだめた単位たんい 備考びこう
2 ビット (bit) シャノン (shannon) lb, しん対数たいすう
e=2.718… ナット (nat) ナット (nat) ln, 自然しぜん対数たいすう
10 ディット (dit) ハートレー (hartley) lg, 常用じょうよう対数たいすう

単位たんい「シャノン」、「ハートレー」の名称めいしょうは、それぞれ情報じょうほうりょう概念がいねん提案ていあんしたクロード・シャノンラルフ・ハートレーにちなむ。

脚注きゃくちゅう[編集へんしゅう]

  1. ^ Gray, Robert M. (2013-03-14) (英語えいご). Entropy and Information Theory. Springer Science & Business Media. ISBN 978-1-4757-3982-4. https://books.google.co.jp/books?id=ZoTSBwAAQBAJ&pg=PA23&q=entropy+as+a+function+of+the+partition 
  2. ^ この分割ぶんかつ離散りさんがたかくりつ変数へんすうかくりつ質量しつりょう関数かんすうから誘導ゆうどうされることもある[1]
  3. ^ Cover, Thomas M.; Thomas, Joy A. (2012-11-28) (英語えいご). Elements of Information Theory. John Wiley & Sons. ISBN 978-1-118-58577-1. https://books.google.co.jp/books?id=VWq5GG6ycxMC&pg=PA14 
  4. ^ fX(x)くこともある。
  5. ^ Szilard, L. (1929) "Über die Entropieverminderung in einem Thermodynamischen System bei Eingriffen Intelligenter Wesen", Zeitschrift für Physik 53:840–856
  6. ^ Cover & Thomas 2006, Historical Notes.
  7. ^ 『ファインマン計算けいさん科学かがく』 p. 96 ファインマンによる脚注きゃくちゅう*8で、「いいつたえによれば」とことわりのうえでこのせつ紹介しょうかいしている。
  8. ^ かんふとししゅん小林こばやし欣吾きんご情報じょうほう符号ふごう数理すうり
  9. ^ CLAUDE E. SHANNON: An Interview Conducted by Robert Price, 28 July 1982
  10. ^ なお、JIS X 0016:1997 で定義ていぎされる選択せんたく情報じょうほうりょう(decision content)もおな定義ていぎである。「たがいに排反はいはん事象じしょうから有限ゆうげん集合しゅうごうちゅう事象じしょうかず対数たいすう。」

参考さんこう文献ぶんけん[編集へんしゅう]

関連かんれん項目こうもく[編集へんしゅう]

外部がいぶリンク[編集へんしゅう]