情報 じょうほう 量 りょう (じょうほうりょう)やエントロピー (英 えい : entropy )は、情報 じょうほう 理論 りろん の概念 がいねん で、あるできごと(事象 じしょう )が起 お きた際 さい 、それがどれほど起 お こりにくいかを表 あらわ す尺度 しゃくど である。ありふれたできごと(たとえば「風 かぜ の音 おと 」)が起 お こったことを知 し ってもそれはたいした「情報 じょうほう 」にはならないが、逆 ぎゃく に珍 めずら しいできごと(たとえば「曲 きょく の演奏 えんそう 」)が起 お これば、それはより多 おお くの「情報 じょうほう 」を含 ふく んでいると考 かんが えられる。情報 じょうほう 量 りょう はそのできごとが本質 ほんしつ 的 てき にどの程度 ていど の情報 じょうほう を持 も つかの尺度 しゃくど であるとみなすこともできる。
なおここでいう「情報 じょうほう 」とは、あくまでそのできごとの起 お こりにくさ(確 かく 率 りつ )だけによって決 き まる数学 すうがく 的 てき な量 りょう でしかなく、個人 こじん ・社会 しゃかい における有用 ゆうよう 性 せい とは無関係 むかんけい である。たとえば「自分 じぶん が宝 たから くじに当 あ たった」と「見知 みし らぬAさんが宝 たから くじに当 あ たった」は、前者 ぜんしゃ の方 ほう が有用 ゆうよう な情報 じょうほう に見 み えるが、両者 りょうしゃ の情報 じょうほう 量 りょう は全 まった く同 おな じである(宝 たから くじが当 あ たる確 かく 率 りつ は所与 しょよ 条件 じょうけん 一定 いってい のもとでは誰 だれ でも同 おな じであるため)。
自己 じこ 情報 じょうほう 量 りょう (自己 じこ エントロピー)と平均 へいきん 情報 じょうほう 量 りょう (エントロピー)[ 編集 へんしゅう ]
それぞれのできごとの情報 じょうほう 量 りょう だけでなく、それらのできごとの情報 じょうほう 量 りょう の平均 へいきん 値 ち も情報 じょうほう 量 りょう と呼 よ ぶ。両者 りょうしゃ を区別 くべつ する場合 ばあい には、前者 ぜんしゃ を自己 じこ 情報 じょうほう 量 りょう (自己 じこ エントロピー とも)、後者 こうしゃ を平均 へいきん 情報 じょうほう 量 りょう (エントロピー とも)と呼 よ ぶ。
自己 じこ 情報 じょうほう 量 りょう [ 編集 へんしゅう ]
事象 じしょう
E
{\displaystyle E}
が起 お こる確 かく 率 りつ を
P
(
E
)
{\displaystyle P(E)}
とするとき、事象 じしょう
E
{\displaystyle E}
が起 お こったことを知 し らされたとき受 う け取 と る自己 じこ 情報 じょうほう 量 りょう
I
(
E
)
{\displaystyle I(E)}
は、以下 いか で定義 ていぎ される:
I
(
E
)
=
log
1
P
(
E
)
=
−
log
P
(
E
)
{\displaystyle I(E)=\log {\frac {1}{P(E)}}=-\log P(E)}
確 かく 率 りつ は
0
≤
P
(
E
)
≤
1
{\displaystyle 0\leq P(E)\leq 1}
なので自己 じこ 情報 じょうほう 量 りょう
I
(
E
)
{\displaystyle I(E)}
は非負 ひふ である。また対数 たいすう の単調 たんちょう 増加 ぞうか 性 せい により、起 お こりにくい事象 じしょう (=生起 せいき 確 かく 率 りつ が低 ひく い事象 じしょう )の情報 じょうほう 量 りょう ほど値 ね が大 おお きい。
対数 たいすう の底 そこ として何 なに を選 えら んでも情報 じょうほう 量 りょう の値 ね が定数 ていすう 倍 ばい 変 か わるだけなので本質 ほんしつ 的 てき な差 さ はない。慣習 かんしゅう 的 てき に底 そこ に2を選 えら ぶことが多 おお い。底 そこ が2の場合 ばあい 、
1
/
2
n
{\displaystyle 1/2^{n}}
の確 かく 率 りつ で起 お こる事象 じしょう の情報 じょうほう 量 りょう は
n
{\displaystyle n}
である。
直観 ちょっかん 的 てき 意味 いみ [ 編集 へんしゅう ]
整数 せいすう
u
{\displaystyle u}
に対 たい し、
u
{\displaystyle u}
の対数 たいすう
log
m
u
{\displaystyle \log _{m}u}
は
m
{\displaystyle m}
進 すすむ 法 ほう での
u
{\displaystyle u}
の桁数 けたすう にほぼ等 ひと しい値 ね を表 あらわ す。したがって、確 かく 率 りつ
1
/
u
{\displaystyle 1/u}
で起 お こる事象 じしょう の情報 じょうほう 量 りょう は、ほぼ
u
{\displaystyle u}
の桁数 けたすう になる。
情報 じょうほう 量 りょう の加法 かほう 性 せい [ 編集 へんしゅう ]
情報 じょうほう 量 りょう は加法 かほう 性 せい を持 も つ。すなわち独立 どくりつ な事象 じしょう AとBに対 たい し、事象 じしょう 「AもBも起 お こる」の情報 じょうほう 量 りょう は、Aの情報 じょうほう 量 りょう とBの情報 じょうほう 量 りょう の和 やわ である。これは以下 いか で証明 しょうめい される。
I
(
A
,
B
)
=
−
log
P
(
A
,
B
)
=
−
log
(
P
(
A
)
⋅
P
(
B
)
)
=
−
(
log
P
(
A
)
+
log
P
(
B
)
)
=
I
(
A
)
+
I
(
B
)
{\displaystyle I(A,B)=-\log P(A,B)=-\log(P(A)\cdot P(B))=-(\log P(A)+\log P(B))=I(A)+I(B)}
例 たと えば、52枚 まい のトランプ から無作為 むさくい に1枚 まい を取 と り出 だ すという試行 しこう を考 かんが える。「取 と り出 だ したカードはハートの4である」という事象 じしょう の情報 じょうほう 量 りょう は、前述 ぜんじゅつ の定義 ていぎ から log 52 であると分 わ かる。ここで、「取 と り出 だ したカードのスート はハートである」という事象 じしょう と「取 と り出 だ したカードの数字 すうじ は4である」という事象 じしょう の二 ふた つを考 かんが えると、前者 ぜんしゃ の情報 じょうほう 量 りょう は log 4 、後者 こうしゃ は log 13 である。この両者 りょうしゃ の和 わ は log 4 + log 13 = log (4×13) = log 52 となり、「取 と り出 だ したカードはハートの4である」という事象 じしょう の情報 じょうほう 量 りょう と等 ひと しい。これは「独立 どくりつ した情報 じょうほう の和 わ が、全体 ぜんたい の情報 じょうほう 量 りょう と一致 いっち する」という直感 ちょっかん 的 てき 要請 ようせい に合致 がっち する。
情報 じょうほう 量 りょう に対 たい する直感 ちょっかん 的 てき 要請 ようせい には「発生 はっせい 確 かく 率 りつ が低 ひく いほど大 おお きく(単調 たんちょう 減少 げんしょう 性 せい )」「確 かく 率 りつ に関 かん して連続 れんぞく 的 てき に変化 へんか し(連続 れんぞく 性 せい )」「独立 どくりつ 同時 どうじ 事象 じしょう の情報 じょうほう 量 りょう が周辺 しゅうへん 事象 じしょう の情報 じょうほう 量 りょう 和 やわ に等 ひと しい(加法 かほう 性 せい )」の三 さん 条件 じょうけん が挙 あ げられる。この3条件 じょうけん を満 み たす関数 かんすう はコーシーの函数 かんすう 方程式 ほうていしき を利用 りよう することで
C
log
p
{\displaystyle C\log p}
と一意 いちい に求 もと まる。よって情報 じょうほう 量 りょう の定義 ていぎ は上記 じょうき の3条件 じょうけん から一意 いちい に導出 どうしゅつ できる。典型 てんけい 的 てき には対数 たいすう の底 そこ を2としてp =1/2 で1となるようにCを設定 せってい (C=-1 )する。
平均 へいきん 情報 じょうほう 量 りょう (エントロピー)[ 編集 へんしゅう ]
(
Ω おめが
,
F
,
P
)
{\displaystyle (\Omega ,{\mathcal {F}},P)}
を確 かく 率 りつ 空間 くうかん とする。全 ぜん 事象 じしょう Ω おめが の分割 ぶんかつ
A
i
{\displaystyle A_{i}}
が与 あた えられたとき[2] 、各 かく 事象 じしょう
A
i
∈
Ω おめが
{\displaystyle A_{i}\in \Omega }
の自己 じこ 情報 じょうほう 量 りょう
I
(
A
i
)
{\displaystyle I(A_{i})}
で定義 ていぎ した値 ね
H
(
P
)
=
∑
A
i
∈
Ω おめが
P
(
A
i
)
I
(
A
i
)
=
−
∑
A
i
∈
Ω おめが
P
(
A
i
)
log
P
(
A
i
)
{\displaystyle H(P)=\sum _{A_{i}\in \Omega }P(A_{i})\ I(A_{i})=-\sum _{A_{i}\in \Omega }P(A_{i})\log P(A_{i})}
を確 かく 率 りつ 測度 そくど P のエントロピー H (P ) と呼 よ ぶ(平均 へいきん 情報 じょうほう 量 りょう 、シャノン情報 じょうほう 量 りょう 、情報 じょうほう 論 ろん のエントロピー とも)。ただし、ここで
P
(
A
i
)
=
0
{\displaystyle P(A_{i})=0}
のときは、
P
(
A
i
)
log
P
(
A
i
)
=
0
{\displaystyle P(A_{i})\log P(A_{i})=0}
とみなす。これは
lim
p
→
0
+
p
log
p
=
0
{\displaystyle \lim _{p\to 0+}{p\log p}=0}
であることによる。
また、離散 りさん 型 がた 確 かく 率 りつ 変数 へんすう X が確 かく 率 りつ 分布 ぶんぷ P に従 したが う場合 ばあい には、 X のエントロピー H (X ) を自己 じこ 情報 じょうほう 量 りょう I の期待 きたい 値 ち によって定義 ていぎ する。すなわち、
H
(
X
)
=
E
P
[
I
(
X
)
]
=
−
∑
x
∈
X
f
X
(
x
)
log
f
X
(
x
)
{\displaystyle H(X)=\mathbb {E} _{P}[I(X)]=-\sum _{x\in X}f_{X}(x)\log f_{X}(x)}
である[3] 。ここで f X は X の確 かく 率 りつ 質量 しつりょう 関数 かんすう である[4] 。
0
≦
I
(
⋅
)
{\displaystyle 0\leqq I(\cdot )}
より、エントロピーは常 つね に非負 ひふ である。
確 かく 率 りつ 変数 へんすう X と Y の組 くみ (X , Y ) も確 かく 率 りつ 変数 へんすう とみなせる。この確 かく 率 りつ 変数 へんすう の値 ね の発生 はっせい 確 かく 率 りつ すなわち同時 どうじ 確 かく 率 りつ を
P
X
,
Y
(
X
,
Y
)
{\displaystyle P_{X,Y}(X,Y)}
とすると、 (X , Y ) のエントロピー
H
(
X
,
Y
)
{\displaystyle H(X,Y)}
は
H
(
X
,
Y
)
=
E
P
X
,
Y
[
I
(
X
,
Y
)
]
=
−
∑
(
x
,
y
)
∈
(
X
,
Y
)
P
X
,
Y
(
x
,
y
)
log
P
X
,
Y
(
x
,
y
)
{\displaystyle H(X,Y)=\mathbb {E} _{P_{X,Y}}[I(X,Y)]=-\sum _{(x,y)\in (X,Y)}P_{X,Y}(x,y)\log P_{X,Y}(x,y)}
になる。これを結合 けつごう エントロピー と呼 よ ぶ。
(X , Y ) が互 たが いに独立 どくりつ な確 かく 率 りつ 変数 へんすう である場合 ばあい には、
H
(
X
,
Y
)
{\displaystyle H(X,Y)}
は
H
(
X
)
+
H
(
Y
)
{\displaystyle H(X)+H(Y)}
に一致 いっち する。すなわち、全体 ぜんたい の情報 じょうほう 量 りょう
H
(
X
,
Y
)
{\displaystyle H(X,Y)}
は、それぞれの確 かく 率 りつ 変数 へんすう の情報 じょうほう 量 りょう の和 やわ である。
しかし、 X と Y が互 たが いに独立 どくりつ ではない場合 ばあい は、
H
(
X
,
Y
)
{\displaystyle H(X,Y)}
と
H
(
X
)
+
H
(
Y
)
{\displaystyle H(X)+H(Y)}
は一致 いっち せず、前者 ぜんしゃ より後者 こうしゃ の方 ほう が大 おお きい値 ね になる。両者 りょうしゃ の情報 じょうほう 量 りょう の差 さ を相互 そうご 情報 じょうほう 量 りょう と呼 よ び、
I
(
X
,
Y
)
=
H
(
X
)
+
H
(
Y
)
−
H
(
X
,
Y
)
{\displaystyle I(X,Y)=H(X)+H(Y)-H(X,Y)}
で表 あらわ す。相互 そうご 情報 じょうほう 量 りょう は常 つね に非負 ひふ の値 ね になる。
事象 じしょう B が生 しょう じているという条件下 じょうけんか における事象 じしょう A の条件 じょうけん 付 つ き情報 じょうほう 量 りょう を
−
log
Pr
(
A
∣
B
)
{\displaystyle -\log \Pr(A\mid B)}
によって定 さだ める。確 かく 率 りつ 変数 へんすう X が与 あた えられたとき、事象 じしょう 「
X
=
x
{\displaystyle X=x}
」の条件 じょうけん 付 つ き情報 じょうほう 量 りょう
−
log
Pr
(
X
=
x
∣
B
)
{\displaystyle -\log \Pr(X=x\mid B)}
の x に関 かん する加重 かじゅう 平均 へいきん を条件 じょうけん 付 つ きエントロピー と言 い い、
H
(
X
∣
B
)
=
E
P
X
∣
B
[
I
(
X
∣
B
)
]
=
−
∑
x
∈
X
Pr
(
X
=
x
∣
B
)
log
Pr
(
X
=
x
∣
B
)
{\displaystyle H(X\mid B)=\mathbb {E} _{P_{X\mid B}}[I(X\mid B)]=-\sum _{x\in X}\Pr(X=x\mid B)\log \Pr(X=x\mid B)}
で表 あらわ す。
さらに確 かく 率 りつ 変数 へんすう Y が与 あた えられたとき、事象 じしょう 「
Y
=
y
{\displaystyle Y=y}
」が生 しょう じているという条件下 じょうけんか における条件 じょうけん 付 つ きエントロピー
H
(
X
∣
Y
=
y
)
{\displaystyle H(X\mid Y=y)}
の y に関 かん する加重 かじゅう 平均 へいきん
H
(
X
∣
Y
)
=
∑
y
∈
Y
Pr
(
Y
=
y
)
H
(
X
∣
Y
=
y
)
=
−
∑
x
∈
X
,
y
∈
Y
Pr
(
X
=
x
,
Y
=
y
)
log
Pr
(
X
=
x
∣
Y
=
y
)
{\displaystyle H(X\mid Y)=\sum _{y\in Y}\Pr(Y=y)H(X\mid Y=y)=-\sum _{x\in X,y\in Y}\Pr(X=x,Y=y)\log {\Pr(X=x\mid Y=y)}}
も、やはり条件 じょうけん 付 つ きエントロピー と呼 よ ぶ。
エントロピーの基本 きほん 的 てき 性質 せいしつ [ 編集 へんしゅう ]
情報 じょうほう 量 りょう は確 かく 率 りつ だけによって決 き まる。
情報 じょうほう 量 りょう は非負 ひふ の値 ね または無限 むげん 大 だい を取 と る。
nビットのビット列 びっとれつ の空間 くうかん (情報 じょうほう 源 げん )から(一様 いちよう ランダムとは限 かぎ らない方法 ほうほう で)ランダムにビット列 びっとれつ を選 えら んだときのエントロピーは、n以下 いか になる。エントロピーがnになる必要 ひつよう 十 じゅう 分 ふん 条件 じょうけん は、ビット列 びっとれつ が一様 いちよう ランダムに選 えら ばれることである。
確 かく 率 りつ 変数 へんすう XとYが独立 どくりつ である必要 ひつよう 十 じゅう 分 ふん 条件 じょうけん は、
H
(
X
)
+
H
(
Y
)
=
H
(
X
,
Y
)
{\displaystyle H(X)+H(Y)=H(X,Y)}
が成立 せいりつ することである。
あるコインを投 な げたときに表 ひょう が出 で る確 かく 率 りつ を
p
{\displaystyle p}
、裏 うら が出 で る確 かく 率 りつ を
1
−
p
{\displaystyle 1-p}
とする。このコインを投 な げたときに得 え られる平均 へいきん 情報 じょうほう 量 りょう (エントロピー)は、
H
(
X
)
=
−
p
log
p
−
(
1
−
p
)
log
(
1
−
p
)
{\displaystyle H(X)=-p\log {p}-(1-p)\log {(1-p)}}
である。
この関数 かんすう
f
(
p
)
=
−
p
log
p
−
(
1
−
p
)
log
(
1
−
p
)
{\displaystyle f(p)=-p\log {p}-(1-p)\log {(1-p)}}
をエントロピー関数 かんすう と呼 よ ぶ。
図 ず を見 み ると分 わ かるように、
p
=
0
{\displaystyle p=0}
と
p
=
1
{\displaystyle p=1}
では H はゼロである。つまり、コインを投 な げる前 まえ から裏 うら または表 ひょう が出 で ることが確実 かくじつ に分 わ かっているときに得 え られる平均 へいきん 情報 じょうほう 量 りょう は、ゼロである。 H が最大 さいだい になるのは
p
=
1
/
2
{\displaystyle p=1/2}
のときであり、一般 いっぱん にすべての事象 じしょう (できごと)が等 とう 確 かく 率 りつ になるときにエントロピーが最大 さいだい になる。
連続 れんぞく 系 けい のエントロピー[ 編集 へんしゅう ]
実 じつ 数値 すうち を取 と る確 かく 率 りつ 変数 へんすう X の確 かく 率 りつ 密度 みつど 関数 かんすう をp (x )とするとき、X のエントロピーを
h
(
X
)
=
−
∫
−
∞
∞
p
(
x
)
log
p
(
x
)
d
x
{\displaystyle h(X)=-\int _{-\infty }^{\infty }p(x)\log p(x)dx}
によって定義 ていぎ する。
X が有限 ゆうげん 集合 しゅうごう に値 ね を取 と る確 かく 率 りつ 変数 へんすう である場合 ばあい には、X のシャノン情報 じょうほう 量 りょう
H
(
X
)
{\displaystyle H(X)}
も定義 ていぎ できる。X がn 通 とお りの値 ね を取 と るとき、
H
(
X
)
{\displaystyle H(X)}
と
h
(
X
)
{\displaystyle h(X)}
は、
h
(
X
)
=
H
(
U
n
)
−
H
(
X
)
{\displaystyle h(X)=H(U_{n})-H(X)}
を満 み たす。
ただし、ここで
U
n
{\displaystyle U_{n}}
はn 元 もと 集合 しゅうごう 上 じょう の一様 いちよう 分布 ぶんぷ とする(すなわち
H
(
U
n
)
=
log
n
{\displaystyle H(U_{n})=\log n}
)。
Ω おめが
{\displaystyle \Omega }
を、台 だい が有限 ゆうげん 集合 しゅうごう である確 かく 率 りつ 空間 くうかん とする。P を
Ω おめが
{\displaystyle \Omega }
上 うえ の確 かく 率 りつ 分布 ぶんぷ とし、
α あるふぁ
{\displaystyle \alpha }
を非負 ひふ の実数 じっすう とする。
α あるふぁ
≠
1
{\displaystyle \alpha \neq 1}
のとき、P のdegee
α あるふぁ
{\displaystyle \alpha }
のRenyiエントロピー を
H
α あるふぁ
(
P
)
=
log
(
∑
A
∈
Ω おめが
P
(
A
)
α あるふぁ
)
1
−
α あるふぁ
{\displaystyle H_{\alpha }(P)={\frac {\log(\sum _{A\in \Omega }P(A)^{\alpha })}{1-\alpha }}}
によって定義 ていぎ する。
また、
α あるふぁ
=
1
,
∞
{\displaystyle \alpha =1,\infty }
の場合 ばあい には、Renyiエントロピーを
{
H
1
(
P
)
=
lim
α あるふぁ
→
1
H
α あるふぁ
(
P
)
H
∞
(
P
)
=
lim
α あるふぁ
→
∞
H
α あるふぁ
(
P
)
{\displaystyle \left\{{\begin{array}{lll}H_{1}(P)&=\lim _{\alpha \to 1}&H_{\alpha }(P)\\H_{\infty }(P)&=\lim _{\alpha \to \infty }&H_{\alpha }(P)\end{array}}\right.}
によって定義 ていぎ する。
単 たん にRenyiエントロピー と言 い った場合 ばあい は
H
2
(
P
)
{\displaystyle H_{2}(P)}
を意味 いみ することも多 おお い。
さらに、確 かく 率 りつ 変数 へんすう X が確 かく 率 りつ 分布 ぶんぷ P に従 したが うとき、
H
α あるふぁ
(
X
)
{\displaystyle H_{\alpha }(X)}
を
H
α あるふぁ
(
X
)
=
H
α あるふぁ
(
P
)
{\displaystyle H_{\alpha }(X)=H_{\alpha }(P)}
によって定義 ていぎ する。
Renyiエントロピーは以下 いか の性質 せいしつ を満 み たす:
H
0
(
P
)
=
log
#
Ω おめが
{\displaystyle H_{0}(P)=\log \#\Omega }
が成立 せいりつ する。
H
1
(
P
)
{\displaystyle H_{1}(P)}
はシャノン情報 じょうほう 量 りょう
H
(
P
)
=
−
∑
A
∈
Ω おめが
P
(
A
)
log
P
(
A
)
{\displaystyle H(P)=-\sum _{A\in \Omega }P(A)\log P(A)}
と一致 いっち する。
α あるふぁ
{\displaystyle \alpha }
が2以上 いじょう の整数 せいすう の場合 ばあい には、
H
α あるふぁ
(
P
)
=
1
1
−
α あるふぁ
log
Pr
(
X
1
=
⋯
=
X
α あるふぁ
)
{\displaystyle H_{\alpha }(P)={\frac {1}{1-\alpha }}\log \Pr(X_{1}=\cdots =X_{\alpha })}
が成立 せいりつ する。ここで、
X
1
,
…
,
X
α あるふぁ
{\displaystyle X_{1},\ldots ,X_{\alpha }}
は確 かく 率 りつ 分布 ぶんぷ
P
{\displaystyle P}
に従 したが う独立 どくりつ 同 どう 一 いち 分布 ぶんぷ であって、
Pr
(
X
1
=
⋯
=
X
α あるふぁ
)
{\displaystyle \Pr(X_{1}=\cdots =X_{\alpha })}
は
x
1
,
…
,
x
α あるふぁ
{\displaystyle x_{1},\ldots ,x_{\alpha }}
をそれぞれ
X
1
,
…
,
X
α あるふぁ
{\displaystyle X_{1},\ldots ,X_{\alpha }}
に従 したが って選 えら んだときに
x
1
=
⋯
=
x
α あるふぁ
{\displaystyle x_{1}=\cdots =x_{\alpha }}
が成立 せいりつ する確 かく 率 りつ とする。
H
∞
(
P
)
=
min
A
∈
Ω おめが
{
−
log
P
(
A
)
}
{\displaystyle H_{\infty }(P)=\min _{A\in \Omega }\{-\log P(A)\}}
が成立 せいりつ する。この
H
∞
(
P
)
{\displaystyle H_{\infty }(P)}
をminエントロピー ともいう。
「エントロピー」の概念 がいねん は1865年 ねん にルドルフ・クラウジウス がギリシャ語 ご の「変換 へんかん 」を意味 いみ する言葉 ことば を語源 ごげん として、熱 ねつ 力学 りきがく における気体 きたい のある状態 じょうたい 量 りょう として導入 どうにゅう した。これは統計 とうけい 力学 りきがく では微視的 びしてき な状態 じょうたい 数 すう の対数 たいすう に比例 ひれい する量 りょう として表 あらわ される。1929年 ねん にはレオ・シラード が、気体 きたい についての情報 じょうほう を観測 かんそく 者 しゃ が獲得 かくとく することと統計 とうけい 力学 りきがく におけるエントロピーとの間 あいだ に直接 ちょくせつ の関係 かんけい があることを示 しめ し、現在 げんざい 1 ビット(1 シャノン)と呼 よ ぶ量 りょう が統計 とうけい 力学 りきがく で k ln 2 に対応 たいおう するという関係 かんけい を導 みちび いていた[5] 。
現在 げんざい の情報 じょうほう 理論 りろん におけるエントロピーの直接 ちょくせつ の導入 どうにゅう は1948年 ねん のクロード・シャノン によるもので、その論文 ろんぶん 『通信 つうしん の数学 すうがく 的 てき 理論 りろん 』でエントロピーの概念 がいねん を情報 じょうほう 理論 りろん に応用 おうよう した。シャノン自身 じしん は熱 ねつ 統計 とうけい 力学 りきがく でこの概念 がいねん と関連 かんれん する概念 がいねん がすでに使 つか われていることを知 し らずにこの定義 ていぎ に到達 とうたつ したが、その名称 めいしょう を考 かんが えていたとき同僚 どうりょう フォン・ノイマン が、熱 ねつ 統計 とうけい 力学 りきがく のエントロピーに似 に ていることから示唆 しさ したもので、フォン・ノイマンは「統計 とうけい エントロピーが何 なに なのかを理解 りかい してる人 ひと は少 すく ないから、議論 ぎろん になったら有利 ゆうり であろう」と語 かた ったとされる[7] [8] 。しかしシャノンはフォン・ノイマンとの会話 かいわ は認 みと めつつその影響 えいきょう を否定 ひてい している[9] 。
なお、シャノン以前 いぜん にもラルフ・ハートレー が1928年 ねん に、集合 しゅうごう A に対 たい して
log
#
A
{\displaystyle \log \#A}
という量 りょう を考察 こうさつ している(“
#
A
{\displaystyle \#A}
”はA の元 もと 数 かず )。
log
#
A
{\displaystyle \log \#A}
はA 上 うえ の一様 いちよう 分布 ぶんぷ のエントロピーに一致 いっち する。現在 げんざい では、
log
#
A
{\displaystyle \log \#A}
をA のハートレー・エントロピー と呼 よ ぶ[10] 。
情報 じょうほう 量 りょう は本来 ほんらい 無 む 次元 じげん の量 りょう である。しかし、対数 たいすう の底 そこ として何 なに を用 もち いたかによって値 ね が異 こと なるので,単位 たんい を付 つ けて区別 くべつ している。前述 ぜんじゅつ のように、情報 じょうほう 量 りょう は確 かく 率 りつ の逆数 ぎゃくすう の桁数 けたすう の期待 きたい 値 ち なので、単位 たんい も桁数 けたすう のそれを流用 りゅうよう する。この為 ため 、対数 たいすう の底 そこ として2、e 、10を選 えら んだときの情報 じょうほう 量 りょう の単位 たんい は、それぞれビット (bit)、ナット (nat)、ディット (dit)である。
また、今 いま のところ主流 しゅりゅう ではないものの、1997年 ねん に日本工業規格 にほんこうぎょうきかく JIS X 0016:1997(これは国際 こくさい 規格 きかく ISO /IEC 2382-16:1996と一致 いっち している)は、これらの量 りょう を表 あらわ す単位 たんい を別 べつ に定 さだ めている。
対数 たいすう の底 そこ と単位 たんい
底 そこ
通常 つうじょう の単位 たんい
JISおよびISOが定 さだ めた単位 たんい
備考 びこう
2
ビット (bit)
シャノン (shannon)
lb, 二 に 進 しん 対数 たいすう
e =2.718…
ナット (nat)
ナット (nat)
ln, 自然 しぜん 対数 たいすう
10
ディット (dit)
ハートレー (hartley)
lg, 常用 じょうよう 対数 たいすう
単位 たんい 「シャノン」、「ハートレー」の名称 めいしょう は、それぞれ情報 じょうほう 量 りょう の概念 がいねん を提案 ていあん したクロード・シャノン 、ラルフ・ハートレー にちなむ。
^ Gray, Robert M. (2013-03-14) (英語 えいご ). Entropy and Information Theory . Springer Science & Business Media. ISBN 978-1-4757-3982-4 . https://books.google.co.jp/books?id=ZoTSBwAAQBAJ&pg=PA23&q=entropy+as+a+function+of+the+partition
^ この分割 ぶんかつ は離散 りさん 型 がた 確 かく 率 りつ 変数 へんすう の確 かく 率 りつ 質量 しつりょう 関数 かんすう から誘導 ゆうどう されることもある[1] 。
^ Cover, Thomas M.; Thomas, Joy A. (2012-11-28) (英語 えいご ). Elements of Information Theory . John Wiley & Sons. ISBN 978-1-118-58577-1 . https://books.google.co.jp/books?id=VWq5GG6ycxMC&pg=PA14
^ f X (x ) を
P
X
(
x
)
=
P
(
X
=
x
)
=
P
(
{
ω おめが
∈
Ω おめが
∣
X
(
ω おめが
)
=
x
}
)
{\displaystyle P_{X}(x)=P(X=x)=P(\{\omega \in \Omega \mid X(\omega )=x\})}
と書 か くこともある。
^ Szilard, L. (1929) "Über die Entropieverminderung in einem Thermodynamischen System bei Eingriffen Intelligenter Wesen", Zeitschrift für Physik 53 :840–856
^ 『ファインマン計算 けいさん 機 き 科学 かがく 』 p. 96 ファインマンによる脚注 きゃくちゅう *8で、「い伝 いつた えによれば」と断 ことわ りのうえでこの説 せつ を紹介 しょうかい している。
^ 韓 かん 太 ふとし 舜 しゅん 、小林 こばやし 欣吾 きんご 『情報 じょうほう と符号 ふごう の数理 すうり 』
^ CLAUDE E. SHANNON: An Interview Conducted by Robert Price, 28 July 1982
^ なお、JIS X 0016:1997 で定義 ていぎ される選択 せんたく 情報 じょうほう 量 りょう (decision content)も同 おな じ定義 ていぎ である。「互 たが いに排反 はいはん な事象 じしょう から成 な る有限 ゆうげん 集合 しゅうごう 中 ちゅう の事象 じしょう の数 かず の対数 たいすう 。」