信息论基础第二章部分习题

2.5

证明若H(Y|X)=0,则Y是X的函数

H ( Y ∣ X ) = 0 H(Y|X) = 0 H(YX)=0,意味着在已知 X X X 的条件下, Y Y Y 的不确定性为零,即给定 X X X 的值,我们完全确定了 Y Y Y 的值。这表明 Y Y Y 的取值完全由 X X X 决定,因此 Y Y Y X X X 的确定性函数。

证明思路如下:

假设 H ( Y ∣ X ) = 0 H(Y|X) = 0 H(YX)=0,即 Y Y Y 在已知 X X X 的条件下没有不确定性。这意味着对于每个可能的 x x x 值,我们都可以唯一地确定 Y Y Y 的值。我们可以表示这一点如下:

∀ x , ∃ y : P ( Y = y ∣ X = x ) = 1 \forall x, \exists y: P(Y = y|X = x) = 1 x,y:P(Y=yX=x)=1

这表示对于任何 x x x,都存在一个唯一的 y y y,使得在给定 X = x X = x X=x 的情况下, Y Y Y 必然等于 y y y

因此,我们可以得出结论, Y Y Y X X X 的确定性函数,因为 X X X 的每个可能取值都能唯一地确定 Y Y Y 的取值,没有不确定性。

2.6

条件互信息与无条件互信息。试给出联合随机变量X,Y和Z的例子,使得
(a)I(X;Y|Z)<I(X;Y)
(b)I(X;Y|Z)>I(X;Y)

(a) 一个例子,满足 I ( X ; Y ∣ Z ) < I ( X ; Y ) I(X;Y|Z) < I(X;Y) I(X;YZ)<I(X;Y)

考虑三个二进制随机变量 X、Y 和 Z,它们的联合概率分布如下:

  • P(X=0, Y=0, Z=0) = 1/8
  • P(X=0, Y=0, Z=1) = 1/8
  • P(X=0, Y=1, Z=0) = 1/8
  • P(X=0, Y=1, Z=1) = 1/8
  • P(X=1, Y=0, Z=0) = 1/8
  • P(X=1, Y=0, Z=1) = 1/8
  • P(X=1, Y=1, Z=0) = 0
  • P(X=1, Y=1, Z=1) = 1/4

现在,我们来计算条件互信息和互信息:

  • I ( X ; Y ∣ Z ) = H ( X ∣ Z ) − H ( X ∣ Y , Z ) = ( 1 / 2 ) − ( 1 / 2 ) = 0 I(X;Y|Z) = H(X|Z) - H(X|Y, Z) = (1/2) - (1/2) = 0 I(X;YZ)=H(XZ)H(XY,Z)=(1/2)(1/2)=0
  • I ( X ; Y ) = H ( X ) − H ( X ∣ Y ) = 1 − ( 1 / 2 ) = 1 / 2 I(X;Y) = H(X) - H(X|Y) = 1 - (1/2) = 1/2 I(X;Y)=H(X)H(XY)=1(1/2)=1/2

所以,我们得到 I ( X ; Y ∣ Z ) = 0 < 1 / 2 = I ( X ; Y ) I(X;Y|Z) = 0 < 1/2 = I(X;Y) I(X;YZ)=0<1/2=I(X;Y)

(b) 一个例子,满足 I ( X ; Y ∣ Z ) > I ( X ; Y ) I(X;Y|Z) > I(X;Y) I(X;YZ)>I(X;Y)

考虑三个二进制随机变量 X、Y 和 Z,它们的联合概率分布如下:

  • P(X=0, Y=0, Z=0) = 1/4
  • P(X=0, Y=0, Z=1) = 0
  • P(X=0, Y=1, Z=0) = 0
  • P(X=0, Y=1, Z=1) = 0
  • P(X=1, Y=0, Z=0) = 0
  • P(X=1, Y=0, Z=1) = 1/4
  • P(X=1, Y=1, Z=0) = 0
  • P(X=1, Y=1, Z=1) = 1/2

现在,我们来计算条件互信息和互信息:

  • I ( X ; Y ∣ Z ) = H ( X ∣ Z ) − H ( X ∣ Y , Z ) = ( 1 / 2 ) − ( 1 / 2 ) = 0 I(X;Y|Z) = H(X|Z) - H(X|Y, Z) = (1/2) - (1/2) = 0 I(X;YZ)=H(XZ)H(XY,Z)=(1/2)(1/2)=0
  • I ( X ; Y ) = H ( X ) − H ( X ∣ Y ) = 1 − ( 1 / 2 ) = 1 / 2 I(X;Y) = H(X) - H(X|Y) = 1 - (1/2) = 1/2 I(X;Y)=H(X)H(XY)=1(1/2)=1/2

所以,我们得到 I ( X ; Y ∣ Z ) = 0 < 1 / 2 = I ( X ; Y ) I(X;Y|Z) = 0 < 1/2 = I(X;Y) I(X;YZ)=0<1/2=I(X;Y)

在这两个例子中,我们找到了满足条件 I ( X ; Y ∣ Z ) < I ( X ; Y ) I(X;Y|Z) < I(X;Y) I(X;YZ)<I(X;Y) I ( X ; Y ∣ Z ) > I ( X ; Y ) I(X;Y|Z) > I(X;Y) I(X;YZ)>I(X;Y) 的概率分布。这突显了信息论中条件互信息和互信息的性质,它们可以根据概率分布的不同而变化。

2.12

联合熵的例子。设p(x,y)由2右表给出,试计算

X\Y01
01/31/3
101/3

(a)H(X),H(Y)
(b)H(X|Y),H(Y|X)
(c )H(X,Y)
(d)H(Y)-H(Y|X)
(e)I(X;Y)
(f)画出(a)~(e)中所有量的文氏图

( a ) H ( X ) = 2 3 l o g 3 2 + 1 3 l o g 3 = 0.918 b i t s = H ( Y ) H(X)=\frac{2}{3}log\frac{3}{2}+\frac{1}{3}log3=0.918bits=H(Y) H(X)=32log23+31log3=0.918bits=H(Y)
( b ) H ( X ∣ Y ) = 1 3 H ( X ∣ Y = 0 ) + 2 3 H ( X ∣ Y = 1 ) = 0.667 b i t s = H ( Y ∣ X ) H(X|Y)=\frac{1}{3}H(X|Y=0)+\frac{2}{3}H(X|Y=1)=0.667bits=H(Y|X) H(XY)=31H(XY=0)+32H(XY=1)=0.667bits=H(YX)
( c ) H ( X , Y ) = 3 × 1 3 l o g 3 = 1.585 b i t s H(X,Y)=3×\frac{1}{3}log3=1.585bits H(X,Y)=3×31log3=1.585bits
( d ) H ( Y ) − H ( Y ∣ X ) = 0.251 b i t s H(Y)-H(Y|X)=0.251bits H(Y)H(YX)=0.251bits
( e ) I ( X ; Y ) = H ( Y ) − H ( Y ∣ X ) = 0.251 b i t s I(X;Y)=H(Y)-H(Y|X)=0.251bits I(X;Y)=H(Y)H(YX)=0.251bits

2.14

设随机变量X,Y的取值分别为 x 1 , x 2 , . . . , x r x_1,x_2,...,x_r x1,x2,...,xr y 1 , y 2 , . . . , y s y_1,y_2,...,y_s y1,y2,...,ys,设Z=X+Y。
(a)证明 H ( Z ∣ X ) = H ( Y ∣ X ) H(Z|X)=H(Y|X) H(ZX)=H(YX),并讨论如果 X , Y X,Y X,Y独立,则 H ( Y ) ≤ H ( Z ) H(Y)≤H(Z) H(Y)H(Z) H ( X ) ≤ H ( Z ) H(X)≤H(Z) H(X)H(Z)。由此说明独立随机变量的和增加不确定度。
(b)给出一个(必须是相关)随机变量例子,使得 H ( X ) > H ( Z ) H(X)>H(Z) H(X)H(Z) H ( Y ) > H ( Z ) H(Y)>H(Z) H(Y)H(Z)
(c )在什么条件下, H ( Z ) = H ( X ) + H ( Y ) H(Z)=H(X)+H(Y) H(Z)=H(X)+H(Y)?

(a) Z = X + Y Z=X+Y Z=X+Y。因此 p ( Z = z ∣ X = x ) = p ( Y = z − x ∣ X = x ) p(Z=z|X=x)=p(Y=z-x|X=x) p(Z=zX=x)=p(Y=zxX=x)

这是因为在给定 X X X 的条件下, Z Z Z 的取值取决于 Y Y Y 的取值和 X X X 的取值,而 Z Z Z 等于 X + Y X+Y X+Y。所以,我们可以使用条件概率来表示 Z Z Z 在给定 X X X 的条件下的分布。
具体来说,对于任意给定的 x x x z z z,我们有:
p ( Z = z ∣ X = x ) = p ( X + Y = z ∣ X = x ) p(Z=z|X=x) = p(X+Y=z|X=x) p(Z=zX=x)=p(X+Y=zX=x)
由于 X X X 是已知的,我们可以将 X = x X=x X=x 代入等式中:
p ( Z = z ∣ X = x ) = p ( Y = z − x ∣ X = x ) p(Z=z|X=x) = p(Y=z-x|X=x) p(Z=zX=x)=p(Y=zxX=x)
这表示在已知 X = x X=x X=x 的情况下, Z Z Z 的取值 z z z Y Y Y 的取值 z − x z-x zx 有关。这是因为 Z = X + Y Z=X+Y Z=X+Y 的定义决定了这种关系。因此,我们可以使用条件概率 p ( Y = z − x ∣ X = x ) p(Y=z-x|X=x) p(Y=zxX=x) 来表示 Z Z Z 在给定 X = x X=x X=x 的条件下的分布。

H ( Z ∣ X ) = ∑ p ( x ) H ( Z ∣ X = x ) = − ∑ x p ( x ) ∑ z p ( Z = z ∣ X = x ) l o g p ( Z = z ∣ X = x ) = ∑ x p ( x ) ∑ y p ( Y = z − x ∣ X = x ) l o g p ( Y = z − x ∣ X = x ) = ∑ p ( x ) H ( Y ∣ X = x ) = H ( Y ∣ X ) H(Z|X)=\sum p(x)H(Z|X=x)=-\sum\limits_xp(x)\sum\limits_zp(Z=z|X=x)logp(Z=z|X=x)\\ =\sum\limits_xp(x)\sum\limits_yp(Y=z-x|X=x)logp(Y=z-x|X=x)=\sum p(x)H(Y|X=x)=H(Y|X) H(ZX)=p(x)H(ZX=x)=xp(x)zp(Z=zX=x)logp(Z=zX=x)=xp(x)yp(Y=zxX=x)logp(Y=zxX=x)=p(x)H(YX=x)=H(YX)

让我解释一下你提到的这一步:
H ( Z ∣ X ) = ∑ x p ( x ) H ( Z ∣ X = x ) = − ∑ x p ( x ) ∑ z p ( Z = z ∣ X = x ) log ⁡ p ( Z = z ∣ X = x ) H(Z|X) = \sum_x p(x) H(Z|X=x) = -\sum_x p(x) \sum_z p(Z=z|X=x) \log p(Z=z|X=x) H(ZX)=xp(x)H(ZX=x)=xp(x)zp(Z=zX=x)logp(Z=zX=x)
这一步是使用了条件熵的定义,首先将 H ( Z ∣ X ) H(Z|X) H(ZX) 表示为关于 X X X 的边缘分布的条件熵,然后展开了条件熵的定义,将其写成了一个求和的形式。
= ∑ x p ( x ) ∑ y p ( Y = z − x ∣ X = x ) log ⁡ p ( Y = z − x ∣ X = x ) = \sum_x p(x) \sum_y p(Y=z-x|X=x) \log p(Y=z-x|X=x) =xp(x)yp(Y=zxX=x)logp(Y=zxX=x)
接下来,你将 p ( Z = z ∣ X = x ) p(Z=z|X=x) p(Z=zX=x) 表示为 p ( Y = z − x ∣ X = x ) p(Y=z-x|X=x) p(Y=zxX=x),这是因为在给定 X = x X=x X=x 的条件下, Z Z Z 的取值是由 Y Y Y 的取值和 X X X 的取值共同决定的,所以你可以用 p ( Y = z − x ∣ X = x ) p(Y=z-x|X=x) p(Y=zxX=x) 来表示它。
= ∑ x p ( x ) H ( Y ∣ X = x ) = \sum_x p(x) H(Y|X=x) =xp(x)H(YX=x)
然后,你计算了在给定 X = x X=x X=x 的条件下 Y Y Y 的条件熵 H ( Y ∣ X = x ) H(Y|X=x) H(YX=x)
最后,你对所有可能的 X X X 的取值求和,得到了 H ( Y ∣ X ) H(Y|X) H(YX),这表示在给定 X X X 的条件下 Y Y Y 的条件熵。
这一步的推导是正确的,它从条件熵的定义出发,逐步展开和简化,最终得到了 H ( Z ∣ X ) H(Z|X) H(ZX) H ( Y ∣ X ) H(Y|X) H(YX) 相等的结果。这表明在给定 X X X 的条件下, Z Z Z Y Y Y 的条件不确定性相同。

如果X和Y是独立的,那么 H ( Y ∣ X ) = H ( Y ) H(Y|X)=H(Y) H(YX)=H(Y)。因为 I ( X ; Z ) ≥ 0 I(X;Z)≥0 I(X;Z)0,我们可以得到 H ( Z ) ≥ H ( Z ∣ X ) = H ( Y ∣ X ) = H ( Y ) H(Z)≥H(Z|X)=H(Y|X)=H(Y) H(Z)H(ZX)=H(YX)=H(Y),相似的我们可以证明 H ( Z ) ≥ H ( X ) H(Z)≥H(X) H(Z)H(X)

首先,如果 X X X Y Y Y 是独立的,那么 H ( Y ∣ X ) = H ( Y ) H(Y|X) = H(Y) H(YX)=H(Y) 是成立的,这是因为在独立的情况下, Y Y Y 的条件不确定性与 X X X 无关,即在知道 X X X 的情况下,对 Y Y Y 的不确定性没有影响,因此 H ( Y ∣ X ) = H ( Y ) H(Y|X) = H(Y) H(YX)=H(Y)
现在,让我们讨论 H ( Z ) H(Z) H(Z) H ( Z ∣ X ) H(Z|X) H(ZX) H ( Y ) H(Y) H(Y) H ( X ) H(X) H(X) 之间的关系。由于互信息的非负性质, I ( X ; Z ) ≥ 0 I(X;Z) \geq 0 I(X;Z)0,我们可以得到:
H ( Z ) ≥ H ( Z ∣ X ) H(Z) \geq H(Z|X) H(Z)H(ZX)
这是因为 H ( Z ∣ X ) H(Z|X) H(ZX) 是在给定 X X X 的情况下 Z Z Z 的条件熵,而 H ( Z ) H(Z) H(Z) Z Z Z 的边缘熵,根据条件熵的性质,条件熵不会超过边缘熵。
另一方面,由于 X X X Y Y Y 是独立的,我们知道 H ( Y ∣ X ) = H ( Y ) H(Y|X) = H(Y) H(YX)=H(Y)。因此,我们可以将不等式 H ( Z ) ≥ H ( Z ∣ X ) H(Z) \geq H(Z|X) H(Z)H(ZX) 改写为:
H ( Z ) ≥ H ( Y ) H(Z) \geq H(Y) H(Z)H(Y)
这意味着 Z Z Z 的边缘熵不小于 Y Y Y 的熵。
类似地,根据独立性,我们可以得到 H ( Z ) ≥ H ( X ) H(Z) \geq H(X) H(Z)H(X),即 Z Z Z 的边缘熵不小于 X X X 的熵。
综上所述,如果 X X X Y Y Y 是独立的,那么可以得出结论: H ( Z ) ≥ H ( Z ∣ X ) = H ( Y ∣ X ) = H ( Y ) H(Z) \geq H(Z|X) = H(Y|X) = H(Y) H(Z)H(ZX)=H(YX)=H(Y) H ( Z ) ≥ H ( X ) H(Z) \geq H(X) H(Z)H(X)。这表示在独立的情况下, Z Z Z 的边缘熵不小于 Y Y Y X X X 的熵。

(b)考虑X和Y的联合概率密度使得
X = − Y = { 1 可能性 1 / 2 0 可能性 1 / 2 X=-Y=\begin{cases} 1 & 可能性1/2 \\ 0 & 可能性1/2 \end{cases} X=Y={10可能性1/2可能性1/2
那么H(X)=H(Y)=1,而Z=0的概率是1,因此H(Z)=0

(c)我们已知
H ( Z ) ≤ H ( X , Y ) ≤ H ( X ) + H ( Y ) H(Z)≤H(X,Y)≤H(X)+H(Y) H(Z)H(X,Y)H(X)+H(Y)
因为Z是(X,Y)的函数,H(X,Y)=H(X)+H(Y|X)≤H(X)+H(Y)。

上述不等式反映了信息熵的基本性质,其中 H ( Z ) H(Z) H(Z) 表示随机变量 Z Z Z 的熵, H ( X , Y ) H(X, Y) H(X,Y) 表示随机变量 X X X Y Y Y 的联合熵, H ( X ) H(X) H(X) H ( Y ) H(Y) H(Y) 分别表示随机变量 X X X Y Y Y 的独立熵。

  • H ( Z ) ≤ H ( X , Y ) H(Z) \leq H(X, Y) H(Z)H(X,Y):
    这是由信息熵的定义以及联合熵的性质决定的。信息熵是用来度量随机变量的不确定性的,而联合熵是用来度量多个随机变量一起的不确定性。 H ( Z ) H(Z) H(Z) 表示随机变量 Z Z Z 的不确定性,它是在给定 X X X Y Y Y 的条件下 X + Y X+Y X+Y 的不确定性。因此,根据信息熵的定义, H ( Z ) H(Z) H(Z) 不会大于同时考虑 X X X Y Y Y 的联合不确定性,即 H ( Z ) ≤ H ( X , Y ) H(Z) \leq H(X, Y) H(Z)H(X,Y)

信息熵的定义是用来度量一个随机变量的不确定性的度量。对于一个随机变量 Z Z Z H ( Z ) H(Z) H(Z) 表示了它的不确定性的度量。现在,假设我们有两个随机变量 X X X Y Y Y,它们可以合并成一个新的随机变量 X + Y X+Y X+Y(这是因为它们的和仍然是一个随机变量)。

  • 考虑情况一:我们首先计算随机变量 X + Y X+Y X+Y 的不确定性 H ( Z ) H(Z) H(Z),这表示在不知道 X X X Y Y Y 之间的关系的情况下,我们对 X + Y X+Y X+Y 的不确定性的度量。
  • 情况二:现在,我们考虑联合不确定性,即同时考虑 X X X Y Y Y 的联合不确定性 H ( X , Y ) H(X, Y) H(X,Y)。这表示我们已知 X X X Y Y Y 之间的关系,并且在这个关系下考虑它们的联合不确定性。
  • 根据信息熵的定义,对于情况一, H ( Z ) H(Z) H(Z) 应该表示 X + Y X+Y X+Y 的不确定性,因为我们不知道它们之间的关系。
  • 对于情况二, H ( X , Y ) H(X, Y) H(X,Y) 表示已知 X X X Y Y Y 之间的关系时的联合不确定性。在这种情况下,我们有更多的信息,因为我们知道它们之间的关系,所以联合不确定性可能会降低。

因此, H ( Z ) H(Z) H(Z) 不会大于同时考虑 X X X Y Y Y 的联合不确定性 H ( X , Y ) H(X, Y) H(X,Y),因为在情况一中,我们没有利用关于 X X X Y Y Y 之间的关系的信息,而在情况二中,我们利用了这些信息来计算联合不确定性。这就是为什么可以说 H ( Z ) ≤ H ( X , Y ) H(Z) \leq H(X, Y) H(Z)H(X,Y)

2.11 相关性的度量

X 1 X_1 X1 X 2 X_2 X2同分布,但不一定独立。设
ρ = 1 − H ( X 2 ∣ X 1 ) H ( X 1 ) \rho=1-\frac{H(X_2|X_1)}{H(X_1)} ρ=1H(X1)H(X2X1)
( A )证明 ρ = I ( X 1 ; X 2 ) H ( X 1 ) \rho=\frac{I(X_1;X_2)}{H(X_1)} ρ=H(X1)I(X1;X2)
( B )证明 0 ≤ ρ ≤ 1 0≤\rho≤1 0ρ1
( C )何时有 ρ = 0 \rho=0 ρ=0
( D )何时有 ρ = 1 \rho=1 ρ=1

(a) ρ = H ( X 1 ) − H ( X 2 ∣ X 1 ) H ( X 1 ) = H ( X 2 ) − H ( X 2 ∣ X 1 ) H ( X 1 ) = I ( X 1 ; X 2 ) H ( X 1 ) \rho=\frac{H(X_1)-H(X_2|X_1)}{H(X_1)}=\frac{H(X_2)-H(X_2|X_1)}{H(X_1)}=\frac{I(X_1;X_2)}{H(X_1)} ρ=H(X1)H(X1)H(X2X1)=H(X1)H(X2)H(X2X1)=H(X1)I(X1;X2)
(B)因为 0 ≤ H ( X 2 ∣ X 1 ) ≤ H ( X 2 ) = H ( X 1 ) 0≤H(X_2|X_1)≤H(X_2)=H(X_1) 0H(X2X1)H(X2)=H(X1)
0 ≤ H ( X 2 ∣ X 1 ) H ( X 1 ) ≤ 1 0≤\frac{H(X_2|X_1)}{H(X_1)}≤1 0H(X1)H(X2X1)1 0 ≤ ρ ≤ 1 0≤\rho ≤1 0ρ1
(c)当且仅当 I ( X 1 ; X 2 ) = 0 I(X_1;X_2)=0 I(X1;X2)=0,即 X 1 X_1 X1 X 2 X_2 X2独立
(d)当且仅当 I ( X 1 ; X 2 ) = 1 I(X_1;X_2)=1 I(X1;X2)=1,即 X 1 X_1 X1 X 2 X_2 X2互为对方的函数

2.25

I ( X ; Y ; Z ) = I ( X ; Y ) − I ( X ; Y ∣ Z ) = I ( X ; Y ) − ( I ( X ; Y , Z ) − I ( X ; Z ) ) = I ( X ; Y ) + I ( X ; Z ) − I ( X ; Y , Z ) I(X;Y;Z)=I(X;Y)-I(X;Y|Z)=I(X;Y)-(I(X;Y,Z)-I(X;Z))=I(X;Y)+I(X;Z)-I(X;Y,Z) I(X;Y;Z)=I(X;Y)I(X;YZ)=I(X;Y)(I(X;Y,Z)I(X;Z))=I(X;Y)+I(X;Z)I(X;Y,Z)

这是基于信息论中的互信息(Mutual Information)和条件互信息(Conditional Mutual Information)的性质得出的等式。让我解释一下每一步是如何得出的:
首先,这个等式是互信息和条件互信息的定义和性质的应用。

  1. I ( X ; Y ; Z ) I(X;Y;Z) I(X;Y;Z) 是指随机变量 X、Y 和 Z 之间的互信息。它可以表示为 I ( X ; Y ; Z ) = I ( X ; Y ) − I ( X ; Y ∣ Z ) I(X;Y;Z) = I(X;Y) - I(X;Y|Z) I(X;Y;Z)=I(X;Y)I(X;YZ)
  2. I ( X ; Y ∣ Z ) I(X;Y|Z) I(X;YZ) 是给定 Z 条件下 X 和 Y 之间的条件互信息。所以, I ( X ; Y ; Z ) = I ( X ; Y ) − I ( X ; Y ∣ Z ) I(X;Y;Z) = I(X;Y) - I(X;Y|Z) I(X;Y;Z)=I(X;Y)I(X;YZ) 表示了在已知 Z 的情况下,X 和 Y 之间的互信息减去了条件互信息。
  3. 接下来,我们使用条件互信息的定义: I ( X ; Y ∣ Z ) = I ( X ; Y , Z ) − I ( X ; Z ) I(X;Y|Z) = I(X;Y,Z) - I(X;Z) I(X;YZ)=I(X;Y,Z)I(X;Z),将 I ( X ; Y ∣ Z ) I(X;Y|Z) I(X;YZ) 展开为 I ( X ; Y , Z ) − I ( X ; Z ) I(X;Y,Z) - I(X;Z) I(X;Y,Z)I(X;Z)
  1. 将这个表达式代入第一步的等式中,我们得到 I ( X ; Y ; Z ) = I ( X ; Y ) − ( I ( X ; Y , Z ) − I ( X ; Z ) ) I(X;Y;Z) = I(X;Y) - (I(X;Y,Z) - I(X;Z)) I(X;Y;Z)=I(X;Y)(I(X;Y,Z)I(X;Z))

  2. 最后,重新排列项,得到 I ( X ; Y ; Z ) = I ( X ; Y ) + I ( X ; Z ) − I ( X ; Y , Z ) I(X;Y;Z) = I(X;Y) + I(X;Z) - I(X;Y,Z) I(X;Y;Z)=I(X;Y)+I(X;Z)I(X;Y,Z)

这个等式的含义在于,X、Y 和 Z 之间的互信息可以分解成两个独立部分:X 和 Y 之间的互信息以及 X 和 Z 之间的互信息,减去 X、Y 和 Z 三者之间的联合互信息。这种分解可以在信息论中的各种应用中很有用,帮助理解信息的流动和依赖关系。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.xdnf.cn/news/149953.html

如若内容造成侵权/违法违规/事实不符,请联系一条长河网进行投诉反馈,一经查实,立即删除!

相关文章

逐步解决Could not find artifact com:ojdbc8:jar:12

Could not find artifact com:ojdbc8:jar:12 in central (https://repo.maven.apache.org/maven2) 原因&#xff1a; ojdbc8:jar:12 属于Oracle 数据库链接的一个程序集&#xff0c;缺失的话很有可能会影响数据库链接&#xff0c;蝴蝶效应产生不可预测的BUG&#xff01;但是版…

苹果手机怎么备份所有数据?2023年iPhone 15数据备份常用的3种方法!

当苹果手机需要进行刷机、恢复出厂设置、降级iOS系统等操作时&#xff0c;我们需要将自己的iPhone数据提前进行备份。 特别是在苹果发布新iOS系统时&#xff0c;总有一些小伙伴因为升降级系统&#xff0c;而导致了重要数据的丢失。 iPhone中储存着重要的照片、通讯录、文件等数…

企业使用SSL证书对于SEO有多重要

在当今竞争激烈的在线市场中&#xff0c;搜索引擎优化&#xff08;SEO&#xff09;是企业获得更高排名和增加网站流量的关键。在SEO策略中&#xff0c;企业使用SSL证书已经成为多重不可忽视的重要因素。让我们一起探究企业使用SSL证书对于SEO的重要性。 首先&#xff0c;搜索引…

多实例学习MIL(easy / hard)

多示例学习&#xff08;Multiple Instance Learning&#xff09; - 知乎 (zhihu.com)https://zhuanlan.zhihu.com/p/377220948 多示例学习 和弱监督&#xff08;weakly supervised&#xff09;有一定的关系&#xff0c;弱监督weakly supervised有三个含义&#xff08;或者说三…

【附代码】使用Shapely计算点面关系

文章目录 相关文献基础点面关系展示图点面关系代码 作者&#xff1a;小猪快跑 基础数学&计算数学&#xff0c;从事优化领域5年&#xff0c;主要研究方向&#xff1a;MIP求解器、整数规划、随机规划、智能优化算法 本文档介绍如何使用 Shapely Python 包 计算几何点面关系。…

Linux CentOS7 vim宏操作

vim的macro就是用来解决重复的问题。在vim寄存器的文章里面已经对macro有所涉及&#xff0c;macro的操作都是以文本的方式存放在寄存器中。 宏是一组命令的集合&#xff0c;应用极其广泛&#xff0c;包括MS Office中的word编辑器&#xff0c;excel编辑器和各种文本编辑器&…

输入电压转化为电流性 5~20mA方案

输入电压转化为电流性 5~20mA方案 方案一方案二方案三 方案一 XTR111是一款精密的电压-电流转换器是最广泛应用之一。原因有二&#xff1a;一是线性度非常好、二是价格便宜。总结成一点&#xff0c;就是性价比高。 典型电路 最终电路 Z1二极管处输出电流表达式&#xff1a;…

Linux-centos系统安装MySql5.7

1.配置yum仓库 1.1配置yum仓库 rpm --import https://repo.mysql.com/RPM-GPG-KEY-mysql-2022 1.2 安装Mysql yum库 rpm -Uvh http://repo.mysql.com//mysql57-community-release-el7-7.noarch.rpm 2.使用yum安装Msql 说明&#xff1a;下载大约5分钟左右 yum -y install mysq…

2023计算机保研——双非上岸酒吧舞

我大概是从22年10月份开始写博客的&#xff0c;当时因为本校专业的培养方案的原因&#xff0c;课程很多&#xff0c;有些知识纸质记录很不方便&#xff0c;于是选择了打破了自己的成见使用博客来记录学习生活。对于我个人而言&#xff0c;保研生活在前一大半过程中都比较艰难&a…

网络安全行业真的内卷了吗?网络安全就业就业必看

前言 有一个特别流行的词语叫做“内卷”&#xff1a; 城市内卷太严重了&#xff0c;年轻人不好找工作&#xff1b;教育内卷&#xff1b;考研内卷&#xff1b;当然还有计算机行业内卷…… 这里的内卷当然不是这个词原本的意思&#xff0c;而是“过剩”“饱和”的替代词。 按照…

c语言进阶部分详解(详细解析字符串常用函数,并进行模拟实现)

前段时间也是把指针较为详细系统的讲解完毕&#xff0c;接下来介绍一个全新的知识点&#xff0c;就是字符函数和字符串函数 前几期文章可进我主页观看&#xff1a;总之就是非常唔姆_Matlab,经验分享,c语言题目分享-CSDN博客 想要源代码可以去我的github看看&#xff1a;Neros…

5. Mysql卸载

Mysql卸载 已经成功安装mysql&#xff0c;没有必要卸载&#xff0c;卸载之后不一定再次会安装成功。 双击安装包 检查如下三个目录是否有mysql&#xff0c;有的话&#xff0c;删除掉即可&#xff08;前提&#xff0c;电脑只有Mysql8,否则mysql其他版本也会被删除&#xff09;…

【数据结构】排序算法(二)—>冒泡排序、快速排序、归并排序、计数排序

&#x1f440;樊梓慕&#xff1a;个人主页 &#x1f3a5;个人专栏&#xff1a;《C语言》《数据结构》《蓝桥杯试题》《LeetCode刷题笔记》《实训项目》 &#x1f31d;每一个不曾起舞的日子&#xff0c;都是对生命的辜负 目录 前言 1.冒泡排序 2.快速排序 2.1Hoare版 2.2占…

vue3 中使用echarts图表——柱状图

柱状图是比较常用的图形结构&#xff0c;所以我先收集一些精美的柱状图 一、柱状图&#xff1a;设置圆角和颜色 <template><div class"box" ref"chartDom"></div> </template> <script setup> import { ref, onMounted } fr…

无法启动此程序,因为计算机中“找不到msvcp140.dll”的解决方法

msvcp140.dll是Microsoft Visual C 2015 Redistributable的一个动态链接库文件&#xff0c;它是许多基于Visual Studio开发的应用程序和游戏的必要组件。当计算机上缺失msvcp140.dll文件时&#xff0c;可能会导致以下问题&#xff1a; 1. 程序无法启动&#xff0c;提示“找不到…

位图/布隆过滤器

一、位图 1.1位图的概念 所谓位图&#xff0c;就是用每一位来存放某种状态&#xff0c;适用于海量数据&#xff0c;数据无重复的场景。通常是用来判断某个数据存不存在的。 1.2位图的实现 template<size_t N>class bitset{public:bitset(){//需要N个比特位&#xff0c;…

生产设备巡检管理系统

凡尔码搭建生产设备巡检系统是通过确保巡检工作的质量以及提高巡检工作的效率来提高设备维护水平的一种系统&#xff0c;它对巡检管理考核工作从巡检人员、巡检任务、隐患管理、图像视频、盯防考核进行严格、科学的统计、分析&#xff0c;从而有效的保障巡检工作的顺利展开&…

Opengl之立方体贴图

简单来说,立方体贴图就是一个包含了6个2D纹理的纹理,每个2D纹理都组成了立方体的一个面:一个有纹理的立方体。你可能会奇怪,这样一个立方体有什么用途呢?为什么要把6张纹理合并到一张纹理中,而不是直接使用6个单独的纹理呢?立方体贴图有一个非常有用的特性,它可以通过一…

约束优化算法(optimtool.constrain)

import optimtool as oo from optimtool.base import np, sp, pltpip install optimtool>2.4.2约束优化算法&#xff08;optimtool.constrain&#xff09; import optimtool.constrain as oc oc.[方法名].[函数名]([目标函数], [参数表], [等式约束表], [不等式约数表], [初…

VulnHub Earth

一、信息收集 1.主机和端口扫描 nmap -sS 192.168.103.1/24 发现443端口有DNS解析&#xff0c;在hosts文件中添加DNS解析&#xff1a; 2.收集earth.local信息 发现有Previous Messages 37090b59030f11060b0a1b4e0000000000004312170a1b0b0e4107174f1a0b044e0a000202134e0a161…