线性代数(十四)随机矩阵理论
Chen Kai BOSS

当你把一堆随机数填进一个巨大的矩阵,然后计算它的特征值,你会发现一件神奇的事情:这些特征值的分布竟然有着惊人的规律性。这就像在混乱中发现秩序,在噪声中听见音乐。随机矩阵理论告诉我们,当维度足够高时,随机性本身会涌现出深刻的数学结构。

从直觉开始:为什么随机矩阵不"随机"?

想象你在一个巨大的音乐厅里,一万个人同时随机敲击键盘。直觉上,这应该产生纯粹的噪声。但如果你用傅里叶分析去看这些声音的频率分布,你会发现某些统计规律总是出现——这不是因为人们在协调,而是因为大数定律中心极限定理在高维空间中的神奇体现。

随机矩阵也是如此。一个 的矩阵有一百万个随机元素,但它的特征值分布却呈现出精确可预测的形状。这种"混沌中的秩序"正是随机矩阵理论的核心魅力。

随机矩阵的定义与分类

什么是随机矩阵?

随机矩阵是指矩阵的元素是随机变量的矩阵。听起来简单,但这个定义背后蕴含着丰富的数学结构。

是一个 的矩阵,如果它的每个元素 都是某个概率空间上的随机变量,那么 就是一个随机矩阵。

最简单的例子:生成一个矩阵,每个元素独立地从标准正态分布 中抽取。

1
2
3
import numpy as np
n = 100
A = np.random.randn(n, n) # 这就是一个随机矩阵

核心问题

随机矩阵理论关心的核心问题是:当矩阵维度 时,特征值的统计性质是什么?

这个问题的答案出人意料地普适——无论你用什么分布生成矩阵元素,只要满足一些基本条件,特征值分布就会收敛到同样的极限形状。

主要的随机矩阵模型

Wigner 矩阵(对称/Hermite 随机矩阵)

Wigner 矩阵是最经典的随机矩阵模型。设 的实对称矩阵,其中:

  • 对角元素 独立同分布,均值为 0,方差为
  • 上三角元素 )独立同分布,均值为 0,方差为
  • 下三角元素由对称性确定:

最常见的例子是高斯正交系综( GOE),其中所有随机变量都服从高斯分布。

生活类比:想象一个社交网络, 表示第 个人和第 个人之间的"亲密度"。如果这些亲密度是随机产生的(比如随机配对的陌生人),那么这个"亲密度矩阵"就是一个 Wigner 矩阵。

Wishart 矩阵(样本协方差矩阵)

是一个 的随机矩阵,每个元素独立同分布。Wishart 矩阵定义为:

$$

W = X^T X $$

这正是统计学中样本协方差矩阵的形式!如果你收集了 个样本,每个样本有 个特征,那么样本协方差矩阵就是一个 Wishart 矩阵。

生活类比:假设你是一个基金经理,追踪 500 只股票,每天记录它们的收益率。一年下来你有大约 250 个交易日的数据。你计算的协方差矩阵就是一个 的 Wishart 矩阵,其中

其他重要模型

  • 高斯酉系综( GUE):元素是复数,满足 Hermite 条件
  • 高斯辛系综( GSE):元素是四元数
  • 循环系综:特征值分布在单位圆上

Wigner 半圆律:随机矩阵的"中心极限定理"

定理陈述

Wigner 半圆律是随机矩阵理论最基础、最优美的结果。它说的是:

的 Wigner 矩阵,元素方差为 。定义归一化矩阵 。当 时,经验特征值分布几乎必然收敛到半圆分布

时,

直觉理解

为什么是半圆?这里有几个直觉层面的解释:

直觉一:力学平衡

想象特征值是一条直线上的带电粒子,它们互相排斥(因为特征值不喜欢"聚堆")。同时有一个外力把它们往原点拉(归一化的效果)。排斥力和吸引力达到平衡时,粒子的密度分布就是半圆形。

直觉二:高维几何

在高维空间中,单位球的"体积"集中在赤道附近。随机矩阵的特征值分布反映了这种高维几何特性——大多数特征值既不会太大也不会太小,而是分布在"中间地带"。

直觉三:矩方法

数学上,证明半圆律的经典方法是矩方法。计算特征值分布的各阶矩,发现它们恰好等于半圆分布的矩。这就像通过均值和方差确定正态分布一样。

数值验证

让我们用代码验证 Wigner 半圆律:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
import numpy as np
import matplotlib.pyplot as plt

# 参数设置
n = 2000 # 矩阵维度
num_matrices = 50 # 重复次数以获得更平滑的直方图

all_eigenvalues = []

for _ in range(num_matrices):
# 生成 Wigner 矩阵( GOE)
A = np.random.randn(n, n)
A = (A + A.T) / 2 # 对称化
A = A / np.sqrt(n) # 归一化

# 计算特征值
eigenvalues = np.linalg.eigvalsh(A)
all_eigenvalues.extend(eigenvalues)

# 绘制直方图
plt.figure(figsize=(10, 6))
plt.hist(all_eigenvalues, bins=100, density=True, alpha=0.7,
label='Empirical distribution')

# 理论半圆分布( sigma = 1)
x = np.linspace(-2, 2, 1000)
y = np.sqrt(np.maximum(4 - x**2, 0)) / (2 * np.pi)
plt.plot(x, y, 'r-', linewidth=2, label='Wigner semicircle')

plt.xlabel('Eigenvalue', fontsize=12)
plt.ylabel('Density', fontsize=12)
plt.legend(fontsize=11)
plt.title(f'Wigner Semicircle Law (n = {n})', fontsize=14)
plt.grid(True, alpha=0.3)
plt.show()

运行这段代码,你会看到经验分布与理论半圆曲线完美吻合。这种吻合的精确程度,每次都让人惊叹不已。

普适性:为什么分布无关紧要?

Wigner 半圆律的一个惊人特点是普适性:无论矩阵元素服从什么分布(高斯、均匀、离散……),只要满足均值为 0 、方差有限、独立性等基本条件,极限分布都是半圆。

这就像中心极限定理——无论原始分布是什么,足够多独立随机变量的和趋向于正态分布。半圆律是随机矩阵领域的"中心极限定理"。

Marchenko-Pastur 分布:样本协方差矩阵的极限

问题背景

在统计学和数据科学中,我们经常需要估计协方差矩阵。假设有 个独立样本,每个样本是 维向量。样本协方差矩阵是:

$$

S = X^T X $$

其中 的数据矩阵。

关键问题:当 和 $ pS$ 的特征值分布是什么?

定理陈述

的随机矩阵,元素独立同分布,均值为 0,方差为 1 。设 (称为纵横比)。

时,样本协方差矩阵 的经验特征值分布收敛到Marchenko-Pastur 分布

其中边界为:

时,所有特征值都落在 区间内。

时,有 个零特征值,其余特征值遵循上述分布。

直觉理解

为什么特征值不集中在 1 附近?

如果总体协方差矩阵是单位阵 ,理想情况下样本协方差矩阵也应该接近 ,特征值都应该接近 1 。但实际上,由于有限样本效应,特征值会"散开"。

纵横比 刻画了这种散开的程度: - 越大(样本相对于维度越少),特征值散布范围越宽 - 当 (样本无穷多)时,,特征值收缩到 1

生活类比:这就像用有限的观测来估计一个复杂系统。观测越少、系统越复杂,你的估计误差越大。 Marchenko-Pastur 分布精确地量化了这种误差。

数值验证

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
import numpy as np
import matplotlib.pyplot as plt

# 参数设置
n = 1000 # 样本数
p = 500 # 维度
gamma = p / n # 纵横比

num_matrices = 30
all_eigenvalues = []

for _ in range(num_matrices):
# 生成随机数据矩阵
X = np.random.randn(n, p)

# 计算样本协方差矩阵
S = X.T @ X / n

# 计算特征值
eigenvalues = np.linalg.eigvalsh(S)
all_eigenvalues.extend(eigenvalues)

# 绘制直方图
plt.figure(figsize=(10, 6))
plt.hist(all_eigenvalues, bins=100, density=True, alpha=0.7,
label='Empirical distribution')

# 理论 Marchenko-Pastur 分布
lambda_minus = (1 - np.sqrt(gamma))**2
lambda_plus = (1 + np.sqrt(gamma))**2

x = np.linspace(lambda_minus + 0.01, lambda_plus - 0.01, 1000)
y = np.sqrt((lambda_plus - x) * (x - lambda_minus)) / (2 * np.pi * gamma * x)
plt.plot(x, y, 'r-', linewidth=2, label='Marchenko-Pastur')

plt.axvline(x=lambda_minus, color='g', linestyle='--',
label=f'λ- = {lambda_minus:.3f}')
plt.axvline(x=lambda_plus, color='g', linestyle='--',
label=f'λ+ = {lambda_plus:.3f}')

plt.xlabel('Eigenvalue', fontsize=12)
plt.ylabel('Density', fontsize=12)
plt.legend(fontsize=10)
plt.title(f'Marchenko-Pastur Law (γ = {gamma:.2f})', fontsize=14)
plt.grid(True, alpha=0.3)
plt.show()

特征值的精细结构

经验特征值分布

设矩阵 有特征值 经验特征值分布(或经验谱分布)定义为:

其中 是在 处的 Dirac delta 函数。

直观地说,经验特征值分布就是把每个特征值当作一个"点质量",然后求平均。

特征值间距分布

除了整体分布,特征值之间的间距也有深刻的规律。

定义相邻特征值间距 。对于高斯正交系综( GOE),归一化后的间距分布近似服从Wigner 猜测

$$

P(s) e{-s2/4} $$

关键观察:当 时,。这意味着特征值排斥——它们不喜欢靠得太近。

这与独立随机变量完全不同!如果特征值是独立的,间距应该服从指数分布 ,在 处有最大值。

Tracy-Widom 分布:最大特征值的极限

对于标准 Wigner 矩阵,最大特征值 的极限分布不是高斯分布,而是Tracy-Widom 分布

具体地,存在一个标准化因子,使得:

其中 是 Tracy-Widom 分布的累积分布函数。

Tracy-Widom 分布是高度不对称的:它的左尾衰减很快(超指数),右尾衰减较慢。这反映了最大特征值有小概率出现异常大的值。

在无线通信中的应用

MIMO 系统简介

MIMO( Multiple-Input Multiple-Output)是现代无线通信的核心技术。发射端有 根天线,接收端有 根天线。信道可以用一个 的矩阵 描述:

$$

y = Hx + z $$

其中 是发射信号, 是接收信号, 是噪声。

在丰富散射环境中(如城市环境),信道矩阵 的元素可以建模为独立的复高斯随机变量。

信道容量与特征值

MIMO 信道的容量(理论上能传输的最大信息速率)由下式给出:

$$

C = (I + HH^) = _{i=1}^{(n_r, n_t)} (1 + _i) $$

其中 的特征值。

关键洞察:信道容量完全由特征值决定!

随机矩阵理论的应用

当天线数目很大时,可以用 Marchenko-Pastur 分布来分析信道特征值分布,进而预测系统容量。

(假设 )。在高信噪比下,平均容量近似为:

这说明 MIMO 可以实现线性增长的容量——天线数目翻倍,容量也翻倍!这是 MIMO 的核心优势。

实际设计启示

  1. 天线配置:纵横比 影响特征值分布的"形状",进而影响容量
  2. 功率分配:知道特征值分布后,可以优化在各个"信道模式"上的功率分配
  3. 大规模 MIMO:当天线数目趋向无穷时,随机矩阵理论给出精确的性能预测
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
import numpy as np

def estimate_mimo_capacity(n_r, n_t, snr_db, num_realizations=1000):
"""估计 MIMO 信道的遍历容量"""
snr = 10**(snr_db / 10)
capacities = []

for _ in range(num_realizations):
# 生成 Rayleigh 衰落信道
H = (np.random.randn(n_r, n_t) +
1j * np.random.randn(n_r, n_t)) / np.sqrt(2)

# 计算 HH^dagger 的特征值
eigenvalues = np.linalg.eigvalsh(H @ H.conj().T)

# 计算容量
capacity = np.sum(np.log2(1 + snr/n_t * eigenvalues))
capacities.append(capacity)

return np.mean(capacities)

# 示例: 4x4 MIMO 系统
print(f"4x4 MIMO capacity at 10dB: {estimate_mimo_capacity(4, 4, 10):.2f} bits/s/Hz")
print(f"8x8 MIMO capacity at 10dB: {estimate_mimo_capacity(8, 8, 10):.2f} bits/s/Hz")

在金融中的应用

投资组合与协方差矩阵

现代投资组合理论( Markowitz 理论)的核心是协方差矩阵。设有 只资产,它们的收益率协方差矩阵为 。最优投资组合权重为:

$$

w^{*} = $$

其中 是期望收益向量。

问题:我们不知道真实的 ,只能用样本协方差矩阵 来估计。

噪声的诅咒

假设你跟踪 500 只股票,收集 5 年(约 1250 个交易日)的数据。样本协方差矩阵是 的,有 个独立参数需要估计!

纵横比 。根据 Marchenko-Pastur 定理,样本特征值会显著偏离真实特征值:

  • 真实特征值 = 1 时,样本特征值分布在
  • 这意味着最大特征值被高估约 126%,最小特征值被低估约 86%!

特征值清洗

随机矩阵理论提供了一种"清洗"噪声特征值的方法:

步骤 1:计算样本协方差矩阵的特征值分解 步骤 2:确定 Marchenko-Pastur 分布的边界 步骤 3:将落在这个区间内的特征值视为"噪声",用某种方法替换(如设为平均值)

步骤 4:重构协方差矩阵

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
import numpy as np

def clean_covariance_matrix(returns, method='average'):
"""
使用随机矩阵理论清洗协方差矩阵

Parameters:
returns: n x p 收益率矩阵( n 个样本, p 个资产)
method: 清洗方法

Returns:
清洗后的协方差矩阵
"""
n, p = returns.shape
gamma = p / n

# 计算样本协方差矩阵
S = np.cov(returns, rowvar=False)

# 特征值分解
eigenvalues, eigenvectors = np.linalg.eigh(S)

# Marchenko-Pastur 边界
sigma_sq = np.mean(eigenvalues) # 估计噪声方差
lambda_minus = sigma_sq * (1 - np.sqrt(gamma))**2
lambda_plus = sigma_sq * (1 + np.sqrt(gamma))**2

# 识别噪声特征值
noise_mask = (eigenvalues >= lambda_minus) & (eigenvalues <= lambda_plus)

# 清洗
cleaned_eigenvalues = eigenvalues.copy()
if method == 'average':
# 将噪声特征值替换为平均值
noise_avg = np.mean(eigenvalues[noise_mask])
cleaned_eigenvalues[noise_mask] = noise_avg

# 重构协方差矩阵
cleaned_S = eigenvectors @ np.diag(cleaned_eigenvalues) @ eigenvectors.T

return cleaned_S, lambda_minus, lambda_plus

实证效果

使用清洗后的协方差矩阵构建的投资组合,在样本外测试中通常表现更好: - 夏普比率提升:约 10-30% - 波动率更稳定:减少极端波动 - 换手率降低:投资组合更稳定

在机器学习中的应用

高维统计的挑战

现代机器学习经常处理"高维小样本"问题:特征数 与样本数 相当,甚至

在这种情况下,传统统计方法会失效。例如: - 样本协方差矩阵是奇异的(当 时) - 估计的参数极不稳定 - 过拟合风险极高

随机矩阵理论为这些问题提供了理论框架和实用工具。

PCA 与随机矩阵

主成分分析( PCA)是最常用的降维方法。它提取协方差矩阵的主特征值对应的方向。

问题:在高维情况下,哪些主成分是"真实的",哪些只是噪声?

随机矩阵答案:使用 Marchenko-Pastur 分布作为"零假设"。超出 的特征值很可能对应真实信号。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
import numpy as np
from sklearn.decomposition import PCA

def significant_components(X, alpha=0.05):
"""
使用随机矩阵理论确定显著的主成分数目
"""
n, p = X.shape
gamma = p / n

# 标准化数据
X_centered = X - X.mean(axis=0)
X_std = X_centered / X_centered.std(axis=0)

# 计算样本协方差矩阵的特征值
S = X_std.T @ X_std / n
eigenvalues = np.linalg.eigvalsh(S)[::-1] # 降序排列

# Marchenko-Pastur 上界
lambda_plus = (1 + np.sqrt(gamma))**2

# 计数超过阈值的特征值
n_significant = np.sum(eigenvalues > lambda_plus)

return n_significant, eigenvalues, lambda_plus

# 示例
np.random.seed(42)
n, p = 200, 100

# 生成数据: 3 个真实主成分 + 噪声
true_components = 3
signal = np.random.randn(n, true_components) @ np.random.randn(true_components, p)
noise = 0.5 * np.random.randn(n, p)
X = signal + noise

n_sig, eigs, threshold = significant_components(X)
print(f"Detected significant components: {n_sig}")
print(f"True components: {true_components}")
print(f"MP threshold: {threshold:.3f}")

神经网络初始化

深度学习中,权重矩阵的初始化至关重要。随机矩阵理论帮助理解不同初始化策略的效果。

Xavier 初始化的原理:保持各层输出的方差稳定,避免梯度消失/爆炸。

的权重矩阵。 Xavier 初始化要求:

这使得 的期望特征值在 1 附近,保证信号稳定传播。

过拟合的理论理解

随机矩阵理论揭示了高维统计中过拟合的本质:

时,样本协方差矩阵的最小特征值趋向于 0,矩阵接近奇异。这意味着: - 数据中存在"虚假"的模式 - 模型会拟合这些噪声模式 - 泛化能力急剧下降

解决方案: 1. 正则化:添加 使特征值远离 0 2. 降维:只保留显著的主成分 3. 收集更多数据:降低

核心数学工具

Stieltjes 变换

Stieltjes 变换是研究特征值分布的强大工具。设 是特征值的概率分布,其 Stieltjes 变换定义为:

$$

m(z) = d(), z ^+ $$

其中 是上半复平面。

为什么有用?

  1. 恢复分布 可以从 通过逆变换恢复

2. 方程简化:许多随机矩阵问题在 Stieltjes 变换的语言下变得简洁

自由概率论

自由概率论是 Voiculescu 在 1980 年代发展的理论,研究"非交换概率空间"中的随机变量。

与经典概率中的"独立性"类似,自由概率引入了自由独立的概念。两个随机矩阵是自由独立的,当且仅当它们"尽可能不交换"。

关键定理:大型随机矩阵在极限下是自由独立的。

这允许我们像处理独立随机变量一样处理随机矩阵的和与积的特征值分布。

半圆律的证明思路

使用矩方法证明 Wigner 半圆律:

步骤 1:计算特征值的第 阶矩

步骤 2:使用独立性和均值为 0 的性质,只有"配对"的求和项不为 0

步骤 3:对非零项计数,发现数目等于 Catalan 数 (当 为偶数)

步骤 4: Catalan 数恰好是半圆分布的矩

这完成了证明的骨架。严格化需要处理误差项和收敛性。

深入理解:为什么随机矩阵理论如此普适?

普适性现象

随机矩阵理论最神奇的特点是普适性: - 无论元素分布如何,极限特征值分布相同 - 不同物理系统(原子核、量子混沌、等等)展现相同的统计规律

这种普适性源于高维概率的一个深刻事实:当维度趋于无穷时,细节被"平均掉",只有宏观结构保留下来。

与物理学的联系

随机矩阵理论最初由 Wigner 在 1950 年代为研究原子核能级统计而发展。

观察:复杂原子核的能级间距分布与 GOE 随机矩阵的特征值间距分布惊人相似!

解释:复杂量子系统的哈密顿量"看起来像"随机矩阵,因为它极其复杂,我们无法追踪每个细节。

这是统计力学思想在量子物理中的体现。

与信息论的联系

从信息论角度,随机矩阵可以看作"最大熵"矩阵——在给定约束下,熵最大的矩阵分布。

半圆分布是满足一定约束条件下的"最无信息"分布,类似于正态分布在一维情况下的地位。

练习题

基础概念题

练习 1:设 的对称矩阵,元素 独立同分布于 ,元素 独立同分布于 。写出 的期望矩阵 和协方差结构。

练习 2:解释为什么 Wigner 矩阵需要归一化因子 。如果不归一化会发生什么?

练习 3:设 ,计算 Marchenko-Pastur 分布的支撑区间 。画出理论密度函数的草图。

计算与证明题

练习 4:验证半圆分布 是正规化的,即证明:

练习 5:计算半圆分布的二阶矩 和四阶矩

练习 6:设 的随机矩阵,元素独立同分布于 。证明

练习 7:对于 的对称高斯随机矩阵

$$

A =

$$

其中 $ a, c N(0, 1) b N(0, 1/2)$ 独立。推导特征值的联合概率密度函数。

编程题

练习 8:编写程序验证特征值排斥现象。 - 生成大量 GOE 矩阵 - 计算相邻特征值间距 - 绘制间距分布直方图 - 与理论 Wigner 猜测 比较

练习 9:实现 Marchenko-Pastur 分布的数值验证。 - 生成 随机矩阵,取不同的 值(如 0.1, 0.5, 1.0, 2.0) - 绘制经验特征值分布与理论分布的对比图 - 研究 时零特征值的出现

练习 10:编写 MIMO 信道容量仿真程序。 - 实现不同天线配置下的容量计算 - 绘制容量随信噪比变化的曲线 - 比较与随机矩阵理论预测的差异

应用题

练习 11:某投资者跟踪 100 只股票,收集了 200 天的收益率数据。 1. 计算纵横比 $$2. 根据 Marchenko-Pastur 定理,样本特征值会分布在什么区间? 3. 如果某个样本特征值为 3.5,这可能代表什么?

练习 12:在一个 MIMO 系统中,假设信道矩阵的元素是独立同分布的复高斯随机变量。 1. 写出信道容量的表达式 2. 使用随机矩阵理论,估计在高信噪比( 30dB)下的容量 3. 如果增加到 MIMO,容量大约增加多少?

练习 13:你有一个数据集,包含 1000 个样本,每个样本有 500 个特征。 1. 应该保留多少个主成分?使用 Marchenko-Pastur 准则。 2. 如果希望保留更多主成分,应该如何调整实验设计?

进阶研究题

练习 14:研究 Tracy-Widom 分布。 1. 查阅文献,写出 Tracy-Widom 分布的定义 2. 解释为什么最大特征值的极限分布不是高斯分布 3. Tracy-Widom 分布在统计假设检验中有什么应用?

练习 15:探索自由概率论。 1. 什么是自由独立性?与经典独立性有什么区别? 2. 设 是自由独立的随机矩阵,它们和 的特征值分布有什么关系? 3. 自由卷积与经典卷积有什么异同?

练习 16:随机矩阵与量子混沌。 1. 什么是量子混沌?它与经典混沌有什么关系? 2. 为什么量子混沌系统的能级统计服从 GOE 分布? 3. 如何从能级间距分布判断一个量子系统是"可积的"还是"混沌的"?

本章总结

随机矩阵理论是线性代数与概率论的美妙交汇点。我们学习了:

核心概念 - 随机矩阵的定义与主要模型( Wigner 、 Wishart) - 经验特征值分布的概念

基本定理 - Wigner 半圆律:对称随机矩阵特征值的极限分布 - Marchenko-Pastur 分布:样本协方差矩阵特征值的极限分布 - Tracy-Widom 分布:最大特征值的极限分布 - 普适性:不同模型具有相同的极限行为

应用领域 - 无线通信: MIMO 系统容量分析 - 金融:协方差矩阵去噪、投资组合优化 - 机器学习:高维统计、 PCA 、神经网络初始化

核心洞察 - 高维随机性会涌现出精确可预测的结构 - 噪声可以被系统地识别和去除 - 普适性使理论具有广泛的适用性

随机矩阵理论仍是一个活跃的研究领域,不断有新的发现和应用涌现。掌握这些基础概念,将为你进入更深层次的研究打下坚实基础。

参考资料

  1. Bai, Z., & Silverstein, J. W. Spectral Analysis of Large Dimensional Random Matrices. Springer, 2010.
  2. Anderson, G. W., Guionnet, A., & Zeitouni, O. An Introduction to Random Matrices. Cambridge University Press, 2010.
  3. Mehta, M. L. Random Matrices. Academic Press, 2004.
  4. Tulino, A. M., & Verd ú, S. "Random Matrix Theory and Wireless Communications." Foundations and Trends in Communications and Information Theory, 2004.
  5. Bouchaud, J. P., & Potters, M. "Financial Applications of Random Matrix Theory: A Short Review." arXiv:0910.1205, 2009.
  6. Couillet, R., & Debbah, M. Random Matrix Methods for Wireless Communications. Cambridge University Press, 2011.

本文是《线性代数的本质与应用》系列的第十四章。

  • 本文标题:线性代数(十四)随机矩阵理论
  • 本文作者:Chen Kai
  • 创建时间:2019-03-14 15:00:00
  • 本文链接:https://www.chenk.top/%E7%BA%BF%E6%80%A7%E4%BB%A3%E6%95%B0%EF%BC%88%E5%8D%81%E5%9B%9B%EF%BC%89%E9%9A%8F%E6%9C%BA%E7%9F%A9%E9%98%B5%E7%90%86%E8%AE%BA/
  • 版权声明:本博客所有文章除特别声明外,均采用 BY-NC-SA 许可协议。转载请注明出处!
 评论