EM-最大期望算法
必要的前置知识
- 最大似然估计(MLE):找出一组参数(模型中的参数),使得似然函数(模型的输出概率)的值最大。
- 贝叶斯算法估计:从先验概率和样本分布情况来计算后验概率的一种方式。
- 最大后验概率估计(MAP):求 $\theta$ 使 $P(x|\theta)P(\theta)$ 的值最大,这也就是要求 $\theta$ 值不仅仅是让似然函数最大,同时要求 $\theta$ 本身出现的先验概率也得比较大。
- Jensen 不等式:如果函数 $f$ 为凸函数,那么存在公式$f(\theta x + (1-\theta)y) \leq \theta f(x) + (1-\theta) f(y)$,进一步推论得到若 $\theta_1,…\theta_k \geq 0$ 且$\theta_1+\theta_2+…+\theta_k = 1 $,则有 $f(\theta_1 x_1 + … + \theta_k x_k) \leq \theta_1 f(x_1) + … + \theta_k f(x_k)$。这里会在后续 EM 的公式推导中使用到,证明可以看这里。
Vim 安装配置
GTD vs OKR 时间管理思考
终端登录北邮校园网
curl 直接登录
重要的事情写在开头:现在 10.3.8.211
使用命令行登录可能会出现问题。
- 登录默认计流量的账号
1
curl 'http://10.3.8.217/login' --data 'user=student_id&pass=password&line='
SVD 奇异值分解
简述
SVD(Singular Value Decomposition),即奇异值分解,本质上是一种矩阵分解技术,在应用领域已经出现了进百年。矩阵分解技术指的是将一个原始矩阵表示成新的易于处理的形式,这种形式是两个或多个矩阵的乘积,可以简单的理解为因式分解。最早使用 SVD 的应用的领域为信息检索,使用 SVD 的检索方法称为隐性语义索引(Latent Semantic Index,LSI)或隐性语义分析(Latent Semantic Analysis,LSA)。
PCA 主成分分析
PCA
简要说明
PCA 的全称为主成分分析(Principal Component Analysis)。简单的来说,PCA 的本质是将原来的坐标系转变为新的坐标系,而新的坐标系的基的选择为原始数据中方差最大的方向。
OKR 简单总结
OKR (Objectives and Key Results) is a goal system used by Google and others. It is a simple tool to create alignment and engagement around measurable goals.