Skip to main content

Math

符号 {symbols}

forsymhtmllatexcn
plus+++
minus-
Multiplication××\times
Division÷÷\div
Not Equal To\ne
Plus minus±±\plusmn
real numberR\mathbb R实数
sum\sum求和
DeltaΔΔΔ\Delta
Nabla\nabla纳布拉
ceiling⌈⌉⌈⌉\lceil \rceil
floor⌊⌋⌊⌋\lfloor \rfloor
Angle Bracket⟨ ⟩⟨ ⟩\lang \rang
Dot Operator\sdot
verbar|\vert
Nabla
gradien
divergence (∇⋅)
curl (∇×)
note
  • HTML 使用十进制 ∇, Unicode 使用 十六进制。
  • Latex 与 HTML 大多名字相同

Scalar

Vector

  • 属性
    • length
    • distance
    • angle
notationformean
a\left\|\mathbf{a}\right\|length长度
ab\mathbf{a}\cdot\mathbf{b}dot product点积
a×b\mathbf{a}\times\mathbf{b}cross product叉积
θθangleab\angle\mathbf{a}\mathbf{b} 夹角
vector
an element of a vector space
Rn\reals ^n
Euclidean vector
Hilbert space
Length
长度
a=aa=a12+a22+a32=i=1nai2\begin{alignat*}{2} \left\|\mathbf{a}\right\| &= \sqrt{\mathbf{a}\cdot\mathbf{a}} \\ &= \sqrt{a_1^2+a_2^2+a_3^2} \\ &= \sqrt{\sum_{i=1}^n a_i^2} \end{alignat*}
Dot product
标量积
点积
ab=abcosθ\mathbf{a}\cdot\mathbf{b}=\left\|\mathbf{a}\right\|\left\|\mathbf{b}\right\|\cos\theta
ab=a1b1+a2b2+a3b3\mathbf{a} \cdot \mathbf{b} = a_1 b_1 + a_2 b_2 + a_3 b_3
(x1,,xn)(b,,yn)=i=1nxiyi\left(x_1,\:\:\ldots ,\:\:x_n\right)\cdot \left(b,\:\:\ldots ,\:\:y_n\right)=\sum _{i=1}^nx_iy_i
Cross product
矢量积
a×b=absin(θ)n\mathbf{a}\times\mathbf{b}=\left\|\mathbf{a}\right\|\left\|\mathbf{b}\right\|\sin(\theta)\,\mathbf{n}

Matrix

矩阵

Tensor

张量

  • rank 0 - scalar - 标量、纯量
  • rank 1 - vector - 向量
  • rank 2 - matrix - 矩阵
  • rank mm - d1×d2××dmd_1 \times d_2 \times \cdots \times d_m where di>0d_i > 0
    • mm - 称作 秩 或 阶
  • 协变张量 - 指标在下
  • 逆变张量 - 指标在上
  • 混合张量 - 上下都有指标

概率

abbr.stand formeaning
PMFProbability Mass Function概率质量函数
  • 概率论
  • 随机过程
  • 随机变量
  • 随机分布

期望

期望
Expectation
随机变量的“平均值”或者“加权平均值”。如果你重复进行一个随机实验很多很多次,那么每次结果的平均值就会越来越接近这个随机变量的期望。
E(X)E(X)

期望的意义:

期望是概率论中衡量随机变量集中趋势的重要指标。它告诉我们随机变量的平均表现会是什么样子。在风险评估、投资决策、精算等领域都有广泛应用。

离散随机变量的期望

E(X)=ixiP(X=xi)E(X) = \sum_{i} x_i P(X=x_i)

其中 xix_i 是随机变量 XX 的可能取值,P(X=xi)P(X=x_i)XX 取值为 xix_i 的概率。

连续随机变量的期望

E(X)=xf(x)dxE(X) = \int_{-\infty}^{\infty} x f(x) \, dx

其中 f(x)f(x) 是随机变量 XX 的概率密度函数。

概率分布

  • 类型:
    • 离散概率分布 (Discrete Probability Distribution): 随机变量只能取有限个或可数无限个特定值(通常是整数)。例如,抛硬币的次数、某个时间段内的顾客数量。
    • 连续概率分布 (Continuous Probability Distribution): 随机变量可以在一个连续区间内取任何值。例如,一个人的身高、一辆车行驶的时间。
  • 分布的意义:
    • 概率分布是统计学和概率论的基石。它能帮助我们:
      • 预测: 了解未来可能发生的事件的概率。
      • 决策: 在不确定性下做出更合理的选择。
      • 分析: 识别数据中的模式和异常。
离散连续/极限notes
二项分布泊松分布
几何分布指数分布
负二项分布伽马分布
泊松分布正太分布λ\lambda 足够大

离散概率分布

二项分布

  • 二项分布 (Binomial Distribution)
  • 描述在 nn 次独立试验中,成功次数的分布。
  • B(n,p)B(n, p)
    • 其中 nn 是试验次数,pp 是单次成功的概率。
  • PMF: P(X=k)=(nk)pk(1p)nkP(X=k) = \binom{n}{k} p^k (1-p)^{n-k}
    • 其中 kk 是成功次数,pp 是单次成功的概率。
  • E(X)=npE(X)=np
  • 应用场景
    • 产品质检: 100个产品中,有多少个是合格品(假设合格率固定)。
    • 抽样调查: 随机抽取20人,其中有多少人支持某个政策。
    • 体育比赛: 射手10次射门中,命中靶心的次数。

几何分布

  • 几何分布 (Geometric Distribution)
  • 描述第一次成功之前的失败次数。
  • 描述第一次成功所需的试验次数。
  • Geo(p)Geo(p)
    • 其中 pp 是单次成功的概率。
  • PMF: P(X=k)=(1p)k1pP(X=k) = (1-p)^{k-1} p
    • 表示第 kk 次试验中第一次成功的概率。
  • E(X)=1pE(X)=\frac{1}{p}
  • 应用场景
    • 市场营销: 平均需要打多少个推销电话才能成功卖出一单。
    • 生物实验: 进行多少次杂交实验才能得到第一个具有特定基因型的后代。
    • 游戏抽奖: 玩多少次抽奖才能抽到稀有物品。

负二项分布

  • 负二项分布 (Negative Binomial Distribution)
  • 几何分布是负二项分布r=1r=1的特例。
  • NB(r,p)NB(r, p)
    • 其中 rr 是成功次数,pp 是单次成功的概率。
  • PMF: P(X=k)=C(k1,r1)pr(1p)kP(X=k) = C(k-1, r-1) p^r (1-p)^k
  • E(X)=rpE(X)=\frac{r}{p}
  • 应用场景
    • 医生看病: 需要看多少个病人才能遇到5个患有某种特定疾病的病人。
    • 金融投资: 需要进行多少次投资才能获得3次盈利。
    • 生产线: 生产多少个零件才能得到10个合格品。

连续概率分布

正态分布

  • 正态分布 (Normal Distribution)
  • 高斯分布(Gaussian Distribution)
  • 自然界和统计学中最重要、最常见的连续概率分布之一。它以其独特的“钟形曲线”而闻名。
  • 描述数据在平均值附近对称分布的情况。
  • 参数
    • 均值 μ\mu: 分布的中心位置,决定了钟形曲线的对称轴。
    • 方差 σ2\sigma^2 或 标准差 σ\sigma: 决定了分布的“胖瘦”或“扩散程度”。
      • σ\sigma 越大,曲线越扁平,数据越分散。
      • σ\sigma 越小,曲线越陡峭,数据越集中。
  • 符号表示
    • N(μ,σ2)N(\mu, \sigma^2)
  • PDF: f(x)=12πσ2e(xμ)22σ2f(x) = \frac{1}{\sqrt{2\pi\sigma^2}} e^{-\frac{(x-\mu)^2}{2\sigma^2}}
  • PDF: f(x)=1σ2πe(xμ)22σ2f(x) = \frac{1}{\sigma\sqrt{2\pi}} e^{-\frac{(x-\mu)^2}{2\sigma^2}}
  • E(X)=μE(X)=\mu
  • 标准化正态分布 (Standard Normal Distribution)
    • μ=0\mu=0σ=1\sigma=1 时,称为标准正态分布,记作 N(0,1)N(0, 1)Z\mathcal{Z} 分布。
    • 任何一个正态分布都可以通过标准化转换为标准正态分布:
      • Z=XμσZ = \frac{X - \mu}{\sigma}
  • “68-95-99.7”法则 (经验法则)
    • 68% 的数据在 μ±σ\mu \pm \sigma 范围内, 即距均值1个标准差之内
    • 95% 的数据在 μ±2σ\mu \pm 2\sigma 范围内, 即距均值2个标准差之内
    • 99.7% 的数据在 μ±3σ\mu \pm 3\sigma 范围内, 即距均值3个标准差之内
  • 6 西格玛 (Six Sigma)
    • 质量管理方法,旨在减少缺陷率,通常假设数据服从正态分布。
  • 应用场景
    • 自然科学: 许多自然测量数据,如人类身高、体重、血压、测量误差、物理实验结果等,都近似服从正态分布。
    • 社会科学: 心理学测试分数(如智商)、考试成绩、某些人口学特征。
    • 经济金融: 股票价格的对数收益率(通常假定服从正态分布)、资产回报率、某些经济指标的波动。
    • 质量控制: 生产线上产品的尺寸、重量等指标的波动范围。
    • 统计推断: 许多统计方法(如假设检验、置信区间)都基于数据服从正态分布或其统计量服从正态分布的假设。
    • 机器学习: 许多算法(如线性回归、逻辑回归)在输入数据为正态分布时表现更好,或者模型误差假定服从正态分布。

指数分布

  • 指数分布 (Exponential Distribution)
  • 描述事件发生的时间间隔。
  • Exp(λ)Exp(\lambda)
    • 其中 λ\lambda 是事件发生的平均速率。
  • PDF: f(x)=λeλxf(x) = \lambda e^{-\lambda x}
  • E(X)=1λE(X)=\frac{1}{\lambda}
  • 应用场景
    • 设备寿命: 电子元件的无故障工作时间。
    • 服务等待: 顾客在银行排队等待服务的时间。
    • 电话接听: 两通电话打进来的时间间隔。

伽马分布

  • 伽马分布 (Gamma Distribution)
  • 描述等待时间的分布,特别是多个独立事件的总等待时间。
  • Gamma(k,θ)Gamma(k, \theta)
    • 其中 kk 是形状参数,θ\theta 是尺度参数。
    • θ=1/λ\theta = 1/\lambda,其中 λ\lambda 是速率参数。
  • Gamma(k,1/λ)Gamma(k, 1/\lambda)
  • PDF: f(x)=xk1exθθkΓ(k)f(x) = \frac{x^{k-1} e^{-\frac{x}{\theta}}}{\theta^k \Gamma(k)}
  • PDF: f(x)=λkxk1eλxΓ(k)f(x) = \frac{\lambda^k x^{k-1} e^{-\lambda x}}{\Gamma(k)}
    • 其中 Γ(k)\Gamma(k) 是伽马函数。
  • E(X)=kθE(X)=k\theta
  • 应用场景
    • 生物统计: 描述细胞分裂的时间间隔。
    • 保险精算: 描述索赔金额的分布。
    • 排队论: 描述顾客到达服务台的时间间隔。

泊松分布

  • 泊松分布 (Poisson Distribution)
  • 描述在固定时间内某事件发生的次数。
  • Poisson(λ)Poisson(\lambda)
    • 其中 λ\lambda 是单位时间内事件发生的平均次数。
  • PMF: P(X=k)=λkeλk!P(X=k) = \frac{\lambda^k e^{-\lambda}}{k!}
  • E(X)=λE(X)=\lambda
  • 应用场景
    • 电话呼叫中心: 每小时接到的电话数量。
    • 交通流量: 每分钟通过某个路口的车辆数量。
    • 生物统计: 某种罕见疾病在特定人群中的发病率。