type
status
date
slug
summary
tags
category
icon
password

📝 hw1

地转偏向力

notion image

📝 hw2

 

威布尔分布

在拟合威布尔分布时,常用的方法是通过最大似然估计(Maximum Likelihood Estimation, MLE)来估计参数。威布尔分布的最大似然估计可以通过以下步骤来进行:
1.威布尔分布概率密度函数(PDF)
威布尔分布的概率密度函数为:
2.最大似然估计:
大致思想:对于选取的样本X,使得出现该样本值得可能性最大,即使得最大
求解:
由于得单调递增函数,即可转化为求对数似然函数极大值的问题。
3.对数似然函数(Log-Likelihood Function)
对于一个样本集合 ,其对数似然函数为:
是样本的数量。
 
4.最大化对数似然函数
要估计 ,我们需要找到使得对数似然函数最大化的参数值。通常通过对 分别对 求偏导数,并令偏导数等于零来找到极值点。
  • 求偏导数,并令其等于零:
 
  • 求偏导数,并令其等于零:
通过求解这两个方程,可以得到最大似然估计的
5.解方程: 以上两个方程是非线性的,需要通过数值方法求解。通常使用数值优化算法(如牛顿法、梯度下降法等)来解这些方程,得到最大似然估计的
在代码中,stats.weibull_min.fit(data_flattened, floc=0) 函数就是使用最大似然估计来拟合威布尔分布。它会自动求解上述的最大似然估计方程,并返回估计的 k 和
notion image
参考代码:
参考文献:
韩旭里. 《概率论与数理统计》. 高等教育出版社, 2015, p. 143.

最小二乘法

最小二乘法(Least Squares Method)是一种常用的回归分析方法,用于拟合数据并估计未知参数。它的推导过程通常是针对线性回归的情况。在简单线性回归中,我们试图找到一条直线来拟合数据,使得观测数据与这条直线的残差平方和最小。
这里简要说明一下最小二乘法的推导过程,以简单线性回归为例:
假设我们有一组数据点 ,我们的目标是找到一条直线 来拟合这些数据点,其中 是直线的斜率, 是直线的截距。
1.建立模型: 我们的模型为简单线性回归模型:
其中, 是因变量(观测值), 是自变量(特征), 是斜率, 是截距, 是误差项(随机误差)。
2.定义残差: 对于第 个数据点,我们定义残差 为观测值 与模型预测值 之差:
3.残差平方和(Sum of Squared Residuals): 最小二乘法的目标是最小化残差的平方和,即残差平方和 定义为所有残差的平方之和:
我们的目标是找到最优的斜率 和截距 b,使得残差平方和 S 最小化。
4.最小化残差平方和: 要找到最小化残差平方和的 ,我们可以对 分别对 求偏导数,并令偏导数等于零来求解最优解。
  • 求偏导数,并令其等于零:
    • 解这个方程可以得到最优的斜率
  • 求偏导数,并令其等于零:
    • 解这个方程可以得到最优的截距
这样,通过求解以上方程组,可以得到最小二乘法的估计值,使得残差平方和最小,即:
 
It’no use crying over spilted milk.
 
模型训练测试模板我的第一篇博客