字词 | 最小二乘法 |
类别 | 中英文字词句释义及详细解析 |
释义 | 最小二乘法 最小二乘法zuixiao erchengfa19世纪初,著名数学家高斯和P. S. 拉普拉斯由于研究误差分析而引进了最小二乘法,这个方法经过A. A.马尔可夫等许多学者的发展,成为统计分析上一个极为重要的方法。 y =f(a1,a2,…,ak;x1,x2,…,xm)。 今对y和x1,x2,…,xm作n次观测得(x1i,x 2i,…,xmi;y i) (i=1, 2, …, n),于是y的理论值 ![]() ![]() ![]() =最小值 由微分学的求极值方法可知a1,a2 ,…,ak应满足下列方程组 这种根据偏差的平方和为最小的条件来选择参数a 1,a 2 ,…,a k的方法叫做最小二乘法。 ☚ 总体标准差的估计 一元线性回归 ☛ 最小二乘法一种常用的数学方法。在实验中获得了自变量与因变量的若干个数对(x1,y1),(x2,y2),…,(xn,yn),要找出一个已知类型的函数y=f(x)(如线性函数y=ax+b等),使得偏差平分和 最小二乘法least square method是由样本观察值估计总体参数的一种方法。它要求各观察值和估计量的差的平方和为最小。 最小二乘法 最小二乘法考虑一个简单的例子。对x的一系列选定值x1,x2,…,xn,测出了y的相应值y1,y2,…,yn, 且 由此求出α和β。经验表明,在一般情况下,这样确定的经验公式可以很好地拟合给定的数据。最小二乘法是由勒让德提出的,在实践中应用广泛。 ☚ 实数连续统 数学归纳法 ☛ 最小二乘法亦称“最小平方法”。一种常用的数学方法。在处理实验数据计算回归方程系数,确定回归直线时,它使所确定的回归直线与所有观测值之差的平方和为最小。设有随机变量X和Y的n对观测值(x1,y1),……,(xn,yn),但不知道X和Y之间的精确数学关系式。为了求得它们之间的近似关系式,首先假定此关系式是一个系数未定的多项式(例如线性函数f(x)=ax+b),然后依据“使观测值与由回归方程计算出来的值的差的平方和 最小二乘法Least-square Method亦称“最小平方法”。一种常用的回归分析方法。是进行回归分析的基础。通过最小化误差的平方和寻找数据的最佳函数匹配。利用最小二乘法可以简便地求得未知的数据,并使得这些求得的数据与实际数据之间误差的平方和为最小。 最小二乘法在经济计量模型中一种常用的参数估计方法。这种方法可使最终由模型计算出来的因变量的估计值与其实际值之差的平方和最小。参见“经济计量模型”。 最小二乘法亦称 “最小平方法”。使对因变量的估计值与实际观测值之差的平方达到最小。目前常见的回归分析方法之一,是进行回归分析的基础。又被称作“ordinary least quare” (可译为 “普通最小二乘法” 或 “普通最小平方法”)。这一方法最早由勒让德提出,后经G. F. Guass和P. S. Laplace引入统计学研究之中。下面用一个线性回归模型来具体说明这一方法。对于回归模型: Y= Zβ+ε 有 ε = Y-Ŷ 式中,Y是被解释变量向量; Z是解释变量向量; u是白噪声向量; 其均值为零,方差为σ2;β是待估参数。最小二乘法要求待估的回归方程使得![]()
![]() ![]()
整理后有常规方程: (Z′Z)β= Z′Y 如果 (Z′Z)-1存在,以上常规方程有解: β= (Z′Z)-1Z′Y β就是回归模型Y= Zβ+ε的普通最小二乘估计值, 它使![]() 由于现实生活中往往出现违背线性回归模型的基本假设,如异方差性、多重共线性、残差自相关等等,以致矩阵 (Z′Z)近于退化,很难用普通最小二乘法进行模型参数估计。为此出现了基于它的一些更为一般和适用的方法,如广义最小二乘法、加权最小二乘法、间接最小二乘法、工具变量法、约束最小二乘法等等。 最小二乘法 最小二乘法least square亦称“最小平方法”。使对因变量的估计值与实际观测值之差的平方达到最小。目前常见的回归分析方法之一,是进行回归分析的基础。又被称作“ordinary least quare”(可译为“普通最小二乘法”或“普通最小平方法”)。这一方法最早由勒让德提出,后经G.F.Guass和P.S.Laplace引入统计学研究之中。下面用一个线性回归模型来具体说明这一方法。 式中,Y是被解释变量向量;Z是解释变量向量;u是白噪声向量;其均值为零,方差为σ2;β是待估参数。最小二乘法要求待估的回归方程使得 ![]() 因为Y和Z是已知的, ![]() ![]() ![]() ![]() ![]() 整理后有常规方程:(Z'Z) ![]() 如果(Z′Z)-1存在,以上常规方程有解:
![]() ![]() 由于现实生活中往往出现违背线性回归模型的基本假设,如异方差性、多重共线性、残差自相关等等,以致矩阵(Z′Z)近于退化,很难用普通最小二乘法进行模型参数估计。为此出现了基于它的一些更为一般和适用的方法,如广义最小二乘法、加权最小二乘法、间接最小二乘法、工具变量法、约束最小二乘法等等。 ☚ 回归分析 最小平方法 ☛ 最小二乘法 最小二乘法最小二乘法(A. M. Legendre,1752~1833)亦称最小平方法,是一种误差控制的基本方法,常用于回归分析和方差分析等方面。本法原理可用最简单的直线回归来说明。 Y对X的回归直线 因人而异,如用最小二乘法拟合直线,则将获得唯一的“最优”结果。最小二乘法的原理是使拟合的直线方程Ŷ=a+bX (1) 中的Y与相应的观察值Y之差的平方和,即∑(Y-Ŷ)2为最小。从上图来说,也就是各观察点至直线的纵向距离的平方和为最小。根据上述原则,利用数学分析中求极值的方法可求得: 将求得的a与b值代入式(1),即得所需的直线方程。 ☚ 总体方差估计 最可能数 ☛ 最小二乘法 最小二乘法又称最小平方法。其基本原理是使实际值与趋势值的离差的平方和为最小,以此拟合优良的趋势模型,从而测定长期趋势。 ☚ 扩大时距法 指数 ☛ 最小二乘法 最小二乘法也称“最小平方法”。一种确定空间平而上几个有线性关系趋势的点(x1,y1),(x2,y2),……(x ☚ 插值 等距抽样 ☛ 最小二乘法 最小二乘法least-squares principle分为“普通最小二乘法”(Ordinary Least Squares简称OLS)和“广义最小二乘法”(Generalized Least Squares简称GLS)。 Y=Xβ+u 根据X和Y的样本数据来估计参数β,设估计值为![]() Y=X Y的估计值 ![]() ![]() ![]() ![]() β=(X′X)-1X′Y 据[高斯—马尔可夫定理],对于经典线性回归模型使用普通最小二乘法,所得的参数估计式(即此处的β)是最优线性无偏估计式。 广义最小二乘法适用于违反经典假定的线性回归模型,设模型为: Y=Xβ+u 假定E(u)=0,E(uu′)=σ2Ω,其中σ2为常数,Ω为n阶对称正定矩阵,包含了异方差和(或)自相关的信息。经过模型变换和推导,得到β的广义最小二乘估计式为: β=(X′Ω-1X)-1X′Ω-1Y 据[高斯—马尔可夫定理],对于违反经典假定的线性回归模型,广义最小二乘估计式(即此处的 ![]() ☚ 双变量回归模型 多变量回归模型 ☛ 最小二乘法 最小二乘法亦称“最小平方法”。对一列统计观察数据,配合一条理论曲线,使所有观察值与理论曲线上对应的估计值的偏差的平方和为最小的方法。设有变量x和y的n对观察值(x1,y1)、(x2,y2)、…… (xn, yn) ,再求得理论曲线ŷ=f(x), 使其偏差平方和∑[yi-f(xi)]2为最小。例如,有理论线ŷi=a+bxi, 欲使∑[yi-(a+bxi)]2=G为最小,必须使 a= ![]() 将数据资料代入方程求得a和b的估计值,从而就得到了用最小二乘法求出的理论线ŷi=a+bxi。 ☚ 经济预测 参数估计 ☛ 最小二乘法 最小二乘法square method根据变量的一系列观测数据,按误差平方和最小的原则来建立变量之间的最优数学关系的方法,又称“最小平方法”。它是统计中常用的参数估计方法之一。指在确定一个己知类型函数的曲线时,使所有观察值与该曲线上的对应点之偏差的平方和为最小。设随机变量x和y的几对观察值为(x1y1),(x2y2)…(xnyn),在求得己知类型的函数y=f(x), 使其偏差平方和 ☚ 最小变化法 作品分析法 ☛ |
随便看 |
|
文网收录3541549条中英文词条,其功能与新华字典、现代汉语词典、牛津高阶英汉词典等各类中英文词典类似,基本涵盖了全部常用中英文字词句的读音、释义及用法,是语言学习和写作的有利工具。