当前位置:首页>维修大全>综合>

线性回归方程判断依据(线性回归方程公式推导详细步骤)

线性回归方程判断依据(线性回归方程公式推导详细步骤)

更新时间:2024-06-26 18:11:21

线性回归方程判断依据

线性回归方程的判断依据主要包括两个方面:
模型的拟合度:线性回归模型通过最小化残差平方和来拟合数据。残差平方和是实际观测值与模型预测值之间的差的平方。如果模型的拟合度好,那么残差平方和应该较小。
模型的显著性:线性回归模型通过F检验或t检验来判断模型的显著性。F检验用于检验模型的整体显著性,而t检验用于检验单个变量的显著性。如果模型的显著性高,那么可以认为模型能够有效地解释变量之间的关系。
综上所述,判断线性回归方程的依据是模型的拟合度和显著性。如果模型能够有效地拟合数据,并且具有较高的显著性,那么可以认为该线性回归方程是合适的。

线性回归方程是利用数理统计中的回归分析,来确定两种或两种以上变数间相互依赖的定量关系的一种统计分析方法之一。 线性回归也是回归分析中第一种经过严格研究并在实际应用中广泛使用的类型。按自变量个数可分为一元线性回归分析方程和多元线性回归分析方程。

中文名

线性回归方程

外文名

Linear regression equation

领域

统计分析

学科

数学

应用

回归分析

简介

在统计学中,线性回归方程是利用最小二乘函数对一个或多个自变量和因变量之间关系进行建模的一种回归分析。这种函数是一个或多个称为回归系数的模型参数的线性组合。只有一个自变量的情况称为简单回归,大于一个自变量情况的叫做多元回归。(这反过来又应当由多个相关的因变量预测的多元线性回归区别,而不是一个单一的标量变量。)

在线性回归中,数据使用线性预测函数来建模,并且未知的模型参数也是通过数据来估计。这些模型被叫做线性模型。最常用的线性回归建模是给定X值的y的条件均值是X的仿射函数。不太一般的情况,线性回归模型可以是一个中位数或一些其他的给定X的条件下y的条件分布的分位数作为X的线性函数表示。像所有形式的回归分析一样,线性回归也把焦点放在给定X值的y的条件概率分布,而不是X和y的联合概率分布(多元分析领域)。

模型

理论模型

给一个随机样本,一个线性回归模型假设回归子和回归量之间的关系是除了X的影响以外,还有其他的变数存在。我们加入一个误差项(也是一个随机变量)来捕获除了之外任何对的影响。所以一个多变量线性回归模型表示为以下的形式:

其他的模型可能被认定成非线性模型。一个线性回归模型不需要是自变量的线性函数。线性在这里表示的条件均值在参数里是线性的。例如:模型在和里是线性的,但在里是非线性的,它是的非线性函数[1]。

数据和估计

区分随机变量和这些变量的观测值是很重要的。通常来说,观测值或数据(以小写字母表记)包括了n个值。

我们有个参数需要决定,为了估计这些参数,使用矩阵表记是很有用的。

其中Y是一个包括了观测值的列向量,包括了未观测的随机成分以及回归量的观测值矩阵:

X通常包括一个常数项。

如果X列之间存在线性相关,那么参数向量就不能以最小二乘法估计除非被限制,比如要求它的一些元素之和为0。

古典假设

1)样本是在母体之中随机抽取出来的。

2)因变量Y在实直线上是连续的,

3)残差项是独立同分布的,也就是说,残差是独立随机的,且服从高斯分布。

这些假设意味着残差项不依赖自变量的值,所以和自变量X(预测变量)之间是相互独立的。

在这些假设下,建立一个显示线性回归作为条件预期模型的简单线性回归方程,可以表示为:

求解方法

线性回归模型经常用最小二乘逼近来拟合,但他们也可能用别的方法来拟合,比如用最小化“拟合缺陷”在一些其他规范里(比如最小绝对误差回归),或者在回归中最小化最小二乘损失函数的惩罚。相反,最小二乘逼近可以用来拟合那些非线性的模型。因此,尽管最小二乘法和线性模型是紧密相连的,但他们是不能划等号的[2]。

更多栏目