回归分析

Eric讨论 | 贡献2021年6月8日 (二) 07:05的版本

回归分析(regression analysis),是一种建模方法,是建立因变量(或称结果变量,通常用Y表示)与一个或多个自变量(或称预测变量,通常用X表示)之前的关系模型,从而能够通过给定的自变量来估计预测因变量。

简介

时间轴

基本概念

名称 描述
变量 因变量(dependent variable)
自变量(independent variable)
回归模型
回归方程
一元回归分析与多元回归分析 一元回归分析,是只包含一个自变量的回归分析。
多元回归分析(multiple regression analysis),是包含两个或两个以上自变量的回归分析。
线性回归与非线性回归 线性回归(linear regression)是指变量之间是直线关系。
非线性回归(non-linear regression)是指变量之间是不是直线关系,而是曲线、曲面等。
简单线性回归
simple linear regression
即一元线性回归,是只含有一个自变量,并且自变量与因变量的关系是一条近似直线的回归分析。
虚拟变量
逻辑回归
logistic regression
也称logistic回归,是因变量只能取2个离散值(如成功与失败,有与没有等,一般使用0和1表示)的回归分析。

分析步骤

序号 步骤 描述
1 确定自变量和因变量 因变量,就是预测目标
自变量,是与预测目标相关的因素,可通过他人研究或经验常识初步确定。
2 确定回归模型类型 先绘制散点图,初步判断自变量与因变量是线性关系还是非线性关系。
3 建立回归模型
4 检验回归模型
5 预测

线性与非线性回归

资源

相关网页