Regressão Linear

Prof. Doherty Andrade

Neste Jupyter notebook vamos tratar da técnica de regressão linear. É
uma importante técnica numérica para ajustar aos dados uma expressão
afim:$y(x) = b_0 + b_1x$.

A regressão simples ajusta aos dados $(x_k,y_k)$ uma reta da forma
$y=b_0 +b_1x$. O termo constante (b_0) é chamado de intercepto e o
termo (b_1) é chamado de coeficiente linear.

A regressão linear múltipla ajusta aos dados $(X_k,y_k)$, onde
$X_k=(x_{k,1},x_{k,2},\ldots, x_{k,m}) \in R^m$ uma expressão do tipo
$y=a_0+ a_1x_1+a_2x_2+\cdots+a_mx_m$.

Os coeficientes $a_i$ são chamados de parâmetros do modelo ou
coeficientes.

A técnica do mínimos quadrados apenas responde à pergunta: dentre todas
as retas, qual delas melhor se ajusta aos dados? Aqui não fazermos
nenhum estudo sobre a validade do ajuste.

Continue lendo aqui.

Tags :

Compartilhe:

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *