算數平均 的設計矩陣是一個全為1的列向量。
本節給出了一個簡單線性回歸的例子,其中有一個解釋變量和有七個觀測值。這七個數據點是
{
y
i
,
x
i
}
,
i
=
1
,
2
,
⋯
,
7
{\displaystyle \left\{y_{i},x_{i}\right\},i=1,2,\cdots ,7}
。該簡單線性回歸模型可以表示為:
y
i
=
β
0
+
β
1
x
i
+
ε
i
,
{\displaystyle y_{i}=\beta _{0}+\beta _{1}x_{i}+\varepsilon _{i},\,}
其中
β
0
{\displaystyle \beta _{0}}
為y軸的截距,
β
1
{\displaystyle \beta _{1}}
是回歸線的斜率。該模型可以表示為矩陣形式:
[
y
1
y
2
y
3
y
4
y
5
y
6
y
7
]
=
[
1
x
1
1
x
2
1
x
3
1
x
4
1
x
5
1
x
6
1
x
7
]
[
β
0
β
1
]
+
[
ε
1
ε
2
ε
3
ε
4
ε
5
ε
6
ε
7
]
{\displaystyle {\begin{bmatrix}y_{1}\\y_{2}\\y_{3}\\y_{4}\\y_{5}\\y_{6}\\y_{7}\end{bmatrix}}={\begin{bmatrix}1&x_{1}\\1&x_{2}\\1&x_{3}\\1&x_{4}\\1&x_{5}\\1&x_{6}\\1&x_{7}\end{bmatrix}}{\begin{bmatrix}\beta _{0}\\\beta _{1}\end{bmatrix}}+{\begin{bmatrix}\varepsilon _{1}\\\varepsilon _{2}\\\varepsilon _{3}\\\varepsilon _{4}\\\varepsilon _{5}\\\varepsilon _{6}\\\varepsilon _{7}\end{bmatrix}}}
其中設計矩陣中的第一列用以估計y軸的截距,而第二列包含與相應y值相關的x值。
本節給出了一個有兩個協變量(解釋變量)的多元回歸 例子:
w
{\displaystyle w}
和
x
{\displaystyle x}
。假設數據由七個觀測值組成,對於每個待預測的觀測值
y
i
{\displaystyle y_{i}}
,兩個協變量的值
w
i
{\displaystyle w_{i}}
和
x
i
{\displaystyle x_{i}}
也被觀察到。該模型可以表示為:
y
i
=
β
0
+
β
1
w
i
+
β
2
x
i
+
ε
i
{\displaystyle y_{i}=\beta _{0}+\beta _{1}w_{i}+\beta _{2}x_{i}+\varepsilon _{i}}
該模型可以表示為矩陣形式:
[
y
1
y
2
y
3
y
4
y
5
y
6
y
7
]
=
[
1
w
1
x
1
1
w
2
x
2
1
w
3
x
3
1
w
4
x
4
1
w
5
x
5
1
w
6
x
6
1
w
7
x
7
]
[
β
0
β
1
β
2
]
+
[
ε
1
ε
2
ε
3
ε
4
ε
5
ε
6
ε
7
]
{\displaystyle {\begin{bmatrix}y_{1}\\y_{2}\\y_{3}\\y_{4}\\y_{5}\\y_{6}\\y_{7}\end{bmatrix}}={\begin{bmatrix}1&w_{1}&x_{1}\\1&w_{2}&x_{2}\\1&w_{3}&x_{3}\\1&w_{4}&x_{4}\\1&w_{5}&x_{5}\\1&w_{6}&x_{6}\\1&w_{7}&x_{7}\end{bmatrix}}{\begin{bmatrix}\beta _{0}\\\beta _{1}\\\beta _{2}\end{bmatrix}}+{\begin{bmatrix}\varepsilon _{1}\\\varepsilon _{2}\\\varepsilon _{3}\\\varepsilon _{4}\\\varepsilon _{5}\\\varepsilon _{6}\\\varepsilon _{7}\end{bmatrix}}}
右側的
7
×
3
{\displaystyle 7\times 3}
矩陣即為設計矩陣。
在單方向方差分析 中,此時的模型為
y
i
j
=
μ
+
τ
i
+
ε
i
j
{\displaystyle y_{ij}=\mu +\tau _{i}+\varepsilon _{ij}}
限制:
τ
1
{\displaystyle \tau _{1}}
為0
[
y
1
y
2
y
3
y
4
y
5
y
6
y
7
]
=
[
1
0
0
1
0
0
1
0
0
1
1
0
1
1
0
1
0
1
1
0
1
]
[
μ
τ
2
τ
3
]
+
[
ε
1
ε
2
ε
3
ε
4
ε
5
ε
6
ε
7
]
{\displaystyle {\begin{bmatrix}y_{1}\\y_{2}\\y_{3}\\y_{4}\\y_{5}\\y_{6}\\y_{7}\end{bmatrix}}={\begin{bmatrix}1&0&0\\1&0&0\\1&0&0\\1&1&0\\1&1&0\\1&0&1\\1&0&1\end{bmatrix}}{\begin{bmatrix}\mu \\\tau _{2}\\\tau _{3}\end{bmatrix}}+{\begin{bmatrix}\varepsilon _{1}\\\varepsilon _{2}\\\varepsilon _{3}\\\varepsilon _{4}\\\varepsilon _{5}\\\varepsilon _{6}\\\varepsilon _{7}\end{bmatrix}}}
Verbeek, Albert. The Geometry of Model Selection in Regression. Dijkstra, Theo K. (編). Misspecification Analysis. New York: Springer. 1984: 20–36. ISBN 0-387-13893-5 .