统计学习导论:基于R应用——第三章习题

时间:2021-10-09 01:51:28

第三章习题

部分证明题未给出答案

1.

表3.4中,零假设是指三种形式的广告对TV的销量没什么影响。而电视广告和收音机广告的P值小说明,原假设是错的,也就是电视广告和收音机广告均对TV的销量有影响;报纸的P值高,说明原假设成立,也就是报纸广告对TV的销量没啥影响。

2.

KNN回归和KNN近分类都是典型的非参数方法。这两者的区别在于,前者的输入和输出均为定量值;而后者的输入和输入和输出均为定性值。

3.

首先,有题目可知下面关系:Y = 50 + 20(gpa) + 0.07(iq) + 35(gender) + 0.01(gpa * iq) - 10 (gpa * gender)

(a) 当IQ和GPA一定的时候,Y的可变量是35*gender-10(gpa*gender).所以当GPA小的时候,无法判断前面变量的正负号,而当GPA足够大的时候,该变量一定是负的。所以当GPA足够大时,男性平均收入高于女性

(b) 直接套公式Y= 50 + 20 * 4 + 0.07 * 110 + 35 + 0.01 (4 * 110) - 10 * 4= 137.1

(c)错误。中文版61页有比较好的解释,实验分层原则规定:如果模型中含有交互项,那么即使主效应的系数的p值不显著,也应该包含在模型中。

4.

(a)一般来说,三次回归的训练RSS会比线性回归的训练RSS小,因为三次回归会对数据进行贴近训练集的拟合。

(b)题目中明确说明该数据的实际模型是线性拟合,所以用三次拟合会产生过拟合,而线性拟合有更好的泛化能力,所以线性回归的测试RSS小。

(c)答案和(a)一样

(d)由于不知道实际情况,所以无法判断。

8.

Auto = read.table("Auto.data.txt", header = T ,na.strings="?")
Auto = na.omit(Auto)

(a)

attach(Auto)
lm.fit = lm(mpg ~ horsepower)
summary(lm.fit)

i.由summary的结果来看,F-statistic很大而p-value很小,说明两者是有相关性的。

ii.由书的54页可知,看拟合效果如何,得看RSE和R-square。书上55页讲的挺清楚,不过目前不知道RSE在这里怎么解释拟合效果。。囧。。R-square为0.6059,这说明Y的变异中能被X解释的部分所占比例有60.59%

iii.由拟合出的参数可知,负相关。

iv.predict(lm.fit, data.frame(horsepower=c(98)), interval="confidence")。结果是24.47,置信区间是(23.97, 24.96)

 predict(lm.fit, data.frame(horsepower=c(98)), interval="prediction")。预测区间是(14.81, 34.12)

(b)

plot(horsepower, mpg)
abline(lm.fit)

(c)

par(mfrow=c(2,2))
plot(lm.fit)

9.

(a)

Auto = read.table("Auto.data.txt", header = T ,na.strings="?")
Auto = na.omit(Auto)
pairs(Auto)

(b)

cor(subset(Auto, select=-name))

(c)

lm.fit1 = lm(mpg~.-name, data=Auto)
summary(lm.fit1)

i.有。有f-statistic和p-value值可以判断

ii.由p-value小于0.05可知,displacement, weight, year, and origin这几个预测变量和响应变量有显著关系。

iii.车龄变量的系数是0.75,这说明随着车龄的增加,车子会越来越耗油。

(d)

par(mfrow=c(2,2))
plot(lm.fit1) plot(predict(lm.fit1), rstudent(lm.fit1))

(e)

lm.fit2 = lm(mpg~cylinders*displacement+displacement*weight)
summary(lm.fit2)

(f)

lm.fit3 = lm(mpg~log(weight)+sqrt(horsepower)+acceleration+I(acceleration^2))
summary(lm.fit3) par(mfrow=c(2,2))
plot(lm.fit3) plot(predict(lm.fit3), rstudent(lm.fit3)) lm.fit2<-lm(log(mpg)~cylinders+displacement+horsepower+weight+acceleration+year+origin,data=Auto)
summary(lm.fit2) par(mfrow=c(2,2))
plot(lm.fit2) plot(predict(lm.fit2),rstudent(lm.fit2))

10.

(a)

library(ISLR)
summary(Carseats) attach(Carseats)
lm.fit = lm(Sales~Price+Urban+US)
summary(lm.fit)

(b)

由summary(lm.fit)的结果的p-value和t-statistic可知,Price和US与Sales有关,Urban和Sales无关

(c)

Sales = 13.04 + -0.05*Price - 0.02*Urban + 1.20*US,其中Urban和US为YES时,值为1,否则为0

(d)

Price and US

(e)

由上面分析可知,Urban与Sales无关,所以我们可以去掉这个变量

lm.fit2 = lm(Sales~Price+US)
summary(lm.fit2)

(f)

(a)中Multiple R-squared:  0.239,  Adjusted R-squared:  0.234,(e)中Multiple R-squared:  0.239,  Adjusted R-squared:  0.235 ,可知两者拟合度差不多,而(e)稍微好点

(g)

confint(lm.fit2)

(h)

plot(predict(lm.fit2), rstudent(lm.fit2))

通过这个命令得到的图,我们可知,stuendtize residuals的范围在-3到3之间,所以没有离群点

par(mfrow=c(2,2))
plot(lm.fit2)

通过这个命令得到的图,我们可知,有一些点远远超过了其他点,故存在高杆点

11.

按照题目要求先生成x和y

set.seed(1)
x = rnorm(100)
y = 2*x + rnorm(100)

(a)

lm.fit = lm(y~x+0)
summary(lm.fit)

由结果可知,p-value接近0可知,原假设不成立

(b)

lm.fit = lm(x~y+0)
summary(lm.fit)

由结果可知,p-value接近0可知,原假设不成立

(c)

这个问题问得让我都觉得奇怪。。。答案是说明x和y确实是有关系么

(d)

由(a)中结果可知,t-value为18.73.而(sqrt(length(x)-1) * sum(x*y)) / (sqrt(sum(x*x) * sum(y*y) - (sum(x*y))^2))计算结果为18.72593

(e)

我们把t(x,y)换成t(y,x),会得到t(x,y)=t(y,x)

(f)

对比(a)和(b)结果就行

12.

(a)

由公式统计学习导论:基于R应用——第三章习题可知,当统计学习导论:基于R应用——第三章习题统计学习导论:基于R应用——第三章习题相等时,满足题意

(b)

set.seed(1)
x = rnorm(100)
y = 2*x
lm.fit = lm(y~x+0)
lm.fit2 = lm(x~y+0)
summary(lm.fit)
summary(lm.fit2)

(c)

set.seed(1)
x <- rnorm(100)
y <- -sample(x, 100)
lm.fit <- lm(y~x+0)
lm.fit2 <- lm(x~y+0)
summary(lm.fit)
summary(lm.fit2)

13.

这个题目比较简单。。就是写代码

(a)~(g)

set.seed(1)
x = rnorm(100) eps = rnorm(100, 0, sqrt(0.25)) y = -1 + 0.5*x + eps plot(x, y) lm.fit = lm(y~x)
summary(lm.fit) plot(x, y)
abline(lm.fit, lwd=3, col=2)
abline(-1, 0.5, lwd=3, col=3)
legend(-1, legend = c("model fit", "pop. regression"), col=2:3, lwd=3) lm.fit_sq = lm(y~x+I(x^2))
summary(lm.fit_sq)

(h)~(i)

这个把eps里的方差值改小一点就行了或者改大一点

set.seed(1)
eps1 = rnorm(100, 0, 0.125)
x1 = rnorm(100)
y1 = -1 + 0.5*x1 + eps1
plot(x1, y1)
lm.fit1 = lm(y1~x1)
summary(lm.fit1) abline(lm.fit1, lwd=3, col=2)
abline(-1, 0.5, lwd=3, col=3)
legend(-1, legend = c("model fit", "pop. regression"), col=2:3, lwd=3)
set.seed(1)
eps2 = rnorm(100, 0, 0.5)
x2 = rnorm(100)
y2 = -1 + 0.5*x2 + eps2
plot(x2, y2)
lm.fit2 = lm(y2~x2)
summary(lm.fit2) abline(lm.fit2, lwd=3, col=2)
abline(-1, 0.5, lwd=3, col=3)
legend(-1, legend = c("model fit", "pop. regression"), col=2:3, lwd=3)

(j)

confint(lm.fit)
confint(lm.fit1)
confint(lm.fit2)

14.

(a)

比较简单。统计学习导论:基于R应用——第三章习题,其中,统计学习导论:基于R应用——第三章习题

(b)~(e)

cor(x1, x2)
plot(x1, x2) lm.fit = lm(y~x1+x2)
summary(lm.fit) lm.fit = lm(y~x1)
summary(lm.fit) lm.fit = lm(y~x2)
summary(lm.fit)

(f)

不矛盾,因为x1和x2有相关性

(g)

计算离群点和高杆点在10题中做过了

15.

(a)

一个一个的做线性回归。。。累感不爱

(b)

lm.all = lm(crim~., data=Boston)
summary(lm.all)

(c)

x = c(coefficients(lm.zn)[2],
coefficients(lm.indus)[2],
coefficients(lm.chas)[2],
coefficients(lm.nox)[2],
coefficients(lm.rm)[2],
coefficients(lm.age)[2],
coefficients(lm.dis)[2],
coefficients(lm.rad)[2],
coefficients(lm.tax)[2],
coefficients(lm.ptratio)[2],
coefficients(lm.black)[2],
coefficients(lm.lstat)[2],
coefficients(lm.medv)[2])
y = coefficients(lm.all)[2:14]
plot(x, y)

(d)

类似下面代码一个一个的做回归。。。

lm.zn = lm(crim~poly(zn,3))
summary(lm.zn)