黄海广老师的机器学习课程期末考试题(满分100分,附答案)
黄海广博士的机器学习课程登陆了中国大学慕课,目前已经结课,第二期将在本月中旬开课,第一期有1.1万人报名学习。
课程地址:
https://www.icourse163.org/course/WZU-1464096179
敬请关注,第二期即将在寒假开放!
第一期课程结束后,很多人咨询期末考试答案,今天,黄海广博士公布了课程的期末考试答案,期末考试一共60题(单选30题,多选10题,判断题20题)一共100分,可以测试自己的机器学习水平。
若需要答案,关注公众号,回复“期末考试”可以获取答案。
1.单选(每题 2 分)
1.一监狱人脸识别准入系统用来识别待进入人员的身份,此系统一共包括识别 4 种不同的人员:狱警,小偷,送餐员,其他。下面哪种学习方法最适合此种应用需求:
A.回归问题
B.二分类问题
C.多分类问题
D.K-means 聚类问题
2.以下哪种技术对于减少数据集的维度会更好
A.删除缺少值太多的列
B.删除数据差异较大的列
C.删除不同数据趋势的列
D.都不是
3.将原始数据进行集成、变换、维度规约、数值规约是在以下哪个步骤的任务?
A.频繁模式挖掘
B.分类和预测
C.数据预处理
D.数据流挖掘
4.下列不是 SVM 核函数的是( )
A.多项式核函数
B.逻辑核函数
C.径向基核函数
D.线性核函数
5.数据科学家可能会同时使用多个算法(模型)进行预测, 并且最后把这些算法的结果集成起来进行最后的预测(集成学习),以下对集成学习说法正确的是
A.单个模型之间有高相关性
B.单个模型之间有低相关性
C.在集成学习中使用“平均权重”而不是“投票”会比较好
D.单个模型都是用的一个算法
6. 在以下不同的场景中,使用的分析方法不正确的有()
A.根据商家最近一年的经营及服务数据,用聚类算法判断出天猫商家在各自主营类目下所属的商家层级
B.根据商家近几年的成交数据,用聚类算法拟合出用户未来一个月可能的消费金额公式
C.用关联规则算法分析出购买了汽车坐垫的买家,是否适合推荐汽车脚垫
D.根据用户最近购买的商品信息,用决策树算法识别出淘宝买家可能是男还是女
7.bootstrap 数据的含义是
A.有放回的从整体 M 中抽样 m 个特征
B.无放回的从整体 M 中抽样 m 个特征
C.有放回的从整体 N 中抽样 n 个样本
D.无放回的从整体 N 中抽样 n 个样本
8.在逻辑回归中,如果同时加入 L1 和 L2 范数,不会产生什么效果
A.以做特征选择,并在一定程度上防止过拟合
B.能解决维度灾难问题
C.能加快计算速度
D.可以获得更准确的结果
9. 对于在原空间中线性不可分问题,支持向量机()。
A.在原空间中寻找非线性函数的划分数据
B.无法处理
C.在原空间中寻找线性函数划分数据
D.将数据映射到核空间中
10. 回归问题和分类问题的区别是?
A.回归问题有标签,分类问题没有
B.回归问题输出值是离散的,分类问题输出值是连续的
C.回归问题输出值是连续的,分类问题输出值是离散的
D.回归问题与分类问题在输入属性值上要求不同
11. 以下关于降维的说法不正确的是?
A.降维是将训练样本从高维空间转换到低维空间
B.降维不会对数据产生损伤
C.通过降维可以更有效地发掘有意义的数据结构
D.降维将有助于实现数据可视化
12. 向量 x=[1,2,3,4,-9,0]的 L1 范数是多少?
A.1
B.19
C.6
D.
13. 假设 X 和 Y 都服从正态分布,那么 P(X<5,Y<0)就是一个( ),表示 X<5,Y<0 两个条件同时成立的概率,即两个事件共同发生的概率。
A.先验概率
B.后验概率
C.联合概率
D.以上说法都不对
14. 假设会开车的本科生比例是 15%,会开车的研究生比例是 23%。若在某大学研究生占学生比例是 20%,则会开车的学生是研究生的概率是多少?
A.80%
B.16.6%
C.23%
D.27.71%
15. 假设有 100 张照片,其中,猫的照片有 60 张,狗的照片是 40 张。
识别结果:TP=40,FN=20,FP=10,TN=30,则可以得到:( )。
A.Accuracy=0.8
B.Precision=0.8
C.Recall=0.8
D.以上都不对
16.以下关于训练集、验证集和测试集说法不正确的是( )。
A.测试集是纯粹是用于测试模型泛化能力
B.训练集是用来训练以及评估模型性能
C.验证集用于调整模型参数
D.以上说法都不对
17. 下列哪种方法可以用来缓解过拟合的产生:( )。
A.增加更多的特征
B.正则化
C.增加模型的复杂度
D.以上都是
18. 假设有 6 个二维数据点:D={(2,3),(5,7),(9,6),(4,5),(6,4),(7,2)},第一次切分时候,切分线为( )。
A.x=5
B.x=6
C.y=5
D.y=6
19. 两个向量的长度分别为 1 和 2,两者之间的夹角为 60 度,则以下选项错误的是( )。
A.余弦相似度为 0.5
B.余弦相似度为正
C.余弦相似度没法计算,因为没给出具体坐标值
D.余弦相似度的值与向量的长度无关,只和向量之间的夹角有关
20.LightGBM 与 XGBoost 相比,主要的优势不包括( )
A.更快的训练速度
B.更低的内存消耗
C.更好的准确率
D.采用二阶泰勒展开加快收敛
21. 关于 BP 算法优缺点的说法错误的是 ( )。
A.BP 算法不能用于处理非线性分类问题
B.BP 算法训练时间较长
C.BP 算法容易陷入局部最小值
D.BP 算法训练时候可能由于权值调整过大使得激活函数达到饱和
22. 神经网络算法有时会出现过拟合的情况,那么采取以下哪些方法解决过拟合更为可行()。
A.为参数选取多组初始值,分别训练,再选取一组作为最优值
B.增大学习的步长
C.减少训练数据集中数据的数量
D.设置一个正则项减小模型的复杂度
23.SVM 算法的最小时间复杂度是 O(n^2)。基于这一点,以下哪种规格的数据集并不适用于该算法?( )
A.大数据集
B.小数据集
C.中数据集
D.不受数据集大小的影响
24. 一个正例(2,3),一个负例(0,-1),下面哪个是 SVM 超平面?( )
A.2x+y-4=0
B.2y+x-5=0
C.x+2y-3=0
D.无法计算
25. 下列关于 Kmeans 聚类算法的说法错误的是( )。
A.对大数据集有较高的效率并且具有可伸缩性
B.是一种无监督学习方法
C.K 值无法自动获取,初始聚类中心随机选择
D.初始聚类中心的选择对聚类结果影响不大
26. 简单地将数据对象集划分成不重叠的子集,使得每个数据对象恰在一个子集中,这种聚类类型称作( )。
A.层次聚类
B.划分聚类
C.非互斥聚类
D.密度聚类
27. 以下关于 PCA 说法正确的是 ( )。
A.PCA 是一种监督学习算法
B.PCA 在转换后的第一个新坐标轴选择的是原始数据中方差最小的方向
C.PCA 转换后选择的第一个方向是最主要特征
D.PCA 不需要对数据进行归一化处理
28. 关于 Apriori 和 FP-growth 算法说法正确的是( )。
A.Apriori 比 FP-growth 操作更麻烦
B.FP-growth 算法需要对项目进行配对,因此处理速度慢
C.FP-growth 只需要一次遍历数据,扫描效率高
D.FP-growth 算法在数据库较大时,不适宜共享内存
29. 某超市研究销售纪录数据后发现,买啤酒的人很大概率也会购买尿布,这种属于数据挖掘的哪类问题?( )
A.关联规则发现
B.聚类
C.分类
D.自然语言处理
30. 置信度(confidence)是衡量兴趣度度量( )的指标。
A.简洁性
B.确定性
C.实用性
D.新颖性
2.多选(每题 2 分)
31. 下面哪些是分类算法?
A. 根据肿瘤的体积、患者的年龄来判断良性或恶性?
B.根据用户的年龄、职业、存款数量来判断信用卡是否会违约?
C.身高 1.85m,体重 100kg 的男人穿什么尺码的 T 恤?
D.根据房屋大小、卫生间数量等特征预估房价
32. 以下哪些是使用数据规范化(特征缩放)的原因?
A.它通过降低梯度下降的每次迭代的计算成本来加速梯度下降
B.它通过减少迭代次数来获得一个好的解,从而加快了梯度下降的速度
C.它不能防止梯度下降陷入局部最优
D.它防止矩阵不可逆(奇异/退化)
33. 影响 KNN 算法效果的主要因素包括( )。
A.K 的值
B.距离度量方式
C.决策规则
D.最邻近数据的距离
34. 支持向量机有哪些常用的核函数( )。
A.高斯核
B.拉普拉斯核
C.线性核
D.多项式核
35. 以下关于支持向量机的说法正确的是 ( )。
A.SVM 适用于大规模数据集
B.SVM 分类思想就是将分类面之间的间隔最小化
C.SVM 方法简单,鲁棒性较好
D.SVM 分类面取决于支持向量
36. 关于 BP 算法优点说法正确的是( )。
A.BP 算法能够自适应学习
B.BP 算法有很强的非线性映射能力
C.BP 算法反向传播采用链式法则,推导过程严谨
D.BP 算法泛化能力不强
37. 下面关于支持向量机的描述正确的是( )。
A.是一种监督学习的方法
B.可用于多分类的问题
C.支持非线性的核函数
D.是一种生成模型
38. 下面属于降维常用的技术的有:( )。
A.主成分分析
B.特征提取
C.奇异值分解
D.离散化
39.PCA 算法获取的超平面应具有哪些性质 ( )。
A.最近重构性
B.信息增益最大性
C.最大可分性
D.局部极小性
40. 关于关联规则,正确的是:( )。
A.关联规则挖掘的算法主要有:Apriori 和 FP-Growth
B.一个项集满足最小支持度,我们称之为频繁项集
C.啤酒与尿布的故事是聚类分析的典型实例
D.支持度是衡量关联规则重要性的一个指标
3.判断(每题 1 分)
41. 支持向量是那些最接近决策平面的数据点
A.正确
B.错误
42. 相关变量的相关系数可以为零,对吗?
A.正确
B.错误
43.PCA 会选取信息量最少的方向进行投影。
A.正确
B.错误
44. 大部分的机器学习工程中,数据搜集、数据清洗、特征工程这三个步骤绝大部分时间,而数据建模,占总时间比较少。
A.正确
B.错误
45. 随机梯度下降,每次迭代时候,使用一个样本。
A.正确
B.错误
46. 朴素贝叶斯法的基本假设是条件独立性。
A.正确
B.错误
47.SMOTE 算法是用了上采样的方法。
A.正确
B.错误
48.L2 正则化得到的解更加稀疏。
A.正确
B.错误
49.ID3 算法只能用于处理离散分布的特征。
A.正确
B.错误
50. 集成学习的数据不需要归一化或者标准化。
A.正确
B.错误
51.BP 算法“喜新厌旧”,在学习新样本后,会把旧样本逐渐遗忘。
A.正确
B.错误
52.逻辑回归分类的精度不够高,因此在业界很少用到这个算法
A.正确
B.错误
53.SMOTE 算法是用了上采样的方法。
A.正确
B.错误
54.100 万条数据划分训练集、验证集、测试集,数据可以这样划分:98%,1%,1% 。
A.正确
B.错误
55.K 均值是一种产生划分聚类的基于密度的聚类算法,簇的个数由算法自动地确定。
A.正确
B.错误
56.朴素贝叶斯法的基本假设是条件独立性。
A.正确
B.错误
57.特征空间越大,过拟合的可能性越大。
A.正确
B.错误
58. 两个向量的余弦相似度越接近 1,说明两者越相似。
A.正确
B.错误
59.K 均值是一种产生划分聚类的基于密度的聚类算法,簇的个数由算法自动地确定。
A.正确
B.错误
60.ID3 算法的核心思想就是以信息增益来度量特征选择,选择信息增益最大的特征进行分裂。
A.正确
B.错误
往期精彩回顾 本站qq群955171419,加入微信群请扫码: