欢迎来到第壹文秘! | 帮助中心 分享价值,成长自我!
第壹文秘
全部分类
  • 幼儿/小学教育>
  • 中学教育>
  • 高等教育>
  • 研究生考试>
  • 外语学习>
  • 资格/认证考试>
  • 论文>
  • IT计算机>
  • 法律/法学>
  • 建筑/环境>
  • 通信/电子>
  • 医学/心理学>
  • ImageVerifierCode 换一换
    首页 第壹文秘 > 资源分类 > DOCX文档下载
    分享到微信 分享到微博 分享到QQ空间

    机器学习期末复习题及答案.docx

    • 资源ID:1099681       资源大小:16.18KB        全文页数:10页
    • 资源格式: DOCX        下载积分:5金币
    快捷下载 游客一键下载
    账号登录下载
    三方登录下载: 微信开放平台登录 QQ登录
    下载资源需要5金币
    邮箱/手机:
    温馨提示:
    快捷下载时,如果您不填写信息,系统将为您自动创建临时账号,适用于临时下载。
    如果您填写信息,用户名和密码都是您填写的【邮箱或者手机号】(系统自动生成),方便查询和重复下载。
    如填写123,账号就是123,密码也是123。
    支付方式: 支付宝    微信支付   
    验证码:   换一换

    加入VIP,免费下载
     
    账号:
    密码:
    验证码:   换一换
      忘记密码?
        
    友情提示
    2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
    3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
    4、本站资源下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。
    5、试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。

    机器学习期末复习题及答案.docx

    一、单选题1、在条件随机场(CRF)中,参数的学习通常使用哪种优化算法?().K-Means聚类B.梯度提升机(GBM)C.支持向量机(SVM)D.随机梯度下降(SGD)正确答案:D2、在概率无向图模型中,什么是团分解(CIUSIerDCComPoSitiOn)?()A. 一种通过节点之间的边传播信息,以更新节点的边缘概率的方法B. 一种用于计算图的分割的算法C. 一种将联合概率分布分解为多个局部概率分布的方法D. 一种用于表示联合概率分布的无向树正确答案:C3、在数据不完备时:下列哪一种方法不是贝叶斯网络的参数学习方法().拉普拉斯近似B最大似然估计方法C.蒙特卡洛方法D.高斯逼近正确答案:B4、在有向图模型中,什么是条件独立性?()A.给定父节点的条件下,子节点之间独立B.所有节点之间都独立C.所有节点的状态相互独立D.任意两个节点都是独立的正确答案:A5、在概率有向图模型中,节点表示什么?()A.变量B.参数C.条件概率D.边正确答案:A6、下列哪一项表示簇中样本点的紧密程度?().簇个数B.就大小C.簇描述D.就密度正确答案:D7、闵可夫斯基距离表示为曼哈顿距离时P为:().1B.2C.3D.4正确答案:A8、谱聚类与K均值聚类相比,对于什么样的数据表现更好?()A.低维数据B.高维数据C.线性可分数据D.高密度数据正确答案:B9、SVM适用于什么类型的问题?().既可用于线性问题也可用于非线性问题B.仅适用于回归问题C.仅适用于非线性问题D仅适用于线性问题正确答案:10、对于在原空间中线性不可分的问题,支持向量机().在原空间中寻找非线性函数划分数据B.无法处理C.利用核函数把数据映射到高维空间I).在原空间中寻找线性函数划分数据正确答案:C11、U)A主题模型中的a1.pha参数控制着什么?().单词分布的稀疏性B.文档-主题分布的稀疏性C.模型大小I).模型收敛速度正确答案:B12、U)A的全称是什么?().1.atentDirich1.etA1.1.ocationB. I.inearDiscriminantAna1.ysisC.1.atentDataAna1.ysisD.1.in1.,atentDirich1.etA1.1.ocationearDataA1.gorithm正确答案:13、以下对于梯度下降法中学习率Ir的阐述,正确的是(AJr小,收敛速度较快BJr大,收敛速度较慢C. Ir小,收敛速度较慢且较不易收敛D-Ir大,收敛速度较快但可能导致不收敛正确答案:D14、在EM算法中,E代表期望,M代表()A.均值B.最大化C.最小化D.均方误差正确答案:B15、梯度下降中如何有效地捕捉到目标函数的全局最优?(A.调整学习速率B.增加模型熨杂度C.使用梯度下降的变种算法D.增加训练样本量正确答案:C二、多选题1、下列机器学习常用算法中哪个属于分类算法?().K-meansB.最小距离分类器CKN(K近邻)D.逻辑回归正确答案:B、C、D2、下列关于决策树的说法正确的是?()A.CART使用的是二叉树B.其可作为分类算法,也可用于回归模型C.不能处理连续型特征D.它易于理解、可解释性强正确答案:A、B、D3、下列属于k近邻算法中常用的距离度量方法的是?()A.余弦相似度B.欧式距离C.C哈顿距离D.闵可夫斯基距离正确答案:A、B、C、D4、下列屈于深度模型的是?()A. DNNB. 1.ightgbmC. I.STMD. Seq2Seq正确答案:A、C、D5、Sk1.earn中RFEeV方法分成哪两个部分?()A. RFEB. CVC. N1.PD. MM正确答案:A、B6、以下关于蒙特卡洛方法描述正确的是()A.蒙特卡洛方法计算值函数可以采用FirSt-YiSi1.方法B.蒙特卡洛方法方差很大C.蒙特卡洛方法计算值函数可以采用EVery-YiSi1.方法D.蒙特卡洛方法偏差很大正确答案:A、B、C7、为什么循环神经网络可以用来实现H动问答,比如对一句H然语言问句给出自然语言回答()A.因为F1.动问答可以看成是一种序列到序列的转换B.因为循环神经网络能够处理变长输入C.因为循环神经网要比卷积神经网更强大D.因为卷积神经网络不能处理字符输入正确答案:A、B8、通常有哪几种训练神经网络的优化方法()A.梯度下降法B.随机梯度下降法C.小批量随机梯度下降法D.集成法正确答案:A、B、C9、隐马尔可夫模型的三个基本问题是()A.估值问题B.寻找状态序列C.学习模型参数D.状态更新正确答案:A、B、C10、在数据不完备时,贝叶斯网络的参数学习方法有().高斯逼近B.蒙特卡洛方法C.拉普拉斯近似D最大似然估计方法正确答案:A、B、C11、基于约束的方法通过统计独立性测试来学习结点间的(),独立性B.相关性C.依赖性D.完备性正确答案:A、B12、基于搜索评分的方法,关键点在于(),确定合适的搜索策略B.确定评分函数C.确定搜索优先级D.确定选择策略正确答案:A、B13、条件随机场需要解决的关键问题有()A.特征函数的选择B.参数估计C.模型推断D.约束条件正确答案:A、B、C14、以下关于逻辑斯蒂回归模型的描述正确的是()A.针对分类的可能性进行建模,不仅能预测出类别,还可以得到属于该类别的概率B.宜接对分类的可能性进行建模,无需事先假设数据分布,这样就避免了假设分布不准确所带来的问题C.模型本质仍然是一个线性模型,实现相对简单D.逻辑斯蒂回归模型是线性回归模型正确答案:A、B、C、D15、1.DA模型在做参数估计时,最常用的方法是().Gibbs采样方法B.变分推断C.梯度下降).Beamsearch正确答案:A、B三、判断题1、关于EV算法的收敛性,EM算法理论上不能够保证收敛()正确答案:X2、多次运行,随机化初始点是对存在局部最优点的函数求解的一种方案()正确答案:3、训练算法的目的就是要让模型拟合训练数据()正确答案:×4、循环神经网络按时间展开后就可以通过反向传播算法训练了()14、关于1.DA模型中的K,K的指定,必须考虑数据集合的特点,选择一个较为优化的数值()正确答案:X15、GibbS采样是一类通用的采样方法,和M-H采样方法没有任何关系()正确答案:X16、吉布斯采样是一种通用的采样方法,对于任何概率分布都可以采样出对应的样本()正确答案:X17、EM算法通常不需要设置步长,而且收敛速度一般很快()正确答案:18、EM算法首先猜测每个数据来H哪个高斯分布,然后求取每个高斯的参数,之后再去重新猜测每个数据来自哪个高斯分布,类推进一步迭代,宜到收敛,从而得到最后的参数估计值()正确答案:19、EM算法因为是理论可以保证收敛的,所以肯定能够取得最优解()正确答案:X20、JeSSen不等式等号成立的条件是:变量为常数()正确答案:

    注意事项

    本文(机器学习期末复习题及答案.docx)为本站会员(p**)主动上传,第壹文秘仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知第壹文秘(点击联系客服),我们立即给予删除!

    温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。




    关于我们 - 网站声明 - 网站地图 - 资源地图 - 友情链接 - 网站客服 - 联系我们

    copyright@ 2008-2023 1wenmi网站版权所有

    经营许可证编号:宁ICP备2022001189号-1

    本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。第壹文秘仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知第壹文秘网,我们立即给予删除!

    收起
    展开