关于L1、L2正则化下列说法正确的是()。
A.L2正则化能防止过拟合,提升模型的泛化能力,但L1做不到这点
B.L2正则化技术又称为LassoRegularization
C.L1正则化得到的解更加稀疏
D.L2正则化得到的解更加稀疏
A.L2正则化能防止过拟合,提升模型的泛化能力,但L1做不到这点
B.L2正则化技术又称为LassoRegularization
C.L1正则化得到的解更加稀疏
D.L2正则化得到的解更加稀疏
A.L2正则化可以做特征选择
B.L1和L2正则化均可做特征选择
C.L1正则化可以做特征选择
D.L1和L2正则化均不可做特征选择
A.通过正则化可以减少网络参数的个数,一定程度可能增加过拟合
B.利用L1或L2正则化可以使权重衰减,从而一定程度上减少过拟合
C.在神经网络训练过程中类似dropout减少神经元或相关链接权的数量
D.通过增加数据扰动的数据增强减少了神经网络的过拟合
A.正则化:L1、L2正则化,为拟合增加条件约束
B.丢弃一些不能帮助我们正确预测的特征
C.保留所有的特征,但是减少参数的大小
D.构建更为复杂的模型
A.使用L1可以得到稀疏的权值,使用L2可以得到稀疏的权值
B.使用L1可以得到稀疏的权值,使用L2可以得到平滑的权值
C.使用L1可以得到平滑的权值,使用L2可以得到平滑的权值
D.使用L1可以得到平滑的权值,使用L2可以得到稀疏的权值
A.仅拥有同区域的邻居
B.仅知晓本level区域的信息
C.观察L1LSP,寻找最近的L1/L2
D.会安装一条通向最近L1/L2路由器的缺省路径
A.可能拥有其他区域的邻居
B.知晓level-2拓扑的信息
C.骨干L2VPN区域必须是连续的
D.拥有关于什么L1目标可达,以及如何通过L2拓扑达到它的信息
A.L1范数:为x向量各个元素绝对值之和。
B.L2范数:为x向量各个元素平方和的1/2次方,L2范数又称Euclidean范数或Frobenius范数
C.L1范数可以使权值稀疏,方便特征提取
D.L2范数可以防止过拟合,提升模型的泛化能力。
A.Dropout背后的思想其实就是把DNN当做一个集成模型来训练,之后取所有值的平均值,而不只是训练单个DNN
B.DNN网络将Dropout率设置为p,也就是说,一个神经元被保留的概率是1-p。当一个神经元被丢弃时,无论输入或者相关的参数是什么,它的输出值就会被设置为0
C.丢弃的神经元在训练阶段,对BP算法的前向和后向阶段都没有贡献。因为这个原因,所以每一次训练,它都像是在训练一个新的网络
D.Dropout方法通常和L2正则化或者其他参数约束技术(比如MaxNorm)一起使用,来防止神经网络的过拟合
A.CIS-IS有两个级别,区分两个层次
B.L1和L2运行相同的SPF算法
C.骨干区BACkBone是连续的Level2路由器的集合
D.一个路由器不能同时参与L1和L2
A.架空线必须架设在专用电杆或树木上,严禁架设在脚手架及其他设施上
B.电杆埋深宜为杆长的1/10加0.6m。在松软土质处宜加大埋入深度或采用卡盘等加固
C.动力、照明线在同一横担上架设时,导线相序排列是,面向负荷从左侧起依次为L1、N、L2、L3、PE
D.动力、照明线在二层横担上分别架设时,导线相序排列是,上层横担面向负荷从左侧起依次为L1、L2、L3,下层横担面向负荷从左侧起依次为L1(L2、L3)、N、PE