来  源:https://blog.csdn.net/sinat_35512245/article/details/78796328【各省公考试卷】2016年山东公务员考试《行测》卷数量关系部分总结了200道经典的机器学习面试题(附参考答案) 象棋残局(图1)

刷题,是面试前的必备环节。本文总结了往年BAT机器学习面试题,干货满满,值得收藏。

想要入职大厂可谓是千军万马过独木桥。

为了通过层层考验,刷题肯定是必不可少的。这份刷题宝典拿好哦!

1.请简要介绍下SVM。

SVM,全称是support vector machine,中文名叫支持向量机。SVM是一个面向数据的分类算法,它的目标是为确定一个分类超平面,从而将不同的数据分隔开。

扩展:

支持向量机学习方法包括构建由简至繁的模型:线性可分支持向量机、线性支持向量机及非线性支持向量机。当训练数据线性可分时,通过硬间隔最大化,学习一个线性的分类器,即线性可分支持向量机,又称为硬间隔支持向量机;当训练数据近似线性可分时,通过软间隔最大化,也学习一个线性的分类器,即线性支持向量机,又称为软间隔支持向量机;当训练数据线性不可分时,通过使用核技巧及软间隔最大化,学习非线性支持向量机。

支持向量机通俗导论(理解SVM的三层境界)

https://www.cnblogs.com/v-July-v/archive/2012/06/01/2539022.html

机器学习之深入理解SVM

http://blog.csdn.net/sinat_35512245/article/details/54984251

2.请简要介绍下Tensorflow的计算图。

@寒小阳:Tensorflow是一个通过计算图的形式来表述计算的编程系统,计算图也叫数据流图,可以把计算图看做是一种有向图,Tensorflow中的每一个计算都是计算图上的一个节点,而节点之间的边描述了计算之间的依赖关系。

3.请问GBDT和XGBoost的区别是什么?

@Xijun LI:XGBoost类似于GBDT的优化版,不论是精度还是效率上都有了提升。与GBDT相比,具体的优点有:

损失函数是用泰勒展式二项逼近,而不是像GBDT里的就是一阶导数;

对树的结构进行了正则化约束,防止模型过度复杂,降低了过拟合的可能性;

节点分裂的方式不同,GBDT是用的基尼系数,XGBoost是经过优化推导后的。

知识点链接:集成学习的总结

https://xijunlee.github.io/2017/06/03/集成学习的总结/

4.在k-means或kNN象棋残局,我们是用欧氏距离来计算最近的邻居之间的距离。为什么不用曼哈顿距离?

曼哈顿距离只计算水平或垂直距离,有维度的限制。另一方面,欧氏距离可用于任何空间的距离计算问题。因为,数据点可以存在于任何空间,欧氏距离是更可行的选择。例如:想象一下国际象棋棋盘,象或车所做的移动是由曼哈顿距离计算的,因为它们是在各自的水平和垂直方向做的运动。

5.百度2015校招机器学习笔试题。

知识点链接:百度2015校招机器学习笔试题

http://www.itmian4.com/thread-7042-1-1.html

6.简单说说特征工程。

【各省公考试卷】2016年山东公务员考试《行测》卷数量关系部分总结了200道经典的机器学习面试题(附参考答案) 象棋残局(图2)

7.关于LR。

@rickjin:把LR从头到脚都给讲一遍。建模,现场数学推导,每种解法的原理,正则化,LR和maxent模型啥关系,LR为啥比线性回归好。有不少会背答案的人,问逻辑细节就糊涂了。原理都会? 那就问工程,并行化怎么做,有几种并行化方式,读过哪些开源的实现。还会,那就准备收了吧,顺便逼问LR模型发展历史。

【各省公考试卷】2016年山东公务员考试《行测》卷数量关系部分总结了200道经典的机器学习面试题(附参考答案) 象棋残局(图3)

知识点链接:机器学习之Logistic回归(逻辑蒂斯回归)

http://blog.csdn.net/sinat_35512245/article/details/54881672

8.overfitting怎么解决?

dropout、regularization、batch normalizatin

9.LR和SVM的联系与区别?

@朝阳在望,联系:

1、LR和SVM都可以处理分类问题,且一般都用于处理线性二分类问题(在改进的情况下可以处理多分类问题) 

2、两个方法都可以增加不同的正则化项,如L1、L2等等。所以在很多实验中,两种算法的结果是很接近的。

区别:

1、LR是参数模型,SVM是非参数模型。

2、从目标函数来看,区别在于逻辑回归采用的是Logistical Loss,SVM采用的是hinge loss.这两个损失函数的目的都是增加对分类影响较大的数据点的权重,减少与分类关系较小的数据点的权重。

3、SVM的处理方法是只考虑Support Vectors,也就是和分类最相关的少数点,去学习分类器。而逻辑回归通过非线性映射,大大减小了离分类平面较远的点的权重,相对提升了与分类最相关的数据点的权重。

4、逻辑回归相对来说模型更简单,好理解,特别是大规模线性分类时比较方便。而SVM的理解和优化相对来说复杂一些,SVM转化为对偶问题后,分类只需要计算与少数几个支持向量的距离,这个在进行复杂核函数计算时优势很明显,能够大大简化模型和计算。

5、Logic 能做的 SVM能做,但可能在准确率上有问题,SVM能做的Logic有的做不了。

答案来源:机器学习常见面试问题(一)

http://blog.csdn.net/timcompp/article/details/62237986

10.LR与线性回归的区别与联系?

@nishizhen:  个人感觉逻辑回归和线性回归首先都是广义的线性回归, 其次经典线性模型的优化目标函数是最小二乘,而逻辑回归则是似然函数, 另外线性回归在整个实数域范围内进行预测,敏感度一致,而分类范围,需要在[0,1]。逻辑回归就是一种减小预测范围,将预测值限定为[0,1]间的一种回归模型,因而对于这类问题来说,逻辑回归的鲁棒性比线性回归的要好。

@乖乖癞皮狗:逻辑回归的模型本质上是一个线性回归模型,逻辑回归都是以线性回归为理论支持的。但线性回归模型无法做到sigmoid的非线性形式,sigmoid可以轻松处理0/1分类问题。

11.为什么XGBoost要用泰勒展开,优势在哪里?

@AntZ:XGBoost使用了一阶和二阶偏导, 二阶导数有利于梯度下降的更快更准. 使用泰勒展开取得二阶倒数形式, 可以在不选定损失函数具体形式的情况下用于算法优化分析.本质上也就把损失函数的选取和模型算法优化/参数选择分开了. 这种去耦合增加了XGBoost的适用性。

12.XGBoost如何寻找最优特征?是又放回还是无放回的呢?

@AntZ:XGBoost在训练的过程中给出各个特征的评分,从而表明每个特征对模型训练的重要性.。XGBoost利用梯度优化模型算法, 样本是不放回的(想象一个样本连续重复抽出,梯度来回踏步会不会高兴)。但XGBoost支持子采样, 也就是每轮计算可以不使用全部样本。

13.谈谈判别式模型和生成式模型?

判别方法:由数据直接学习决策函数 Y = f(X),或者由条件分布概率 P(Y|X)作为预测模型,即判别模型。

生成方法:由数据学习联合概率密度分布函数 P(X,Y),然后求出条件概率分布P(Y|X)作为预测的模型,即生成模型。

由生成模型可以得到判别模型,但由判别模型得不到生成模型。

常见的判别模型有:K近邻、SVM、决策树、感知机、线性判别分析(LDA)、线性回归、传统的神经网络、逻辑斯蒂回归、boosting、条件随机场

常见的生成模型有:朴素贝叶斯、隐马尔可夫模型、高斯混合模型、文档主题生成模型(LDA)、限制玻尔兹曼机

14.L1和L2的区别。

L1范数(L1 norm)是指向量中各个元素绝对值之和,也有个美称叫“稀疏规则算子”(Lasso regularization)。

比如 向量A=[1,-1,3], 那么A的L1范数为 |1|+|-1|+|3|. 

简单总结一下就是:

L1范数: 为x向量各个元素绝对值之和。

L2范数: 为x向量各个元素平方和的1/2次方,L2范数又称Euclidean范数或Frobenius范数

Lp范数: 为x向量各个元素绝对值p次方和的1/p次方。

在支持向量机学习过程中,L1范数实际是一种对于成本函数求解最优的过程,因此,L1范数正则化通过向成本函数中添加L1范数,使得学习得到的结果满足稀疏化,从而方便人类提取特征。

L1范数可以使权值稀疏,方便特征提取。

L2范数可以防止过拟合,提升模型的泛化能力。

15.L1和L2正则先验分别服从什么分布 ?

@齐同学:面试中遇到的,L1和L2正则先验分别服从什么分布,L1是拉普拉斯分布,L2是高斯分布。

16.CNN最成功的应用是在CV,那为什么NLP和Speech的很多问题也可以用CNN解出来?为什么AlphaGo里也用了CNN?这几个不相关的问题的相似性在哪里?CNN通过什么手段抓住了这个共性?

@许韩

知识点链接(答案解析):深度学习岗位面试问题整理笔记

https://zhuanlan.zhihu.com/p/25005808

17.说一下Adaboost,权值更新公式。当弱分类器是Gm时,每个样本的的权重是w1,w2…,请写出最终的决策公式。

答案解析

http://www.360doc.com/content/14/1109/12/20290918_423780183.shtml

18.LSTM结构推导,为什么比RNN好?

推导forget gate,input gate,cell state, hidden information等的变化;因为LSTM有进有出且当前的cell informaton是通过input gate控制之后叠加的,RNN是叠乘,因此LSTM可以防止梯度消失或者爆炸。

19.经常在网上搜索东西的朋友知道,当你不小心输入一个不存在的单词时,搜索引擎会提示你是不是要输入某一个正确的单词,比如当你在Google中输入“Julw”时,系统会猜测你的意图:是不是要搜索“July”,如下图所示:

【各省公考试卷】2016年山东公务员考试《行测》卷数量关系部分总结了200道经典的机器学习面试题(附参考答案) 象棋残局(图4)

这叫做拼写检查。根据谷歌一员工写的文章How to Write a Spelling Corrector显示,Google的拼写检查基于贝叶斯方法。请说说的你的理解,具体Google是怎么利用贝叶斯方法,实现”拼写检查”的功能。

用户输入一个单词时,可能拼写正确,也可能拼写错误。如果把拼写正确的情况记做c(代表correct),拼写错误的情况记做w(代表wrong),那么”拼写检查”要做的事情就是:在发生w的情况下,试图推断出c。换言之:已知w,然后在若干个备选方案中,找出可能性最大的那个c,也就是求P(c|w)P(c|w)的最大值。而根据贝叶斯定理,有:

【各省公考试卷】2016年山东公务员考试《行测》卷数量关系部分总结了200道经典的机器学习面试题(附参考答案) 象棋残局(图5)

由于对于所有备选的c来说,对应的都是同一个w,所以它们的P(w)是相同的,因此我们只要最大化P(w|c)P(c)即可。其中:

P(c)表示某个正确的词的出现”概率”,它可以用”频率”代替。如果我们有一个足够大的文本库,那么这个文本库中每个单词的出现频率,就相当于它的发生概率。某个词的出现频率越高,P(c)就越大。比如在你输入一个错误的词“Julw”时,系统更倾向于去猜测你可能想输入的词是“July”,而不是“Jult”,因为“July”更常见。

P(w|c)表示在试图拼写c的情况下,出现拼写错误w的概率。为了简化问题,假定两个单词在字形上越接近,就有越可能拼错,P(w|c)就越大。举例来说,相差一个字母的拼法,就比相差两个字母的拼法,发生概率更高。你想拼写单词July,那么错误拼成Julw(相差一个字母)的可能性,就比拼成Jullw高(相差两个字母)。值得一提的是,一般把这种问题称为“编辑距离”,参见程序员编程艺术第二十八~二十九章:最大连续乘积子串、字符串编辑距离。

http://blog.csdn.net/v_july_v/article/details/8701148#t4

所以,我们比较所有拼写相近的词在文本库中的出现频率,再从中挑出出现频率最高的一个,即是用户最想输入的那个词。具体的计算过程及此方法的缺陷请参见How to Write a Spelling Corrector。

http://norvig.com/spell-correct.html

20.为什么朴素贝叶斯如此“朴素”?

因为它假定所有的特征在数据集中的作用是同样重要和独立的。正如我们所知,这个假设在现实世界中是很不真实的,因此,说朴素贝叶斯真的很“朴素”。

21.机器学习中,为何要经常对数据做归一化?

@zhanlijun

本题解析来源:为什么一些机器学习模型需要对数据进行归一化?

http://www.cnblogs.com/LBSer/p/4440590.html

22.谈谈深度学习中的归一化问题。

详情参见此视频:深度学习中的归一化

http://www.julyedu.com/video/play/69/686

23.请简要说说一个完整机器学习项目的流程。

1. 抽象成数学问题 

明确问题是进行机器学习的第一步。机器学习的训练过程通常都是一件非常耗时的事情,胡乱尝试时间成本是非常高的。

这里的抽象成数学问题,指的我们明确我们可以获得什么样的数据,目标是一个分类还是回归或者是聚类的问题,如果都不是的话,如果划归为其中的某类问题。

2. 获取数据 

数据决定了机器学习结果的上限,而算法只是尽可能逼近这个上限。数据要有代表性,否则必然会过拟合。而且对于分类问题,数据偏斜不能过于严重,不同类别的数据数量不要有数个数量级的差距。

而且还要对数据的量级有一个评估,多少个样本,多少个特征,可以估算出其对内存的消耗程度,判断训练过程中内存是否能够放得下。如果放不下就得考虑改进算法或者使用一些降维的技巧了。如果数据量实在太大,那就要考虑分布式了。

3. 特征预处理与特征选择 

良好的数据要能够提取出良好的特征才能真正发挥效力。

特征预处理、数据清洗是很关键的步骤,往往能够使得算法的效果和性能得到显著提高。归一化、离散化、因子化、缺失值处理、去除共线性等,数据挖掘过程中很多时间就花在它们上面。这些工作简单可复制,收益稳定可预期,是机器学习的基础必备步骤。

筛选出显著特征、摒弃非显著特征,需要机器学习工程师反复理解业务。这对很多结果有决定性的影响。特征选择好了,非常简单的算法也能得出良好、稳定的结果。这需要运用特征有效性分析的相关技术,如相关系数、卡方检验、平均互信息、条件熵、后验概率、逻辑回归权重等方法。

4. 训练模型与调优 

直到这一步才用到我们上面说的算法进行训练。现在很多算法都能够封装成黑盒供人使用。但是真正考验水平的是调整这些算法的(超)参数,使得结果变得更加优良。这需要我们对算法的原理有深入的理解。理解越深入,就越能发现问题的症结,提出良好的调优方案。

5. 模型诊断 

如何确定模型调优的方向与思路呢?这就需要对模型进行诊断的技术。

过拟合、欠拟合 判断是模型诊断中至关重要的一步。常见的方法如交叉验证,绘制学习曲线等。过拟合的基本调优思路是增加数据量,降低模型复杂度。欠拟合的基本调优思路是提高特征数量和质量,增加模型复杂度。

误差分析 也是机器学习至关重要的步骤。通过观察误差样本,全面分析误差产生误差的原因:是参数的问题还是算法选择的问题,是特征的问题还是数据本身的问题……

诊断后的模型需要进行调优,调优后的新模型需要重新进行诊断,这是一个反复迭代不断逼近的过程,需要不断地尝试, 进而达到最优状态。

6. 模型融合 

一般来说,模型融合后都能使得效果有一定提升。而且效果很好。

工程上,主要提升算法准确度的方法是分别在模型的前端(特征清洗和预处理,不同的采样模式)与后端(模型融合)上下功夫。因为他们比较标准可复制,效果比较稳定。而直接调参的工作不会很多,毕竟大量数据训练起来太慢了,而且效果难以保证。

7. 上线运行 

这一部分内容主要跟工程实现的相关性比较大。工程上是结果导向,模型在线上运行的效果直接决定模型的成败。不单纯包括其准确程度、误差等情况,还包括其运行的速度(时间复杂度)、资源消耗程度(空间复杂度)、稳定性是否可接受。

这些工作流程主要是工程实践上总结出的一些经验。并不是每个项目都包含完整的一个流程。这里的部分只是一个指导性的说明,只有大家自己多实践,多积累项目经验,才会有自己更深刻的认识。

故,基于此,七月在线每一期ML算法班都特此增加特征工程、模型调优等相关课。比如,这里有个公开课视频《特征处理与特征选择》。

24.new 和 malloc的区别?

知识点链接:new 和 malloc的区别

https://www.cnblogs.com/fly1988【各省公考试卷】2016年山东公务员考试《行测》卷数量关系部分总结了200道经典的机器学习面试题(附参考答案) 象棋残局(图6)
51、三个工程队完成一项工程,每天两队工作、一队轮休,最后耗时13天整完成了这项工程。问如果不轮休,三个工程队一起工作,将在第几天内完成这项工程?A、6天B、7天C、8天D、9天
解析:
设三个工程队的效率均为1,那么工程总量为【各省公考试卷】2016年山东公务员考试《行测》卷数量关系部分总结了200道经典的机器学习面试题(附参考答案) 象棋残局(图7)。若三队不轮休,一起工作,总效率为3,完成工程的时间需要【各省公考试卷】2016年山东公务员考试《行测》卷数量关系部分总结了200道经典的机器学习面试题(附参考答案) 象棋残局(图8)天,则将在第9天内完成这项工程。故正确答案为D。‍‍
‍‍‍52、甲仓库有100吨的货物要运送到乙仓库,装载或者卸载每吨货物需要耗时6分钟,货车到达乙仓库后,需要花15分钟进行称重,而汽车每次往返需要2小时。问使用一辆载重15吨的货车可以比载重12吨的货车少用多少时间?A、3小时20分钟‍‍B、3小时40分钟C、4小时D、4小时30分钟
解析:
‍‍要将甲仓库100吨的货物运送到乙仓库,使用一辆载重15吨的货车需要7次,使用载重12吨的货车需要9次,由于货物总量一定,装卸时间耗费相同,则使用一辆载重15吨的货车可以比载重12吨的少2次称重及2次往返的时间,即 2小时*2+15分钟*2=4小时30分钟。故正确答案为D。‍‍
53、某个社区老年协会的会员都在象棋、围棋、太极拳、交谊舞和乐器五个兴趣班中报名了至少一项。如果要在老年协会中随机抽取会员进行调查,至少要调查多少个样本才能保证样本中有4名会员报的兴趣班完全相同?A、93B、94C、96D、97
解析:
‍‍老年协会的会员在五个兴趣班中报名至少一项,则报名不同的情况数为【各省公考试卷】2016年山东公务员考试《行测》卷数量关系部分总结了200道经典的机器学习面试题(附参考答案) 象棋残局(图9)种。考虑最不利原则,有4名会员报兴趣班相同,最不利值为3,则至少要调查【各省公考试卷】2016年山东公务员考试《行测》卷数量关系部分总结了200道经典的机器学习面试题(附参考答案) 象棋残局(图10)人才能保证有4名会员报的兴趣班完全相同。故正确答案为B‍‍54、甲乙丙三个工厂每天共可以生产防水布2万平方米。现有一批救灾物资要生产,如果将防水布生产任务交给甲乙联合或乙丙联合或甲丙联合完成,分别需要24、30和40天。如果三个工厂联合完成生产任务,且每个工厂每天的产能各增加1万平方米,问可以比在不增加产能的情况下提前几天完成?A、6B、8C、10D、12
解析:
‍‍甲乙联合、乙丙联合、甲丙联合分别需要24、30和40天完成,则甲乙丙联合一天的效率为【各省公考试卷】2016年山东公务员考试《行测》卷数量关系部分总结了200道经典的机器学习面试题(附参考答案) 象棋残局(图11),已知每天共生产防水布2万平方米,则工程总量为【各省公考试卷】2016年山东公务员考试《行测》卷数量关系部分总结了200道经典的机器学习面试题(附参考答案) 象棋残局(图12)万平方米。不增加产能时,共需20天完成;每厂各增加产能1万平方米后,甲乙丙每天共生产防水布5万平方米,则需【各省公考试卷】2016年山东公务员考试《行测》卷数量关系部分总结了200道经典的机器学习面试题(附参考答案) 象棋残局(图13)天,提前【各省公考试卷】2016年山东公务员考试《行测》卷数量关系部分总结了200道经典的机器学习面试题(附参考答案) 象棋残局(图14)天。故正确答案为D。‍‍
55、今天是本月的1日同时也是星期一,且今年某月的1日又是星期一。问这两个1日之间最多相隔几个月?A、6B、7C、9D、11
解析:
‍‍考虑本月的1日也是星期一,且今年的某月的1日又是星期一,一周有7天,两者之间的间隔也一定为7的倍数。要求最多间隔月数,考虑每月除以7的余数和也能被7整除即可,各月份除以7的余数分别为3、0(1)、3、2、3、2、3、3、2、3、2、3天,最大间隔为某平年的1月1日到10月1日或者2月1日到11月1日余数和均为21,之间间隔9个月。故正确答案为C。‍‍
56、一支车队共有20辆大拖车,每辆车的车身长20米,两辆车之间的距离是10米,行进的速度是54千米/小时。这支车队需要通过长760米的桥梁(从第一辆车头上桥到最后一辆车尾离开桥面计时),以双列队通过与以单列对通过花费的时间比是:A、7 : 9B、29 :59C、3 : 5D、1 : 2
解析:
‍‍速度一定,时间和路程成正比。双队列的路程为20×10+9×10+760=1050米,单列队的路程为20×20+19×10+760=1350米。路程之比为1050:1350=7:9,则时间比是7:9。故正确答案为A。‍‍
57、某企业采购了一批文具和书本赠送给希望小学的学生。如果向每个学生捐赠2件文具和3本书,则剩下的书数量是文具的1.5倍;如果向每个学生再多捐赠1件文具和1本书,则剩下的书数量是文具的2倍。该企业最终决定向每个学生捐赠6件文具和10本书,则其还需要采购的书本数量是文具的多少倍?A、1倍B、2倍C、3倍D、4倍
解析:
‍‍方法一:捐赠2件文具和3本书,文具和书捐赠比例是2:3;剩下的书数量是文具的1.5倍,即剩下文具和书的比例是2:3;可以得到原来文具和书的比例也是2:3。假设文具为2A,书为3A,学生数为N,如果向每个学生再多捐赠1件文具和1本书,剩余的文具为2A-3N,剩余的书为3A-4N,则有2(2A-3N)=3A-4N,可以得到A=2N。即文具为2A=2×2N=4N,书为3A=3×2N=6N。‍该企业最终决定向每个学生捐赠6件文具和10本书,则还需采购文具6N-4N=2N,书10N-‍6N=4N。那么,其还需要采购的书本数量是文具的4N÷2N=2倍。‍‍故正确答案为B。方法二:赋值法。假设学生为1人,则文具总数是4件,书总数是6本即可满足题意。该企业最终决定向每个学生捐赠6件文具和10本书,则还需文具2件,书4本,那么需要采购的书本数量是文具的2倍。故正确答案为B。‍‍
58、某公司甲、乙和丙三个销售部在2014年的销售额分别占公司总销售额的40%、35%和25%,其在2015年的销售额分别比上年增长了20%、300万元和16%,而总销售额增长了1800万元。问甲销售部的销售额比上年增长的数量比丙销售部高多少万元?A、200B、300C、400D、500
解析:
‍‍设2014年总销售额为A,则甲销售部的销售额为40%A,2015年比上年增长了40%A×20%=0.08A;同理丙销售部比上年增长了25%A×16%=0.04A。则有0.08A+300+0.04A=1800万元,即0.12A=1500万元,而甲销售部的销售额比上年增长的数量比丙销售部高0.08A-0.04A=0.04A=1500÷3=500万元。故正确答案为D。‍‍
59、某房间共有6扇门,甲、乙、丙三人分别从任一扇门进去,再从剩下的5扇门中的任一扇出来,问甲未经过1号门,且乙未经过2号门,且丙未经过3号门进出的概率为多少?A、125/216B、8/27C、27/64D、64/125
解析:
‍‍甲从任一扇门进去,再从剩下的5扇门中的任一扇出来的总情况数是6×5,而甲满足条件的情况数是5×4,则甲的概率为【各省公考试卷】2016年山东公务员考试《行测》卷数量关系部分总结了200道经典的机器学习面试题(附参考答案) 象棋残局(图15);同理乙丙。则甲未经过1号门,且乙未经过2号门,且丙未经过3号门进出的概率为【各省公考试卷】2016年山东公务员考试《行测》卷数量关系部分总结了200道经典的机器学习面试题(附参考答案) 象棋残局(图16)。故正确答案为B。‍‍
60、某公司推出A、B两种新产品,产品A售价为X元,本月售出了Y件;产品B售价为Y元。本月A、B两种产品共售出500件,且产品A的销量为产品B的3倍多,产品A的销售额为1万元。问A、B两种产品本月可能的最高销售总额最接近下列哪个值?A、5.5万元B、5.7万元C、7.2万元D、7.5万元
解析:‍‍‍‍‍‍‍‍‍‍‍‍‍‍
由题意,得【各省公考试卷】2016年山东公务员考试《行测》卷数量关系部分总结了200道经典的机器学习面试题(附参考答案) 象棋残局(图17)由产品A的销量为产品B的3倍多可得,Y>3(500-Y),即4Y>1500,Y>375。则【各省公考试卷】2016年山东公务员考试《行测》卷数量关系部分总结了200道经典的机器学习面试题(附参考答案) 象棋残局(图18),要使此式结果最大,【各省公考试卷】2016年山东公务员考试《行测》卷数量关系部分总结了200道经典的机器学习面试题(附参考答案) 象棋残局(图19)‍‍‍‍要最小,最小Y=375,代入可得10000+375×125≈5.7万元。‍‍‍‍‍‍‍‍故正确答案为B。‍‍
61、某商品上周一开始销售,售价为100元/件,商家规定:如日销售量超过100件,则第二天每件提价10%销售;如日销售量不超过50件,则第二天每件降价10%销售;其它情况价格不变。最终发现,上周该商品共销售了400件。问上周日该商品的价格最高可能是多少元?A、99B、100C、110D、121
解析:‍‍
要使周日商品的价格最高,在调价机会次数固定的情况下,必然是提价次数要最多,降价次数要最少。若要提价次数最多,在一周总销量固定的情况下,则要求提价前一天的销售量尽量少,价格不变情况的销量也尽量少,可赋值提价前一天的销量为101件,价格不变前一天的销量为51件。且因为周日当天的销量不影响周日的价格,所以可以赋值周日销量为0。设提价次数为X,价格不变次数为Y,可得不等式方程组:【各省公考试卷】2016年山东公务员考试《行测》卷数量关系部分总结了200道经典的机器学习面试题(附参考答案) 象棋残局(图20)【各省公考试卷】2016年山东公务员考试《行测》卷数量关系部分总结了200道经典的机器学习面试题(附参考答案) 象棋残局(图21),X和Y均为整数,代入运算可得两组结果:【各省公考试卷】2016年山东公务员考试《行测》卷数量关系部分总结了200道经典的机器学习面试题(附参考答案) 象棋残局(图22)【各省公考试卷】2016年山东公务员考试《行测》卷数量关系部分总结了200道经典的机器学习面试题(附参考答案) 象棋残局(图23)