Skip to content

Latest commit

 

History

History
45 lines (39 loc) · 1.93 KB

百度凤巢机器学习算法.MD

File metadata and controls

45 lines (39 loc) · 1.93 KB

百度凤巢上海策略组(二面挂) 2018.8.3

讲道理问了很多问题,而且好多是随着我回答问的,有点不记得了

一面面试官评价是比曾经他在秋招的时候强点,但是有些需要工作经验加深理解

二面面试官觉得我对算法的追求不够。。只追求短平快了,不懂这个深要深到什么程度

6号周一在等腾讯omg二面的时候,帮我内推的同学发来二面面试官的消息,说思考很久把我挂了,要我戒骄戒躁

也是醉了,面试不仅要看能力,还要看缘分,就这样

一面

面试官还是挺nice的

  • 给一个数组,数组的数字代表股票价格,求一次买卖的最大股票收益
  • 1-n的全排列
  • lstm是什么的升级?解决了什么问题?
  • 讲一讲各种激活函数
  • attetion 机制
  • embedding的深层含义是什么
  • c 的const字段有什么意义
  • RF和GBDT的区别
  • 为什么GBDT可以提高准确率
  • 矩阵分解

二面

  • 自我介绍
  • 讲区块链
  • 区块链中51%攻击的经济学原理
  • 求树两个节点的最低公共祖先
  • 讲kaggle比赛
  • xgboost比gbdt的优化都有哪些
  • 为什么xgboost要求二阶导数
    • 泰勒展开逼近残差,二阶比一阶精度高
    • 通用性,所有二阶可导的loss function都可以用
    • 有些函数梯度在一阶上变化小,二阶变化大,参考牛顿法
  • 为什么gbdt没有正则
  • 讲项目
  • 计算一下项目中DNN的参数个数
  • gbdt与lr区别
  • 集成为什么会提高效果
  • l1 l2正则
  • xgb lgb调参怎么选参数
    • 贪婪搜索呗?面试官觉得不行?难道是贝叶斯参数优化?
  • 怎么样在没有得到未来数据的情况下提高模型对未来预测的效果
    • 讲道理我觉得这个问的非常扯淡,不就是泛化性,然后我说了一些降低方差的方法,面试官说是对未来预测的准确性,没有get到他的点,最后被说对算法的追求不够。。。。