写在前面
三月面试了好几轮,写个帖子记录一下问过的问题,为接下来的其他公司的面试查漏补缺一下,也给大家一些准备的方向。
腾讯
一面(凉)
自我介绍
问做过的项目,同时在过程中穿插用过的模型的问题,比如
word2vec两个模型的损失函数是什么
cbow和skipgram的比较,为什么skipgram会更好,哪个的计算复杂度高
为什么使用随机森林
决策树的分裂方式是什么,根据什么变量来决定分裂变量
手撕代码
给一个数N,k,每一轮可以进行两种操作的其中一种:①所有的数拆分成两个更小的数;②所有的数-1。已知拆分操作只能进行k次,问 最少需要多少次把所有数都消去
给一串数列,这串数列有正有负,但是总和为0。每个数xi代表一个村庄,正的表示村庄想卖出xi份水果,负的表示想买入xi份水果。两相邻村庄间的距离是相同的,单位距离运送一份水果的运费均相同,每份都是k。问,把每个村庄的需求和供给都解决掉需要的最少运送费是多少?
这是第一次面试,凉得很彻底,因为很多算法细节都没有好好复习,而且代码写的也不够整洁快速
阿里蚂蚁
一面
面我的是多方安全团队,问了很久他们做的东西,具体还是不太懂,大概意思就是法规限制了我们获取的数据规模和维度,要用有限的数据进行风险评估(比如银行贷款啊之类的)
问了我们硕士是授课型还是论文型,问了我们现在专业学习的东西和机器学习相关的部分有哪些,
然后问了我做词向量的项目,问优化方向之类的,有没有根据文本特征做定制化的算法调整
然后问了xgboost和randomforest的区别。什么场景表现会更好之类的。
然后问了一道逻辑题:两个人抽100个球,你是先手,每次两个人只能取1-6个球,问怎么抽才能使得你是最后一个把球抽完的
问了一道挺基础的算法:找出有序数组中位数,想优化时间复杂度。
感觉不是很匹配,面试官的意思是想要的是那种潜力型,会融合很多算法,开发新算法的人才,我太菜了
美团
美团的笔试还是做的挺差的,五题只做了两题,两题都只有27%。。
一面
word2vec
训练过程训练原理
训练的损失函数
我看到你做多分类情感分析多分类问题的损失函数是什么
Soft max的计算公式是什么?为什么使用指数函数?
LSTM的信息传递机制是什么?他和RNN相比有什么优势。
Bert
他和普通的Word2Vec模型相比优势在哪里
他为什么会有这样的优势(优势,指的是他能生成语境化的向量
Bert中的 transformer
attention multihead attention
注意力机制的运行过程是什么样的?
注意力机制中对于每一个词的分数会进行标准化,请问这一步的目的是什么
你刚刚提到batch normalization
BN的作用是什么?它有四个公式,每一个公式分别是什么,有什么各自的作用
我对于每一个Batch 都计算出来了他对应的均值跟方差这些,它们相互独立的吗?还是会相互影响。
我看你大多数是自然语言处理的事件,你有做过计算机视觉相关的任务吗?回答:有机器学习课上尝试手写卷积神经网络的代码
卷积神经网络的权重是怎么更新的,平均池化和最大持化的反向传播是怎么运作的?
没有手撕代码,但是让我直接实现kmeans的伪代码,不用编译
总结来说,美团一面问的都很基础的深度学习问题,都答出来了,因为准备过,所以说的时候比较有自信,然后挺流畅的。面试官就说觉得我基础知识挺扎实的挺好的(这个小哥人很nice,也是第一个这么夸我的面试官,挺受鼓舞的,很谢谢他
二面
大部分问题和一面的很接近,但是面试官好像是一面面试官的老大,会从更多维度来问你
word2vec训练过程的最后一步有什么办法可以优化softmax的计算,我没答上来,他就告诉我说是指数函数的计算会用查表来近似代替
你大部分用的神经网络都是比较浅层的,有没有试过更深的神经网络
有做过图像方面的深度学习项目吗
有没有在实践中应用过transformer
最后面试官的评价是基础知识比较好,但是实践经历和业界场景有差距emmm,然后面试才刚刚开始,没这么快能给你答复(好的我知道我是备胎了55555美团是我很想去的公司,我面试的部门是做美团外卖的推荐广告业务的,在他们场景中会用到很多的深度学习的模型(图像+nlp)来提取特征和做推荐预估, 而且关注了美团的技术博客,他们做的很多东西我都觉得和自己做过的项目很match。
原文标题:算法岗面经整理!查漏补缺
文章出处:【微信公众号:算法与数据结构】欢迎添加关注!文章转载请注明出处。
全部0条评论
快来发表一下你的评论吧 !