年底了,技术群组织了一场算法岗技术&面试讨论会,邀请了一些同学分享他们的面试经历,讨论会会定期召开,如果你想加入我们的讨论群或者希望要更详细的资料,文末加入。
喜欢本文记得收藏、关注、点赞。
文章目录
bat 两个
大家好,今年秋招收获: bat两个oc一个评估中,其余互联网oc*2,积点功德,等更多oc,offer
- 岗位:nlp 算法岗
- 学习:南京大学
- 专业:计算机类
面试oj题
- 字典树构建,用字典树做搜索/分词; 求平方根
- 编辑距离,正则表达式匹配,寻找两个有序数组中位数,合并k个升序链表变体,岛屿数量,二叉树层次遍历,二叉树最大路径和,数组中第k大的元素等(lc hot100)
- python解析json结构,正则表达式匹配(re)
- 手撕: multihead self attention, logistic regression, layernorm(pytorch可用)
大模型:
今年nlp面试感觉逃不了大模型
- deepspeed框架介绍
- lora介绍,了解什么其他高效微调方法
- prompt tuning, instruct tuning, fine tuning差别
- llama中per norm,rmsnorm的介绍,优劣,position embedding构造方法
- prompt构造经验,怎样的prompt更好
业务场景
可能是本人业务经验少,问得大部分都是“从0开始构建xxx”的问题,比如“从0开始构建推荐系统”
另外,还有很多大数据场景问题,如海量数据中敏感词检测,海量任务调度等
概率题
绝大部分都是经典题,还有大数定理,连续分布的均值方差公式,有时需要用牛莱公式算积分(ps. 拉格朗日乘子法,一阶泰勒展开要熟悉)
平安科技
- 岗位:nlp算法岗(实习)
- 学校:苏州大学
- 专业:计算机类
1.自我介绍;
2.主要用过哪些深度学习框架(pytorch);
3.介绍自己的论文和项目;
4.什么是元学习(项目和论文中用到了);
5.多任务学习的一些框架(项目和论文中用到了,sharedbottom、mmoe、srn等);
6.介绍一下lr回归、xgboost、gbdt,以及他们的优缺点;
7.介绍一下bert和chactgpt;
8.如何处理文本信息(word2vec);
9.有用过c++吗,说一下c++的三个特性(封装、集成、多态);
10.sql有使用过吗,只会最简单的增删改查;
11.了解哪些深度学习模型(mlp、cnn、rnn、transformer),说一下各自的优缺点;
12.rnn有哪些问题(梯度消失、梯度爆炸),如何缓解(使用lstm结构,引入门控机制);
13.可以实习多长时间,学校导师放实习吗;
12.反问(实习主要做什么,自己应该补充哪些知识);
13.总结:本身是做推荐相关的,没有问太多nlp相关的内容,需要恶补一下nlp相关的知识,总体面试感觉良好;
金山
nlp算法面经(实习,换部门又面了一次)
之前面试金山武汉的部门给我挂了,但是因为又投了金山珠海的部门,所以又从头再来了一遍流程,希望这一次运气好点😅。
一面面试题目
1.计算机基础
(1)解决哈希冲突的方法
(2)哈夫曼树
(3)动态规划算法思想
2.word2vector的两种改进方法
3.在语言模型算法中可不可以使用两层lstm
4.讲解一下论文课题中的序列标注任务
5.有没有大模型相关的微调经验?
6.人类反馈强化学习算法流程
7.反问
感觉问的问题挺灵活的,我回答的也挺灵活😅,希望一面能过吧。
百度
岗位:nlp 算法岗(实习)
一面
-
首先是自我介绍加一个项目介绍 介绍了研究生期间的课题
用了什么方法?提升了多少指标?分析过badcase吗? -
简历有写大模型微调 问了目前的大模型微调方法你觉得哪一个最好?
-
反问
二面
-
自我介绍
-
介绍命名实体识别项目,实体嵌套怎么解决?
-
介绍大模型角色扮演项目,数据集怎么构建?原本微调后大模型只能扮演一个角色,问训练一次能否实现大模型的多个角色转换,怎么实现?
-
介绍下chatgpt?了解其它大模型吗?chatgpt一阶段预训练和二阶段指令微调有什么区别?
-
bert的预训练任务有什么?为什么引入下一个句子预测任务?了解bert变体吗?robert和bert区别在哪?
-
一道算法题-最长递增子序列
-
反问
总结:面试体验很好,专业性很强,hr反馈也很及时,现在offer评估中 许愿上岸!
oppo
岗位:提前批nlp算法岗
一面
之前投的是大模型,hr后面让我转岗了。
1.介绍第一个实习做的工作
2.介绍第二个实习的工作
3.介绍论文的工作
没有八股
手撕代码leetcode 769 没写出来,让面试官换成最长公共前缀了。。。
面试半小时结束了
二面半小时
-
介绍你最拿得出手的一个工作
-
介绍实习工作
-
有没有关注过机器翻译方向
-
无重复数字的全排列,口述算法思路。
-
一些别的个人情况介绍
滴滴
- 岗位:提前批nlp算法
- 学校:university of pennsylvania
- 专业:计算机类
-
自我介绍
-
简历内容项目细问(每个和nlp有关的都问了)
-
了解哪些大模型
-
介绍bert
-
相对位置编码的好处
-
介绍word2vec和优化方法
-
bert为什么用layernorm不用batchnorm
-
算法:找出和为给定目标值(target)的连续子数组
最后一道题忘记双指针可以做了,只想到暴力dfs了感觉题刷的还是不够,面试一紧张就容易做不出来
百度
岗位:nlp算法岗(日常实习)
一面
-
ptq和qat的区别
-
如果对embedding也做量化,你觉得会有什么问题
-
说一下常见的量化方法和原理
-
假如现在让你对transformer模型进行量化,你觉得需要量化哪些算子
-
矩阵乘法算子的量化过程
手撕(如流ide)
- 搜索二维矩阵 ⅱ lc原题
- top k
- python pep9规范 问题
二面
-
slu和nlu的区别
-
其他机器学习八股文
手撕(如流ide)
合并排序的数组 lc原题
三面
主管面,技术聊的比较少
走棋盘的多种解法:dp + 概率论
shein
岗位:nlp 算法岗
学校:中科大
专业:计算机类
一面
1.介绍一下blip2的架构;你觉得blip2的优势是什么;和之前的多模态模型有什么区别?
2.是怎么在电商领域微调的?
3.模型蒸馏是怎么做的?有试过无监督样本训练吗?
- 手撕代码,一个元素在一个有序数组的第一次出现位置。
二面
transformer的多头注意力的作用
介绍一下实习工作
写题:无序数组的中位数
笔试代码题没写出来,问我现在会不会写
快手
nlp 算法岗
手撕lru
手推两层网络的反向传播算法
手推transformer的注意力机制
svm 损失函数
f1为什么是1
auc计算
了解的激活函数
了解的优化算法
bert为什么是双向机制,gpt呢
transformer的多头是为什么
科大讯飞
飞星计划-ai算法(自然语言处理方向)
1.自我介绍
2.jieba 分词的原理
3.word2vec的原理,怎么训练的
3.有没有了解chatgpt是怎么训练出来的(项目涉及)
4.简述bert模型
5.pytorch中的train,val模块
6.怎么爬维基百科的,一天能爬多少条
7.在爬数据的时候有遇到哪些反爬的机制
8.mysql数据库的存储引擎,索引类型(聚簇索引、二级索引)
9.为啥想做ai
10.python中字典的结构,是用啥实现的
11.有一组无序数组,怎么取前10个最大的数
之前看面经说是归并排序,但hr说这不是最快的方法。
12.反问
技术交流群
前沿技术资讯、算法交流、求职内推、算法竞赛、面试交流(校招、社招、实习)等、与 10000+来自港科大、北大、清华、中科院、cmu、腾讯、百度等名校名企开发者互动交流~
我们建了nlp&大模型面试与技术交流群, 想要进交流群、需要源码&资料、提升技术的同学,可以直接加微信号:mlc2060。加的时候备注一下:研究方向 +学校/公司+csdn,即可。然后就可以拉你进群了。
用通俗易懂方式讲解系列
- 用通俗易懂的方式讲解:自然语言处理初学者指南(附1000页的ppt讲解)
- 用通俗易懂的方式讲解:1.6万字全面掌握 bert
- 用通俗易懂的方式讲解:nlp 这样学习才是正确路线
- 用通俗易懂的方式讲解:不用再找了,这就是 nlp 方向最全面试题库
- 用通俗易懂的方式讲解:灵魂 20 问帮你彻底搞定transformer
- 用通俗易懂的方式讲解:图解 transformer 架构
- 用通俗易懂的方式讲解:十分钟部署清华 chatglm-6b,实测效果超预期
- 用通俗易懂的方式讲解:内容讲解+代码案例,轻松掌握大模型应用框架 langchain
- 用通俗易懂的方式讲解:最全的大模型 rag 技术概览
- 用通俗易懂的方式讲解:利用 langchain 和 neo4j 向量索引,构建一个rag应用程序
- 用通俗易懂的方式讲解:使用 neo4j 和 langchain 集成非结构化知识图增强 qa
- 用通俗易懂的方式讲解:面了 5 家知名企业的nlp算法岗(大模型方向),被考倒了。。。。。
- 用通俗易懂的方式讲解:nlp 算法实习岗,对我后续找工作太重要了!。
- 用通俗易懂的方式讲解:基于 langchain-chatchat,我搭建了一个本地知识库问答系统
发表评论