秋招被虐经历
公子龙
共 2037字,需浏览 5分钟
·
2021-09-27 16:50
作者 | Chevalier
整理 | NewBeeNLP
后台回复『面试』加入讨论组交流噢
简历背景:1个腾讯实习,4个比赛、2个项目,1篇CCF-A二作、1篇CCF-C一作 秋招总结:腾讯、字节offer,华为正在泡池子
字节 技术中台
一面
算法题:删除倒数第N个链表 为什么要用尖括号标记实体,尖括号在BERT词表中么,最好用unuse1字符 fasttext和word2vec的区别 xgboost和adaboost、GBDT、随机森林,随机森林如何采样 怎么解决人工漏标、错标,NER的损失函数,关系抽取为什么用这个模型,有调研其它模型么
二面
GG
手撕 编辑距离 xgboost如何分裂,公式,树的生成 逻辑回归推导 交叉熵 softmax
字节电商
一面
逻辑回归求导、均方误差和交叉熵的区别 防止欠拟合、过拟合、梯度爆炸的方式 BERT结构、transformer中feed forward的作用 self-attention的形式,为什么要除以根号d_k 算法题:手撕kmeans,链表反转、扑克牌随机分3堆,大小王在同一堆的概率 图最短路径算法
二面
比赛:为什么使用注意力机制、介绍multi sample dropout 注意力机制为什么不用多头 矩阵相加和点乘 SPU海量数据查重 softmax 手撕代码:前k个相似整数、最长不重复子串
三面
比赛 实习项目 手撕代码:堆排序、组成某个值的硬币种数(回溯)、不相邻子序列最大和
8.24 意向书
华为消费者BG
一面
算法题:LeetCode 739 每日温度 决策树算法有哪些:ID3、C4.5、CART TF-IDF特征 BERT mask策略,分别的作用 多模态建模思路 上线部署时延要求,模型剪枝、模型蒸馏 transformer与LSTM相比,优势在哪 boosting算法的优缺点
二面
实习项目 为什么要finetune 知识图谱技术路线,信息抽取综述
三面
问的问题跟HR差不多
阿里本地生活 知识图谱
一面
实习项目,fusion层,下一步如何优化,如何处理长文本, 语言模型,word2vec,具体流程,损失函数,优化算法(hierarchical softmax、negative sampling) 逻辑回归损失函数为什么取log 模型评估,F1、ROC-AUC kmeans聚类,向量距离不适合用欧氏距离衡量,如何变换 CRF损失,实体识别有尝试其他算法么,关系抽取阈值有选择么
网易有道 人工智能部门
一面
介绍中文人机对话技术评测比赛,别的队伍的优点 介绍试题生成项目 介绍BERT、attention公式,为什么除以根号dk 介绍AAAI的论文,负责哪部分 手撕算法:最小k个数、移掉k位数字
二面
正则化有哪些 深度神经网络为什么不使用sigmoid或tanh激活函数,什么情况下可以使用 self-attention时间复杂度 手撕:循环递增数组查找、self-attention实现
三面
给你一个项目,项目描述为:**********,描述下你的技术路线
百度 知识图谱部门
一面
实习 vggnet的resnet的区别,densenet transformer在哪些地方体现了共享和并行 比赛 项目 is 和 ==区别 re match 和 search range返回的是什么 python内存管理、浅拷贝和深拷贝 如何拼接字符串最高效 手撕:二叉树层序遍历、连续子数组乘积最大
二面
实习 比赛 docker原理 手撕:LRU 场景题:给定一个文章,如何识别出所有观点(一个句子),如何识别出核心观点,如何识别出提出者
三面
实习项目背景、难点分析 给定一个文本,如何抽取aspect、opinion、sentiment 反问:部门规模、氛围、交流,管理
四面
比赛负责什么,每个人的分工 情感识别的建模思路 知识图谱:项目背景,有考虑意图识别么,实体消歧,为什么用pipeline、不用joint 如果现在考虑的话该怎么提升模型性能 CRF和HMM的区别,HMM解决哪三个问题 CRF基于条件分布建模是什么意思,什么条件 维特比思路,解决HMM的什么问题 词向量发展历史:one-hot、NNLM、word2vec、glove(推导公式)、fasttext、ELMO、CoVE(不了解)、GPT、BERT、ERNIE(清华的不了解)、ERNIE 2.0、bert-wwm、roberta、xlnet
快手搜索推荐业务部
一面
聚类数目如何确定 ResNet主要解决什么问题 梯度消失解决方法 BN公式、交叉熵公式 transformer用的是哪种normalization,为什么不用BN 手撕:加权编辑距离
评论