evanzheng2013
初级java工程师多数是刚毕业或者工作1,2年的新人。对于新人,面试中基础问题会问道很多,因为先要考察这个人的基础。
关于基础类的题目,我在面试初级java工程师的时候一般会问下面两大类问题,每类5个题目,这样下来我就基本可以了解这位工程师的程度了。
java基础类
面向对象基础类
java基础类
1.描述一下java的访问修饰符,和它们之间的区别?
回答:如果可以回到出public,private,protected,就算是ok;回答出default的,加分。
2. int和Integer 区别?
回答:如果回答出Integer是int的包装类,就算ok;回答出其他的基本类型和它们相应的包装类,加分。
3.如何定义一个单精度浮点类型的变量?
回答:float 变量名= ;回答出不加最后的f为双精度浮点类型,加分
4. equals和==的区别?
回答: equals是值比较(一般处理java开发都会这么说,算是ok的)而==是引用比较(或者对象比较);回答equals是可以自定义的,加分
5.将一个数组作为参数传递到一个方法中,在方法中,数组内的元素值被改变了,那么在方法外部,这个数组内的元素是否也被改编了?
回答:是,因为java方法中传递的是引用,就ok。如果回答中,将引用说明了自己的理解,加分。
面向对象基础类
1.重载和重写的区别?
回答:这个看个人理解,理解没有什么大的偏差就ok;回答出多态相关的,加分。
2.构造方法能不能重载?
回答:可以重载,ok;回答构造方法时不能继承的,所以如果要调用指定父类构造器就必须重写子类构造方法,加分。
3.抽象方法(abstract)是否可以被final、static、native修饰?
回答:都不可以,因为抽象方法是必须子类实现的,final方法时不可以被重写的,static是父类必须实现的方法,native是本地语言实现的方法。回答出封装和继承相关的,加分
4.当父类引用指向子类对象的时候,子类重写了父类方法和属性,那么当访问属性的时候,访问是谁的属性?调用方法时,调用的是谁的方法?
回答:访问的是父类的属性,调用的是子类的方法,ok;如果可以画图解释的话,加分
5.抽象类和接口有什么异同?
回答:一些类定义上的区别,ok;回答在应用过程中,如何根据业务定义接口,加很多分
最后,如果前面问题回答的不错,会补充两个编程习惯问题。
1.在你写过的代码中,你写过超过2层的循环吗,怎么实现的?
回答:没有,就算ok;如果回答有,听一下实现,如果原因说不出来,扣分。
2.在你写过的代码中,if语句最多嵌套了几层,最多有多少分支,怎么实现的?
回答:3层以下,就算ok;如果回答3层以上,听一下实现,如果原因说不出来,扣分。
4,5个分支,就算ok;如果回答5个分支以上,听一下实现,如果原因说不出来,扣分。
最后两个题其实比较陷阱,但是正是一个反向的思考才能了解面试者之前的工作状态。
如果面试者在平日里就有好的习惯,自然不用担心。
桃源捣主
本文只列出了问题,答案还是需要需要自己的总结,很多时候自己总结出来的语言在面试时比硬背的效果好很多。
这些题目是网友去百度、小米、乐视、美团、58、猎豹、360、新浪、搜狐等一线互联网公司面试被问到的题目。熟悉本文中列出的知识点会大大增加通过前两轮技术面试的几率。
熟练掌握java是很关键的,大公司不仅仅要求你会使用几个api,更多的是要你熟悉源码实现原理,甚至要你知道有哪些不足,怎么改进,还有一些java有关的一些算法,设计模式等等。
(一) java基础面试知识点
不是我的白云
发展前景好的很!1.想要通关大厂面试,千万别让数据结构和算法拖了后腿2.业务开发工程师,你要做一辈子的CRUDboy吗?3.我们平时用到的很多业务开发框架,其实底层都糅合了很多数据结构和算法的设计思想4.掌握算法与数据结构,用利于我们看懂开发源代码,理解框架背后的真实含义。5.掌握算法与数据结构,在开发过程种,看待问题的深度,解决问题的角度将会大大不同。
么么哒哒啦
参考:
反卷积也称为转置卷积,如果用矩阵乘法实现卷积操作,将卷积核平铺为矩阵,则转置卷积在正向计算时左乘这个矩阵的转置WT,在反向传播是左乘W,与卷积操作刚好相反,需要注意的是,反卷积不是卷积的逆运算。 [知乎问题+caffe实现]
实现上采样;近似重构输入图像,卷积层可视化。
只要激活函数选择得当,神经元的数量足够,至少有一个隐含层的神经网络可以 逼近闭区间上任意一个连续函数到任意指定的精度。
判别模型,直接输出类别标签,或者输出类后验概率p(y|x) [ ] [ ] [ ]
BN是在 batch这个维度上进行归一化,GN是计算channel方向每个group的均值方差.
检测结果与 Ground Truth 的交集比上它们的并集,即为检测的准确率 IoU
内存/显存占用;模型收敛速度等
Hessian矩阵是n*n, 在高维情况下这个矩阵非常大,计算和存储都是问题。
mini-batch太小会导致收敛变慢,太大容易陷入sharp minima,泛化性不好。
可以把dropout看成是 一种ensemble方法,每次做完dropout相当于从原网络中找到一个更瘦的网络。
pooling操作虽然能增大感受野,但是会丢失一些信息。空洞卷积在卷积核中插入权重为0的值,因此每次卷积中会skip掉一些像素点;
空洞卷积增大了卷积输出每个点的感受野,并且不像pooling会丢失信息,在图像需要全局信息或者需要较长sequence依赖的语音序列问题上有着较广泛的应用。
表达式为:
使用BN的原因是网络训练中每一层不断改变的参数会导致后续每一层输入的分布发生变化,而学习的过程又要使每一层去适应输入的分布,因此不得不降低网络的学习率,并且要小心得初始化(internal covariant shift) 如果仅通过归一化方法使得数据具有零均值和单位方差,则会降低层的表达能力(如使用Sigmoid函数时,只使用线性区域) BN的具体过程(注意第三个公式中分母要加上epsilon)
最好的解释是通过1 * 1卷积核能实现多个channel间的解耦合,解耦cross-channel correlation和spatial correlation。 【但是因为解耦不彻底,因此后续有了mobile net的组卷积方式和shuffle net组卷积方式】
由于 1×1 并不会改变 height 和 width,改变通道的第一个最直观的结果,就是可以将原本的数据量进行增加或者减少。改变的只是 height × width × channels 中的 channels 这一个维度的大小而已。
1*1卷积核,可以在保持feature map尺度不变的(即不损失分辨率)的前提下大幅增加非线性特性(利用后接的非线性激活函数),把网络做的很deep。
备注:一个filter对应卷积后得到一个feature map,不同的filter(不同的weight和bias),卷积以后得到不同的feature map,提取不同的特征,得到对应的specialized neuron。
例子:使用1x1卷积核,实现降维和升维的操作其实就是channel间信息的线性组合变化,3x3,64channels的卷积核后面添加一个1x1,28channels的卷积核,就变成了3x3,28channels的卷积核,原来的64个channels就可以理解为跨通道线性组合变成了28channels,这就是通道间的信息交互
注意:只是在channel维度上做线性组合,W和H上是共享权值的sliding window
并不能说明这个模型无效导致模型不收敛的原因可能有
A. 在实际场景下,应尽量使用ADAM,避免使用SGD B. 同样的初始学习率情况下,ADAM的收敛速度总是快于SGD方法 C. 相同超参数数量情况下,比起自适应的学习率调整方式,SGD加手动调节通常会取得更好效果 D. 同样的初始学习率情况下,ADAM比SGD容易过拟合
A.保证每一层的感受野不变,网络深度加深,使得网络的精度更高 B.使得每一层的感受野增大,学习小特征的能力变大 C.有效提取高层语义信息,且对高层语义进行加工,有效提高网络准确度 D.利用该结构有效减轻网络的权重
A.计算简单 B.非线性 C.具有饱和区 D.几乎处处可微 【relu函数在0处是不可微的。】
的收敛速度比RMSprop慢 B.相比于SGD或RMSprop等优化器,Adam的收敛效果是最好的 C.对于轻量级神经网络,使用Adam比使用RMSprop更合适 D.相比于Adam或RMSprop等优化器,SGD的收敛效果是最好的 【SGD通常训练时间更长,容易陷入鞍点,但是在好的初始化和学习率调度方案的情况下,结果更可靠。如果在意更快的收敛,并且需要训练较深较复杂的网络时,推荐使用学习率自适应的优化方法。】
A.使用ReLU做为激活函数,可有效地防止梯度爆炸 B.使用Sigmoid做为激活函数,较容易出现梯度消失 C.使用Batch Normalization层,可有效的防止梯度爆炸 D.使用参数weight decay,在一程度上可防止模型过拟合
对结果存疑。认为二者皆可防止。
L-BFGS(Limited-memory BFGS,内存受限拟牛顿法)方法: 所有的数据都会参与训练,算法融入方差归一化和均值归一化。大数据集训练DNN,容易参数量过大 (牛顿法的进化版本,寻找更好的优化方向,减少迭代轮数)从LBFGS算法的流程来看,其整个的核心的就是如何快速计算一个Hesse的近似:重点一是近似,所以有了LBFGS算法中使用前m个近似下降方向进行迭代的计算过程;重点二是快速,这个体现在不用保存Hesse矩阵上,只需要使用一个保存后的一阶导数序列就可以完成,因此不需要大量的存储,从而节省了计算资源;重点三,是在推导中使用秩二校正构造了一个正定矩阵,即便这个矩阵不是最优的下降方向,但至少可以保证函数下降。 FTRL(Follow-the-regularized-Leader)是一种适用于处理超大规模数据的,含大量稀疏特征的在线学习的常见优化算法,方便实用,而且效果很好,常用于更新在线的CTR预估模型;FTRL在处理带非光滑正则项(如L1正则)的凸优化问题上表现非常出色,不仅可以通过L1正则控制模型的稀疏度,而且收敛速度快;
在一定程度上解决了传统RNN梯度消失或梯度爆炸的问题 相比于全连接的优势之一是模型复杂度低,缓解过拟合 C.只要参数设置合理,深度学习的效果至少应优于随机算法 D.随机梯度下降法可以缓解网络训练过程中陷入鞍点的问题
实际上,现在有很多针对小目标的措施和改良,如下:
最常见的是Upsample来Rezie网络输入图像的大小;
用dilated/astrous等这类特殊的卷积来提高检测器对分辨率的敏感度;(空洞卷积是针对图像语义分割问题中下采样会降低图像分辨率、丢失信息而提出的一种卷积思路。利用添加空洞扩大感受野,让原本3 x3的卷积核,在相同参数量和计算量下拥有5x5(dilated rate =2)或者更大的感受野,从而无需下采样。在保持参数个数不变的情况下增大了卷积核的感受野)
有比较直接的在浅层和深层的Feature Map上直接各自独立做预测的,这个就是我们常说的尺度问题。
用FPN这种把浅层特征和深层特征融合的,或者最后在预测的时候,用浅层特征和深层特征一起预测;
SNIP(Scale Normalization for Image Pyramids)主要思路:
在训练和反向传播更新参数时,只考虑那些在指定的尺度范围内的目标,由此提出了一种特别的多尺度训练方法。
大米粒圆又圆
《1-欢迎学习机器学习纳米学位工程师课程(进阶)》百度网盘资源免费下载
链接:
-欢迎学习机器学习纳米学位工程师课程(进阶)|3-探索性项目-泰坦尼克号幸存者分析|2-从人工智能到机器学习|1-欢迎学习机器学习工程师|说明.docx|4-学习项目介绍.mp4|3-机器学习无处不在.mp4|3-机器学习无处不在 答案.mp4|3-机器学习无处不在|2-机器学习与传统编程的异同.mp4|1-欢迎来到机器学习课程.mp4|9-基础知识:人工智能的四个学派.mp4|8-什么是基于知识的人工智能?.mp4|7-人工智能的实际运用:|7-人工智能的实际运用:Watson 答案.mp4
水云间秋忆
算法工程师是一个非常高端的职位,是非常紧缺的专业工程师,兼具前途和钱途。1、稀缺:互联网的快速发展,大数据、人工智能的兴起,使得算法岗位变多了,但是能胜任的人又寥寥无几。2、培养成本很高:算法工程师的培养,需要很高的成本。在上大学的时候就要受到名师指导,进入公司后也要跟前辈学习。3、能力非常强:如果想成为一名算法工程师,不仅需要过硬的编程能力,还需要扎实的数学基础和英文水平。算法工程师所需的知识绝对不仅仅只有计算机方面的知识,需要的是综合能力得到全面培养。所以算法工程师薪酬高是有原因的,当然前景也是非常好,如果想从事这个行业,还是非常值得。 感兴趣的话点击此处,免费学习一下想了解更多有关算法工程师的相关信息,推荐咨询达内教育。作为国内IT培训的领导品牌,达内集团的每一名员工都以“帮助每一个学员成就梦想”为己任,也正因为达内人的执着与努力,达内集团已成功为社会输送了众多合格人才,为广大学子提供更多IT行业高薪机会,同时也为中国IT行业的发展做出了巨大的贡献。
优质工程师考试问答知识库