年~you(yu)
大数据开发0基础要学得久一些,一般要达到大数据开发初级工程师的水平至少要6个月以上,以下介绍的课程主要针对零基础大数据工程师每个阶段进行通俗易懂简易介绍,方面大家更好的了解大数据学习课程。课程框架是科多大数据的零基础大数据工程师课程。一、 第一阶段:静态网页基础(HTML+CSS)1. 难易程度:一颗星2. 课时量(技术知识点+阶段项目任务+综合能力)3. 主要技术包括:html常用标签、CSS常见布局、样式、定位等、静态页面的设计制作方式等4. 描述如下:从技术层面来说,该阶段使用的技术代码很简单、易于学习、方便理解。从后期课程层来说,因为我们重点是大数据,但前期需要锻炼编程技术与思维。经过我们多年开发和授课的项目经理分析,满足这两点,目前市场上最好理解和掌握的技术是J2EE,但J2EE又离不开页面技术。所以第一阶段我们的重点是页面技术。采用市场上主流的HTMl+CSS。二、 第二阶段:JavaSE+JavaWeb1. 难易程度:两颗星2. 课时量(技术知识点+阶段项目任务+综合能力)3. 主要技术包括:java基础语法、java面向对象(类、对象、封装、继承、多态、抽象类、接口、常见类、内部类、常见修饰符等)、异常、集合、文件、IO、MYSQL(基本SQL语句操作、多表查询、子查询、存储过程、事务、分布式事务)JDBC、线程、反射、Socket编程、枚举、泛型、设计模式4. 描述如下:称为Java基础,由浅入深的技术点、真实商业项目模块分析、多种存储方式的设计与实现。该阶段是前四个阶段最最重要的阶段,因为后面所有阶段的都要基于此阶段,也是学习大数据紧密度最高的阶段。本阶段将第一次接触团队开发、产出具有前后台(第一阶段技术+第二阶段的技术综合应用)的真实项目。三、 第三阶段:前端框架1. 难易程序:两星2. 课时量(技术知识点+阶段项目任务+综合能力):64课时3. 主要技术包括:Java、Jquery、注解反射一起使用,XML以及XML解析、解析dom4j、jxab、新特性、SVN、Maven、easyui4. 描述如下:前两个阶段的基础上化静为动,可以实现让我们网页内容更加的丰富,当然如果从市场人员层面来说,有专业的前端设计人员,我们设计本阶段的目标在于前端的技术可以更直观的锻炼人的思维和设计能力。同时我们也将第二阶段的高级特性融入到本阶段。使学习者更上一层楼。四、 第四阶段:企业级开发框架1. 难易程序:三颗星2. 课时量(技术知识点+阶段项目任务+综合能力)3. 主要技术包括:Hibernate、Spring、SpringMVC、log4j slf4j 整合、myBatis、struts2、Shiro、redis、流程引擎activity, 爬虫技术nutch,lucene,webServiceCXF、Tomcat集群和热备、MySQL读写分离4. 描述如下:如果将整个JAVA课程比作一个糕点店,那前面三个阶段可以做出一个武大郎烧饼(因为是纯手工-太麻烦),而学习框架是可以开一个星巴克(高科技设备-省时省力)。从J2EE开发工程师的任职要求来说,该阶段所用到的技术是必须掌握,而我们所授的课程是高于市场(市场上主流三大框架,我们进行七大框架技术传授)、而且有真实的商业项目驱动。需求文档、概要设计、详细设计、源码测试、部署、安装手册等都会进行讲解。五、 第五阶段: 初识大数据1. 难易程度:三颗星2. 课时量(技术知识点+阶段项目任务+综合能力)3. 主要技术包括:大数据前篇(什么是大数据,应用场景,如何学习大数据库,虚拟机概念和安装等)、Linux常见命令(文件管理、系统管理、磁盘管理)、Linux Shell编程(SHELL变量、循环控制、应用)、Hadoop入门(Hadoop组成、单机版环境、目录结构、HDFS界面、MR界面、简单的SHELL、java访问hadoop)、HDFS(简介、SHELL、IDEA开发工具使用、全分布式集群搭建)、MapReduce应用(中间计算过程、Java操作MapReduce、程序运行、日志监控)、Hadoop高级应用(YARN框架介绍、配置项与优化、CDH简介、环境搭建)、扩展(MAP 端优化,COMBINER 使用方法见,TOP K,SQOOP导出,其它虚拟机VM的快照,权限管理命令,AWK 与 SED命令)4. 描述如下:该阶段设计是为了让新人能够对大数据有一个相对的大概念怎么相对呢?在前置课程JAVA的学习过后能够理解程序在单机的电脑上是如何运行的。现在,大数据呢?大数据是将程序运行在大规模机器的集群中处理。大数据当然是要处理数据,所以同样,数据的存储从单机存储变为多机器大规模的集群存储。(你问我什么是集群?好,我有一大锅饭,我一个人可以吃完,但是要很久,现在我叫大家一起吃。一个人的时候叫人,人多了呢? 是不是叫人群啊!)那么大数据可以初略的分为: 大数据存储和大数据处理所以在这个阶段中呢,我们课程设计了大数据的标准:HADOOP大数据的运行呢并不是在咋们经常使用的WINDOWS 7或者W10上面,而是现在使用最广泛的系统:LINUX。六、 第六阶段:大数据数据库1. 难易程度:四颗星2. 课时量(技术知识点+阶段项目任务+综合能力)3. 主要技术包括:Hive入门(Hive简介、Hive使用场景、环境搭建、架构说明、工作机制)、Hive Shell编程(建表、查询语句、分区与分桶、索引管理和视图)、Hive高级应用(DISTINCT实现、groupby、join、sql转化原理、java编程、配置和优化)、hbase入门、Hbase SHELL编程(DDL、DML、Java操作建表、查询、压缩、过滤器)、细说Hbase模块(REGION、HREGION SERVER、HMASTER、ZOOKEEPER简介、ZOOKEEPER配置、Hbase与Zookeeper集成)、HBASE高级特性(读写流程、数据模型、模式设计读写热点、优化与配置)4. 描述如下:该阶段设计是为了让大家在理解大数据如何处理大规模的数据的同时。简化咋们的编写程序时间,同时提高读取速度。怎么简化呢?在第一阶段中,如果需要进行复杂的业务关联与数据挖掘,自行编写MR程序是非常繁杂的。所以在这一阶段中我们引入了HIVE,大数据中的数据仓库。这里有一个关键字,数据仓库。我知道你要问我,所以我先说,数据仓库呢用来做数据挖掘分析的,通常是一个超大的数据中心,存储这些数据的呢,一般为ORACLE,DB2,等大型数据库,这些数据库通常用作实时的在线业务。总之,要基于数据仓库分析数据呢速度是相对较慢的。但是方便在于只要熟悉SQL,学习起来相对简单,而HIVE呢就是这样一种工具,基于大数据的SQL查询工具,这一阶段呢还包括HBASE,它为大数据里面的数据库。纳闷了,不是学了一种叫做HIVE的数据“仓库”了么?HIVE是基于MR的所以查询起来相当慢,HBASE呢基于大数据可以做到实时的数据查询。一个主分析,另一个主查询七、 第七阶段:实时数据采集1. 难易程序:四颗星2. 课时量(技术知识点+阶段项目任务+综合能力)3. 主要技术包括:Flume日志采集,KAFKA入门(消息队列、应用场景、集群搭建)、KAFKA详解(分区、主题、接受者、发送者、与ZOOKEEPER集成、Shell开发、Shell调试)、KAFKA高级使用(java开发、主要配置、优化项目)、数据可视化(图形与图表介绍、CHARTS工具分类、柱状图与饼图、3D图与地图)、STORM入门(设计思想、应用场景、处理过程、集群安装)、STROM开发(STROM MVN开发、编写STORM本地程序)、STORM进阶(java开发、主要配置、优化项目)、KAFKA异步发送与批量发送时效,KAFKA全局消息有序,STORM多并发优化4. 描述如下:前面的阶段数据来源是基于已经存在的大规模数据集来做的,数据处理与分析过后的结果是存在一定延时的,通常处理的数据为前一天的数据。举例场景:网站防盗链,客户账户异常,实时征信,遇到这些场景基于前一天的数据分析出来过后呢?是否太晚了。所以在本阶段中我们引入了实时的数据采集与分析。主要包括了:FLUME实时数据采集,采集的来源支持非常广泛,KAFKA数据数据接收与发送,STORM实时数据处理,数据处理秒级别八、 第八阶段:SPARK数据分析1. 难易程序:五颗星2. 课时量(技术知识点+阶段项目任务+综合能力)3. 主要技术包括:SCALA入门(数据类型、运算符、控制语句、基础函数)、SCALA进阶(数据结构、类、对象、特质、模式匹配、正则表达式)、SCALA高级使用(高阶函数、科里函数、偏函数、尾迭代、自带高阶函数等)、SPARK入门(环境搭建、基础结构、运行模式)、Spark数据集与编程模型、SPARK SQL、SPARK 进阶(DATA FRAME、DATASET、SPARK STREAMING原理、SPARK STREAMING支持源、集成KAFKA与SOCKET、编程模型)、SPARK高级编程(Spark-GraphX、Spark-Mllib机器学习)、SPARK高级应用(系统架构、主要配置和性能优化、故障与阶段恢复)、SPARK ML KMEANS算法,SCALA 隐式转化高级特性4. 描述如下:同样先说前面的阶段,主要是第一阶段。HADOOP呢在分析速度上基于MR的大规模数据集相对来说还是挺慢的,包括机器学习,人工智能等。而且不适合做迭代计算。SPARK呢在分析上是作为MR的替代产品,怎么替代呢? 先说他们的运行机制,HADOOP基于磁盘存储分析,而SPARK基于内存分析。我这么说你可能不懂,再形象一点,就像你要坐火车从北京到上海,MR就是绿皮火车,而SPARK是高铁或者磁悬浮。而SPARK呢是基于SCALA语言开发的,当然对SCALA支持最好,所以课程中先学习SCALA开发语言。在科多大数据课程的设计方面,市面上的职位要求技术,基本全覆盖。而且并不是单纯的为了覆盖职位要求,而是本身课程从前到后就是一个完整的大数据项目流程,一环扣一环。比如从历史数据的存储,分析(HADOOP,HIVE,HBASE),到实时的数据存储(FLUME,KAFKA),分析(STORM,SPARK),这些在真实的项目中都是相互依赖存在的。

大熊简单明了
根据2016年中国大数据产业峰会发布的数据,2015年我国大数据市场规模1692亿元,同比增长,处于快速发展期,预计2020年市场规模将达到13626亿元,“十三五”期间年复合增速将到达。大数据市场稳步增长,一方面促进了大数据与各行业的紧密融合,一方面也推动了大数据培训行业的发展。接受技能培训,当然会关注培训的时间跨度。如果告诉你,大数据培训需要一年的时间,相信很多人都会望而却步,除了在校生,谁还会有一年的时间和精力参加培训?当然,大家也不要过于担心。大数据虽然需要学习有关统计和计算机知识,但只要态度认真,按时按量地完成老师布置的任务,用心消化课堂学到的知识,再多多加以实际运用,大数据分析和挖掘还是很容易上手的。通过培训一般对于基础较好的学员,三个月左右就可以走上工作岗位了。大数据培训主要学什么对于一般的数据分析培训课程而言,所学内容基本可以分为理论知识和专业工具两类。包括:1、需要有应用数学、统计学、数量经济学专业本科或者工学硕士层次水平的数学知识背景。 2、至少熟练SPSS、STATISTIC、Eviews、SAS等数据分析软件中的一门。 3、至少能够用Acess等进行数据库开发; 4、至少掌握一门数学软件:matalab,mathmatics进行新模型的构建。 5、至少掌握一门编程语言。
厦门小鱼网
数据分析不要求开发基础,了解SQL或者SPSS进行数据清洗,并通过图表设计来展示分析结果,对于业务汇报是挺基础的工作,一个实习生也就是这种类型的工作了。决定你的未来时刻还没到,因为你还不是正式岗位,所以才面临选择。如果选定了一个岗位,就看看这个领域的大牛都是什么样子,你也就知道路漫漫其修远兮。我们的底层研发就是一群本科生为主的开发工程师,thingJS技术引擎经过很多大项目的迭代,形成了好用的3D封装库,相当于把3D专业概念(地球、地形、建筑、房间、设备、角色)都打包了,提供了整套3D源码……用“前端”做“PAAS产品开发”,还是很有满足感的,这个方向可以考虑一下。
KP-bangbangbang
首先,大数据是一个庞大的技术体系,涉及到的内容非常多,Web前端与大数据也有比较紧密的联系,所以如果未来要进入大数据领域,从Web前端开始学起也是不错的选择。如果想学习IT技术,不如选择千锋教育,性价比远远高出其他培训机构,"【感兴趣的话,点击此处免费学习一下】"。作为零基础的小白,Web前端的学习门槛相对要低一些,对于计算机基础比较薄弱的初学者来说,从Web前端开始学起也是不错的选择。相对于大数据和Web开发来说,Web前端开发岗位大部分都是应用级开发岗位,所以可能会存在职业生命周期偏短的问题,所以前端开发人员应该重视自身知识结构的更新,关注前端技术的发展趋势。千锋教育拥有多年IT培训服务经验,采用全程面授高品质、高体验培养模式,合作企业达20000余家,覆盖全国一线二线城市大中小型公司,成功帮助20000余名人才实现就业。
紫草莓蛋塔
Web前端开发
主要是利用(X)HTML/CSS/JavaScript/Flash等各种Web技术进行客户端产品的开发。完成客户端程序(也就是浏览器端)的开发,开发JavaScrip以及Flash模块,同时结合后台开发技术模拟整体效果,进行丰富互联网的Web开发,致力于通过技术改善用户体验。
建议把基础打扎实,掌握数据结构,算法,数学,逻辑思维等通用的技能,这些将来不管从事哪个计算机垂直行业都会用得着,并不会随着哪门语言而不一样,或者淘汰。
数据分析
数据分析的职位分类按照数据处理的不同阶段分为数据采集、数据分析、数据挖掘三种。
数据分析的职位分为业务方向与技术方向两个方向,这两个方向决定了两条不同的职业规划和晋升途径,包括下面章节要说的数据分析的学习规划也跟这两个方向紧密相关。
1、业务方向
在招聘网站中搜索数据分析的职位,大概分为两类:辅助业务的数据分析职位和数据分析师职位。
2、技术方向
技术方向主要指数据挖掘方向,分为三类:数据挖掘工程师(机器学习)、数据仓库工程师(构架师)和数据开发工程师。在互联网和金融行业岗位设置较多
普遍来说:技术方向的基础岗的工资薪酬要比业务岗的薪酬高一个等级,但是做到管理岗的话,在中国,业务岗的薪酬比技术岗的薪酬要高。
天蝎工科男
1.大数据架构的工具与组件数据工程师更关注分析基础架构,因此所需的大部分技能都是以架构为中心的。2.深入了解SQL和其它数据库解决方案数据工程师需要对数据库管理系统有比较熟悉的了解,而且深入了解SQL非常重要。同样其它数据库解决方案,例如Cassandra或BigTable也须熟悉,因为不是每个数据库都是由可识别的标准来构建。3.数据仓库和ETL工具数据仓库和ETL经验对于数据工程师至关重要。像Redshift或Panoply这样的数据仓库解决方案,以及ETL工具,比如StitchData或Segment都非常有用。另外,数据存储和数据检索经验同样重要,因为处理的数据量是个天文数字。4.基于Hadoop的分析(HBase,Hive,MapReduce等)对基于Apache Hadoop的分析有深刻理解是这个领域的一个非常必要的需求,一般情况下HBase,Hive和MapReduce的知识存储是必需的。5.编码说到解决方案,编码与开发能力是一个重要的优点(这也是许多职位的要求),你要熟悉Python,C/C++,Java,Perl,Golang或其它语言,这会非常有价值。6.机器学习虽然数据工程师主要关注的是数据科学,但对数据处理技术的理解会加分,比如一些统计分析知识和基础数据建模
优质工程师考试问答知识库