体系课
下载APP
3499.00 3888 优惠价

大数据开发工程师

进阶 80小时 298人学习 100%好评

课程大纲及学习周期安排

坚持学习的路上,我们为你画好成长路标

阶段一:走进大数据

  • 第1周
  • 第2周
  • 第3周
  • 第4周
  • 第5周
学好大数据先攻克Linux

在步入大数据殿堂之前,先带领大家快速掌握大数据的必备技能:Linux的操作使用,为后面学习大数据技术打下坚实基础。预习资料传送门:http://suo.im/613aVS 提取码:bbbb

课程安排
  1. 1、掌握Linux虚拟机的安装和配置
  2. 2、使用ScecureCRT连接Linux虚拟机
  3. 3、掌握Linux中常见高级命令(vi、wc、sort、date、jps、kill等命令)的使用
  4. 4、掌握Linux中三剑客(grep、sed、awk)的常见用法
  5. 5、掌握Linux的高级配置(ip、hostname、防火墙)
  6. 6、掌握Shell脚本的开发
  7. 7、掌握Shell中变量、循环和判断的使用
  8. 8、掌握Shell中的扩展内容
  9. 9、掌握Linux中crontab定时器的使用
  10. 10、了解认识什么是大数据
  11. 11、大数据产生的背景
  12. 12、大数据的4V特征
  13. 13、大数据的行业应用
大数据起源之初识Hadoop

Hadoop是大数据开创者,引领者,学习大数据必经之路,本周带领大家了解Hadoop,以及Hadoop集群的安装部署。预习资料:http://suo.im/5SMmAO 提取码:bbbb

课程安排
  1. 1、什么是Hadoop
  2. 2、Hadoop发行版介绍
  3. 3、Hadoop版本演变历史
  4. 4、Hadoop3.x的细节优化
  5. 5、Hadoop三大核心组件介绍
  6. 6、伪分布集群安装部署
  7. 7、分布式集群安装部署
  8. 8、Hadoop的客户端节点
Hadoop之HDFS的使用

通过生活场景"小明租房"案例引入HDFS核心架构,掌握HDFS的常见Shell操作以及Java代码操作,对以后实现海量数据的存储打下基础。

课程安排
  1. 1、生活场景引入:"小明租房"案例一步一步引入Hadoop中的分布式存储架构
  2. 2、HDFS的Shell介绍
  3. 3、HDFS的常见Shell操作
  4. 4、HDFS案例实操
  5. 5、Java代码操作HDFS
Hadoop之HDFS核心进程剖析

通过对HDFS中核心进程NameNode、SecondaryNameNode、DataNode进行详细分析,帮助大家更好的理解HDFS的底层原理

课程安排
  1. 1、NameNode介绍
  2. 2、NameNode深入
  3. 3、SecondaryNameNode介绍
  4. 4、DataNode介绍
  5. 5、HDFS的回收站
  6. 6、HDFS的安全模式详解
  7. 7、实战:定时上传数据至HDFS
  8. 8、HDFS的高可用和高扩展机制分析
Hadoop之初识MR

通过"计算扑克牌中的黑桃个数"案例引入MapReduce的思想,详细分析了MapReduce的执行流程,并且通过开发WordCount案例加深理解。

课程安排
  1. 1、MapReduce介绍
  2. 2、 MapReduce执行原理
  3. 3、实战:WordCount案例图解
  4. 4、实战:WordCount案例开发
  5. 5、MapReduce任务日志查看
  6. 6、停止Hadoop集群中的任务
  7. 7、MapReduce程序扩展

阶段二:PB级离线数据计算分析方案

  • 第6周
  • 第7周
  • 第8周
拿来就用的企业级解决方案

详细分析了小文件的解决方案、数据倾斜的解决方案、YARN调度器的使用、以及Hadoop在CDH和HDP中的使用。

课程安排
  1. 1、小文件问题之SequenceFile
  2. 2、小文件问题之MapFile
  3. 3、案例:小文件存储和计算
  4. 4、 数据倾斜问题分析
  5. 5、数据倾斜案例实战
  6. 6、YARN的基本情况介绍
  7. 7、YARN中的调度器分析
  8. 8、案例:YARN多资源队列配置和使用
  9. 9、Hadoop官方文档使用指北
  10. 10、Hadoop在CDH中的使用
  11. 11、Hadoop在HDP中的使用
Flume从0到高手一站式养成记

Flume是一个分布式、高可靠、高可用的系统,能够有效的收集、聚合、移动大量的日志数据,在数据采集领域,属于中流砥柱,在这里通过原理、实战、监控、优化等层面对Flume进行学习。

课程安排
  1. 1、快速了解Flume
  2. 2、Flume的三大核心组件
  3. 3、Flume安装部署
  4. 4、Flume的Hello World
  5. 5、案例:采集文件内容上传至HDFS
  6. 6、Flume高级组件之Source Interceptors
  7. 7、Flume高级组件之Channel Selectors
  8. 8、Flume高级组件之Sink Processors
  9. 9、各种自定义组件
  10. 10、Flume优化
  11. 11、Flume进程监控
数据仓库Hive从入门到小牛

频繁的开发MapReduce是非常繁琐的,并且很多业务人员是不懂代码的,如何让他们也可以很方便的操作HDFS中的海量数据呢?Hive的横空出世,解决了这一难题。

课程安排
  1. 1、快速了解Hive
  2. 2、数据库和数据仓库的区别
  3. 3、Hive安装部署
  4. 4、Hive使用方式之命令行方式
  5. 5、Hive使用方式之JDBC方式
  6. 6、Set命令的使用
  7. 7、Hive的日志配置
  8. 8、Hive中数据库的操作
  9. 9、Hive中表的操作
  10. 10、Hive中数据类型的应用
  11. 11、Hive表类型之内部表+外部表
  12. 12、Hive表类型之内部分区表
  13. 13、Hive表类型之外部分区表
  14. 14、Hive表类型之桶表+视图
  15. 15、Hive数据处理综合案例
  16. 16、Hive高级函数之分组排序取TopN
  17. 17、Hive高级函数之行转列
  18. 18、Hive高级函数之列转行
  19. 19、Hive的排序函数
  20. 20、Hive的分组和去重函数
  21. 21、一个SQL语句分析
  22. 22、Hive的Web工具-HUE

阶段三:Spark+综合项目:电商数据仓库设计与实战

  • 第9周
  • 第10周
  • 第11周
  • 第12周
  • 第13周
7天极速掌握Scala语言

Scala的函数式编程受到很多框架的青睐,例如Kafka、Spark、Flink等框架都是使用Scala作为底层源码开发语言,下面就带着大家7天极速掌握Scala语言。

课程安排
  1. 1、快速了解Scala
  2. 2、Scala环境安装配置
  3. 3、Scala中的变量和数据类型
  4. 4、Scala中的表达式和循环
  5. 5、Scala集合体系之Set+List+Map
  6. 6、Scala中的Array和Tuple
  7. 7、Scala中函数的使用
  8. 8、Scala面向对象之类的使用
  9. 9、Scala面向对象之对象和伴生对象
  10. 10、Scala面向对象之apply和main的使用
  11. 11、Scala面向对象之接口的使用
  12. 12、Scala函数式编程之匿名函数和高阶函数的使用
  13. 13、Scala高级特性之模式匹配和隐式转换
Spark快速上手

Spark是目前企业中应用最广泛的计算引擎,盘它!实际案例详细分析Spark中的Transformation算子和Action算子使用,RDD持久化,共享变量使用,最后通过一个综合案例加深理解。

课程安排
  1. 1、快速了解Spark
  2. 2、Spark 集群安装部署(Standalone+ON YARN)
  3. 3、Spark工作原理分析
  4. 4、什么是RDD
  5. 5、Spark架构原理
  6. 6、Spark项目开发环境配置
  7. 7、WordCount代码开发(Java+Scala)
  8. 8、Spark任务的三种提交方式
  9. 9、Spark开启historyServer服务
  10. 10、创建RDD的三种方式
  11. 11、Transformation和Action介绍
  12. 12、Transformation操作开发实战
  13. 13、Action操作开发实战
  14. 14、RDD持久化原理
  15. 15、RDD持久化开发实战
  16. 16、共享变量之Broadcast Variable的使用
  17. 17、共享变量之Accumulator的使用
  18. 18、案例实战:TopN主播统计
  19. 19、面试题
Spark性能优化的道与术

通过对Spark中的宽依赖、窄依赖、Stage、Shuffle机制进行详细分析,加深对Spark的理解,以及对Spark中的checkpoint机制通过源码层面进行深度剖析。

课程安排
  1. 1、宽依赖和窄依赖
  2. 2、Stage的理解
  3. 3、Spark任务的三种提交模式
  4. 4、Shuffle介绍
  5. 5、三种Shuffle机制分析
  6. 6、checkpoint概述
  7. 7、checkpoint和持久化的区别
  8. 8、checkpoint代码开发和执行分析
  9. 9、checkpoint源码分析之写操作和读操作
  10. 10、Spark程序性能优化分析
  11. 11、高性能序列化类库Kryo的使用
  12. 12、持久化或者checkpoint
  13. 13、JVM垃圾回收调忧
  14. 14、提高并行度
  15. 15、数据本地化
  16. 16、算子优化
  17. 17、SparkSql快速上手使用
  18. 18、实战:SparkSQL实现TopN主播统计
综合项目:电商数据仓库之用户行为数仓

整合各个业务线数据,为各个业务系统提供统一&规范的数据出口。通过对项目的由来,需求、技术进行分析和选型,实现用户行为数据数仓开发。

课程安排
  1. 1、项目效果展示
  2. 2、项目的由来
  3. 3、什么是数据仓库
  4. 4、数据仓库基础知识
  5. 5、数据仓库分层
  6. 6、典型数仓系统架构分析
  7. 7、技术选型
  8. 8、整体架构设计
  9. 9、服务器资源规划
  10. 10、生成用户行为数据【客户端数据】
  11. 11、生成商品订单相关数据【服务端数据】
  12. 12、采集用户行为数据【客户端数据】
  13. 13、Sqoop安装部署
  14. 14、Sqoop之数据导入功能
  15. 15、Sqoop之数据导出功能
  16. 16、采集商品订单相关数据【服务端数据】
  17. 17、用户行为数据数仓开发之ods层开发
  18. 18、用户行为数据数仓开发之ods层脚本抽取
  19. 19、用户行为数据数仓开发之dwd层开发
  20. 20、用户行为数据数仓开发之dwd层脚本抽取
  21. 21、用户行为数据数仓需求分析
  22. 22、用户行为数据数仓需求开发
  23. 23、用户行为数据数仓表和任务脚本总结
综合项目:电商数据仓库之商品订单数仓

基于商品订单数据开发数仓,详细分析了拉链表的由来和具体实现。使用数据可视化工具Zepplin实现数据展现,使用Azkaban调度器实现任务依赖调度。

课程安排
  1. 1、商品订单数据数仓开发之ods层和dwd层
  2. 2、商品订单数据数仓需求分析与开发
  3. 3、什么是拉链表
  4. 4、如何制作拉链表
  5. 5、【实战】基于订单表的拉链表实现
  6. 6、拉链表的性能问题分析
  7. 7、商品订单数据数仓表和任务脚本总结
  8. 8、数据可视化之Zepplin的安装部署和参数配置
  9. 9、数据可视化之Zepplin的使用
  10. 10、任务调度之Crontab调度器的使用
  11. 11、任务调度之Azkaban的安装部署
  12. 12、任务调度之Azkaban提交独立任务
  13. 13、任务调度之Azkaban提交依赖任务
  14. 14、任务调度之在数仓中使用Azkaban
  15. 15、项目优化

阶段四:高频实时数据处理方案

  • 第14周
  • 第15周
  • 第16周
  • 第17周
消息队列之Kafka从入门到小牛

Kafka是一个支持高吞吐、持久性、分布式的消息队列,非常适合海量数据的实时生产和消费,详细分析了Kafka的核心原理、代码实战、性能优化,以及Kafka的企业级应用。

课程安排
  1. 1、什么是消息队列
  2. 2、什么是Kafka
  3. 3、Zookeeper安装部署之单机模式和集群模式
  4. 4、 Kafka安装部署之单机模式和集群模式
  5. 5、Kafka中的生产者和消费者
  6. 6、案例:QQ群聊天
  7. 7、Broker扩展内容
  8. 8、Producer扩展内容
  9. 9、Consumer扩展内容
  10. 10、Topic+Partition+Message扩展内容
  11. 11、Kafka中的存储策略
  12. 12、Kafka中的容错机制
  13. 13、Java代码实现生产者代码
  14. 14、Java代码实现消费者代码
  15. 15、消费者代码扩展
  16. 16、Consumer消费Offset查询
  17. 17、Consumer消费顺序
  18. 18、Kafka的三种语义
  19. 19、Kafka参数调忧之JVM参数调忧
  20. 20、Kafka参数调忧之Replication参数调忧
  21. 21、Kafka参数调忧之Log参数调忧
  22. 22、Kafka Topic命名小技巧
  23. 23、Kafka集群监控管理工具(CMAK)
  24. 24、实战:Flume集成Kafka
  25. 25、实战:Kafka集群平滑升级
极速上手内存数据库Redis

Redis是一种面向键值对的NoSQL内存数据库,可以满足我们对海量数据的读写需求,在这里我们学习Redis中的五种常用数据类型以及Redis中的一些高级特性,达到快速上手使用。

课程安排
  1. 1、快速了解Redis
  2. 2、Redis的安装部署
  3. 3、Redis基础命令
  4. 4、Redis多数据库特性
  5. 5、Redis常用数据类型之String
  6. 6、Redis常用数据类型之Hash
  7. 7、Redis常用数据类型之List
  8. 8、Redis常用数据类型之Set
  9. 9、Redis常用数据类型之Sorted Set
  10. 10、案例:存储高一班的学员信息
  11. 11、Java代码操作Redis之单连接
  12. 12、Java代码操作Redis之连接池
  13. 13、提取RedisUtils工具类
  14. 14、Redis高级特性之expire
  15. 15、Redis高级特性之pipeline
  16. 16、Redis高级特性之info
  17. 17、Redis持久化之RDB
  18. 18、Redis持久化之AOF
  19. 19、Redis的安全策略
  20. 20、Redis监控命令-monitor
  21. 21、Redis架构演进过程
Flink快速上手篇

快速了解Flink的基本原理和核心特点,掌握Flink中流数据和批数据的编程思路和代码实战,Flink中Standalone集群、ON YARN集群的安装部署,以及Flink中核心API的使用。

课程安排
  1. 1、快速了解Flink
  2. 2、Flink Streaming程序开发
  3. 3、Flink Batch程序开发
  4. 4、Flink Standalone集群安装部署
  5. 5、Flink ON YARN的第一种方式
  6. 6、Flink ON YARN的第二种方式
  7. 7、向集群中提交Flink任务
  8. 8、Flink核心API介绍
  9. 9、DataStream API之DataSource
  10. 10、DataStream API之Transformation
  11. 11、DataStream API之分区规则介绍
  12. 12、DataStream API之分区规则的使用
  13. 13、DataStream API之DataSink
  14. 14、DataSet API之DataSource
  15. 15、DataSet API之Transformation
  16. 16、DataSet API之DataSink
  17. 17、Table API 和 SQL介绍
  18. 18、创建TableEnvironment对象
  19. 19、TableAPI和SQL的使用
  20. 20、使用DataStream创建表
  21. 21、使用DataSet创建表
  22. 22、将表转换成DataStream
  23. 22、将表转换成DataSet
Flink高级进阶之路

详细剖析Window和Time的使用,Watermark的实战应用,并行度的设置,Kafka Connector的具体应用,以及SparkStreaming的特性和使用。

课程安排
  1. 1、Window的概念和类型
  2. 2、TimeWindow的使用
  3. 3、CountWindow的使用
  4. 4、自定义Window的使用
  5. 5、Window中的增量聚合和全量聚合
  6. 6、Flink中的Time
  7. 7、Watermark的分析
  8. 8、开发Watermark代码
  9. 9、通过数据跟踪观察Watermark
  10. 10、Watermark+EventTime处理乱序数据
  11. 11、延迟数据的三种处理方式
  12. 12、在多并行度下的Watermark应用
  13. 13、Watermark案例总结
  14. 14、并行度介绍及四种设置方式
  15. 15、并行度案例分析
  16. 16、KafkaConsumer的使用
  17. 17、KafkaConsumer消费策略设置
  18. 18、KafkaConsumer的容错
  19. 19、KafkaProducer的使用
  20. 20、KafkaProducer的容错
  21. 21、SparkStreaming的WordCount程序开发
  22. 22、SparkStreaming整合Kafka

阶段五:综合项目:三度关系推荐系统+数据中台

  • 第18周
  • 第19周
  • 第20周
直播平台三度关系推荐V1.0

构建直播平台用户三度关系推荐系统,详细分析数据采集/数据分发/数据存储/数据计算/数据展现等功能,完整复现互联网企业大数据项目从0~1,从1~N的开发过程。

课程安排
  1. 1、项目介绍
  2. 2、项目需求分析
  3. 3、技术选型
  4. 4、整体架构设计
  5. 5、Neo4j快速上手使用
  6. 6、数据采集架构详细分析
  7. 7、数据来源分析
  8. 8、模拟产生数据
  9. 9、数据采集聚合
  10. 10、数据分发
  11. 11、数据落盘
  12. 12、数据计算核心指标详细分析与实现
  13. 13、三度关系推荐页面数据接入
  14. 14、三度关系推荐流程演示
  15. 15、项目代码双语支持
  16. 16、项目总结
直播平台三度关系推荐V2.0

分析V1.0架构存在的问题及弊端,重新设计整体架构方案,进行迭代优化,基于最新的架构方案重新实现核心功能代码,开发数据接口,优化数据传输逻辑,提高数据安全性。

课程安排
  1. 1、现有V1.0技术架构分析
  2. 2、V2.0技术架构设计
  3. 3、数据计算核心指标详细分析
  4. 4、历史粉丝关注数据初始化
  5. 5、实时维护粉丝关注数据
  6. 6、每天定时更新主播等级
  7. 7、每天定时更新用户活跃时间
  8. 8、每周一计算最近一月主播视频评级
  9. 9、每周一计算最近一月主播视频评级
  10. 10、三度关系列表数据导出到Redis
  11. 11、数据接口定义与开发
  12. 12、项目代码双语支持
  13. 13、项目总结
数据中台大屏

掌握一线互联网企业数据中台构建流程,了解巨头企业的项目架构,理解巨型项目的思想,掌握数据中台之数据加工总线子系统的底层实现。

课程安排
  1. 1、什么是中台
  2. 2、中台化主要解决的问题
  3. 3、中台的延伸
  4. 4、什么是数据中台
  5. 5、数据中台演进的四个阶段
  6. 6、数据中台需要具备三大能力
  7. 7、企业级数据中台架构分析
  8. 9、目前大数据领域实时计算的现状
  9. 10、数据中台之数据加工总线介绍
  10. 11、数据加工总线架构图分析
  11. 12、开发数据加工总线计算引擎(基于SparkSQL)
  12. 13、开发数据加工总线计算引擎(基于FlinkSQL)
  13. 14、掌握如何在流式SQL中调用HTTP接口
  14. 15、支持流式SQL中的自定义函数返回多列字段

评价 好评100%

全部评价(68)

  • lwolw

    lwolw

    这个课程绝对值!!!我说下我的经历,我是9月底购买的课程,然后期间花了一个半月的时间学习,两周的时间准备面试,一共面了4次,期间没有一次当场pass掉,最后进了大型银行。期间老师负责任的态度真的是我见过最好最好的,包括面试的全过程,老师几乎全程陪同,给我打气鼓励以及让我总结经验。太谢谢老师了,要入手的真的不用犹豫了,绝对值!而且我今天回过头再去看spark英文文档,有一种秒懂的感觉。

    讲师回复: 非常感谢同学对课程的认可!!本套课程可以给大家提供强有力的学习捷径,剩下的就是需要大家跟着课程,努力学习啦,相信,最终定会取得满意的成绩!!大家加油!!

  • qq_腐烂的苹果_0

    qq_腐烂的苹果_0

    超级好评,讲的非常仔细,老师回答问题也非常及时,这波不亏

    讲师回复: 感谢同学对课程的认可,咱们这套课程为了更好的帮助大数据零基础的同学快速进入职场,所以讲的比较细致,也尽可能包含到大家需要掌握的方方面面。大家在学习中遇到的问题,老师都会争取第一时间解答,针对复杂的环境问题,老师也会通过远程桌面的方式帮助大家解决问题。

  • 君不止

    君不止

    非常好的课程,学到了很多,在上面学两个月比我在大学学两年的知识还要多,遇到自己解决不了的问题可以问课程老师,比在那些xxx交流群问大佬有用多了,而成这个课程有一个非常详细的电子教程,详细到看文档好像在看视频,当然,视频还是要看的,可以说买文档送视频,这钱花值了,加油,打工人

    讲师回复: 感谢同学对课程的认可,咱们这套课程是紧贴企业的,选取的都是目前企业中实际需要的知识,为的就是能够让大家学完之后可以快速适应企业中的工作。针对课程提供的配套电子书,更是老师呕心沥血之作,和视频内容是完全对应的,不仅可以帮助大家后期复习时快速的查漏补缺,避免再去重复看视频消耗不必要的时间,也可以作为一套工具书方便随时查看。

预售规则

1. 定金支付成功后,可在“我的订单”-“未支付”栏查看所要支付尾款的订单。
2. 尾款支付开启后,请在规定时间内支付尾款,若超出尾款支付时间,订单将自动关闭。请关注短信、慕课网平台及慕课网微信号等渠道推送的提醒消息。
3. 定金可在课程原价基础上抵扣页面显示金额,具体数额及计算方式见详情页。
4. 定金可退,已支付定金但未在规定时间支付尾款的用户,请联系kf@imooc.com退定金。
5. 如您对预售活动有其它疑问,请联系客服:kf@imooc.com。