全國咨詢/投訴熱線:400-618-4000

2020年大數據課程大綱

踢球者即时指数比分 www.148329.live 目前課程版本:8.1   升級時間:2020.07.11   查看詳細

大數據課程設計理念

  •  

    完全面向零基礎的大數據課程

    我們的課程幫助了近500名零基礎的學員高薪就業,近2000名學生正在努力蛻變中。0基礎也能高薪就業的大數據課程。

  •  

    更新潮緊隨技術發展浪潮

    全面升級Spark核心就業項目,新增第四代大數據處理框架Flink,強化推薦系統實戰并擴充至7天。

  •  

    更真實深度還原企業應用場景

    所有項目均是來自企業實戰項目,報表分析、日志分析、推薦系統/廣告系統、反欺詐系統、為就業提供強力保障。

  •  

    更全面典型技術點線面橫向擴展

    課程全面覆蓋大數據技術,數據收集、存儲、計算、挖掘、展現,離線分析/實時分析/內存計算一網打盡。

  •  

    更廣泛就業領域

    大數據時代已然到來,在數據已經在一線企業、中小型企業、傳統企業、互聯網企業全面落地。就業不再局限于互聯網行業。

大數據-課程升級前后對比

職位技能要求 V7.0 V8.1 說明
了解HDFS, Hbase, Kafka、Flink等原理 更強化 V8.1對HDFS、HBase、Kafka、Flink原理進一步強化,例如:HBase布隆過濾器、預分區、Kafka再均衡、Flink狀態管理、一致性深度剖析
熟悉Linux系統,熟練掌握JAVA或Scala語至少一種 更強化 V8.1對Java課程、Scala課程進一步升級,在Java多線程、爬蟲、網絡編程、JVM都進行強化,這樣對后續的分布式框架學習會有更有力的支撐。
熟悉一種關系型數據庫,具備一定的SQL功底 更強化 V8.1通過更多的項目來保障學生的SQL編程能力,更多的指標保證學生有足夠多的練習
精通多維數據建模和ETL開發 更強化 V8.1從項目一開始就能夠教會學生如何基于業務進行數據倉庫建模、維度建模、分層。并在課堂上手把手帶學生編寫ETL代碼,
了解Hadoop相關組件Hive/hbase/sqoop等,具備整體ETL/DW/BI的思想 更強化 在V8.1技術課程中,清晰的分析Hive、Hbase、sqoop的操作、運行流程、底層原理,并且結合項目中具體的業務場景,將這些技術真正用起來,學生在項目中學會有深度業務的ETL、DW、BI開發
熟練使用 MR/Spark Streaming/hive/spark 解決業務問題 更強化 V8.1課程中清晰介紹批處理框架以及流處理框架的運行特點,并深度解析如何針對不同的計算引擎進行調優。更涵蓋了Structured Streaming、以及Flink的優秀流式框架應用以及原理。并在物流項目、車聯網項目、知行在線教育等項目中都有具體的業務應用
熟悉Linux下開發, 熟練使用shell/python等腳本語言; 更強化 V8.1課程強化SHELL腳本編程,并手把手帶學生學會編寫在大數據項目中如何使用SHELL進行調度程序開發,在高級課程中學習Python大數據技術生態圈,涵蓋Python數據分析、PySpark、數據挖掘等內容
負責大數據實時、離線處理程序開發,根據產品需求,設計開發數據處理程序 更強化 V8.1課程中有大量的實時、離線項目,學生只有通過大量練習,才能更好地掌握分布式程序的編寫技巧,更能具備多個行業的數據處理特點
面向業務目標,對數據模型、數據分布、數據傳輸、數據存儲等方面進行大數據場景的功能開發 部分 更完整 V8.1課程更注重培養學生的業務分析、建模、代碼轉換實現能力,每一個行業、每一個項目都會進行業務場景的深度解析,并且每個項目都是從采集、預處理、分析到最終應用完整流程,學生通過項目能夠學習真正企業級的項目
有數據分析相關經驗, 了解基本數據分析工具; 部分 課程中包含了常用的一些數據分析方法,包括分類、對比、趨勢等分析,并通過使用ETL、BI工具來進行快速處理、展示
有大規模數據收集,日志處理經驗; 部分 更完整 V8.1課程中涵蓋了多行的多種數據采集方式,因為不同行業數據接口不一樣,要通過不同方式采集數據,例如:證券數據通過socket+Flume自定義source采集、物流數據采用Oracle Golden Gate、Canal進行實時采集、車聯網通過云服務器+Kafka采集等,這樣學生才能具備豐富的收集處理經驗
了解機器學習算法; V8.1課程涵蓋機器學習算法,并將這些算法與數據挖掘結合應用,基于這些算法進行數據挖掘建模,并進行參數調優,減少模型的誤差率
深入研究過大數據框架的運行機制、實現原理、源碼者。 部分 更強化 V8.1講解框架都會深度剖析框架的底層原理,結合代碼和配圖給學生講解設計原因,不僅要保證內容深度,還有兼顧學生能夠學會

大數據基礎班-課程大綱

學習對象

0基礎0經驗的小白人員;想通過更低的成本來試一下自己是否適合做大數據相關工作的轉型人員。

注:獲取更多免費學習視頻+資料+筆記,請加QQ:2632311208。

上課方式

全日制脫產,每周5天上課, 上兩天課休息一天的上課方式(實際培訓時間可能因法定節假日等因素發生變化)

培訓時間

部分校區可能會根據實際情況有所調整,詳情可詢咨詢老師   點擊咨詢


大數據基礎班課程大綱
階段名稱 主講內容 技術要點 學習目標
零基礎數據倉庫課程 操作系統基礎 計算機基礎知識、Linux環境搭建、遠程連接工具、文件操作命令、壓縮解壓縮命令、文件查找命令、系統管理命令、權限管理、網絡服務管理命令、VI等。 掌握企業級ETL平臺的kettle;
掌握BI的可視化平臺Superset;
掌握Kettle ETL處理設計思想;
掌握大數據企業開發中最常見的的linux的操作;
掌握一款主流數據庫客戶端工具DataGrip;
掌握企業MySQL的調優方案;
掌握大數據分析中數據全量及增量同步解決方案;
掌握生產環境中數據分析程序的部署解決方案。
關系型數據庫 數據庫環境搭建、SQL語言(DDL、DML、DQL)、多表查詢、索引等。
可視化ETL平臺 數據倉庫與ETL、Kettle安裝部署、數據抽取與裝載、表輸入、表輸出、插入/更新、switch/case等組件使用、Kettle作業等。
BI可視化開發 Superset部署、開發,涵蓋Charts開發、Dashboard開發。
電商數據倉庫實戰 電商業務背景、案例架構、數據倉庫增量同步、ETL開發、指標SQL開發、Kettle作業調度、Superset可視化展示等。

大數據就業班-課程大綱

學習對象

本課程適合于計算機專業,有一定Java基礎、通過入學考核的未工作人士。

提示:測試題主要考察您是否具備Java基礎,以便我們統一入學基礎,更好地開展教學工作。如果您感覺測試題很難,我們建議您參加我們的Java基礎班學習。

上課方式

全日制脫產,每周5天上課, 上兩天課休息一天的上課方式(實際培訓時間可能因法定節假日等因素發生變化)

培訓時間

部分校區可能會根據實際情況有所調整,詳情可詢咨詢老師   點擊咨詢

大數據就業班課程大綱
階段名稱 主講內容 技術要點 學習目標
Java語言編程 編程基礎 Java概述、Java程序入門、常量與變量、數據類型、運算符、流程控制語句、方法、數組。 可掌握的核心:   
掌握Java程序基礎數據類型;
掌握開發中常用類如集合、IO流、常用類等操作;
掌握Java異常處理機制;
掌握反射、網絡編程、多線程開發;
掌握Jsoup的網絡爬蟲開發;
掌握JDBC操作;
掌握ETL數據處理和BI報表開發 。 

可以解決的問題:
具備JavaSE開發能力。

市場價值:
可勝任初級爬蟲工程師崗位。
面向對象 面向對象思想、類與對象、成員變量和局部變量、封裝、 this關鍵字、構造方法。
常用類 Object類、String、StringBuilder等。
集合操作 數據結構、List、Set、Map等。
IO操作 字節輸入流、序列化、字節輸出流、Apache Commons IO等。
Java基礎增強 反射、網絡編程、多線程、注解等。
JDBC JDBC基本概述、JDBC入門和步驟分析、DriverManager詳解、Connection詳解、Statement詳解、ResultSet詳解、Driver接口介紹、JDBC的CRUD操作、SQL注入分析、PreparedStatement詳解、JDBC的使用案例、連接池基礎、C3P0連接池的使用。
Maven Maven環境搭建、Maven構建、自動化構建、本地倉庫&中央倉庫、pom.xml、依賴管理、坐標、依賴、生命周期等、IDEA下的Maven使用。
爬蟲案例 Jsoup、MySQL高級、JDBC、ETL、BI
Hadoop技術棧 Linux操作系統高級 Linux shell編程、awk、sed、cut、ssh、scp、expect、yum、nestat、top 、iostat等高級命令使用。 可掌握的核心:
掌握shell編程;
掌握ZooKeeper原理并應用;
掌握HDFS的使用和MapReduce編程;
理解MapReduce原理和調優;
掌握Yarn的原理和調優;
掌握Hive的使用和調優。

可以解決的問題:
具備Hadoop開發能力、離線數據倉庫開發能力。

市場價值:
可勝任初級Hadoop工程師崗位。
大數據基礎和硬件介紹 大數據的特點、分布式存儲概念、分布式計算的概念、服務器種類介紹、機架、交換機、網絡拓撲、Raid、IDC數據中心。
Zookeeper Zookeeper的應用場景、架構和原理、存儲模型、選舉機制、客戶端操作。
HDFS HDFS設計的特點、Master-Slave架構、Block塊存儲、RF拷貝因子、機架感知、Block拷貝策略、讀寫流程、HDFS Federation、HDFS Snapshots、NameNode HA架構和原理、HDFS管理員常用操作、HDFS權限控制。
MapReduce MapReduce架構和原理、Split機制、MapReduce并行度、Combiner機制、Partition機制、自定義Partition、MapReduce序列化、自定義排序、數據壓縮。
YARN Yarn原理和架構、Yarn高可用、Container資源的封裝(CPU、內存和IO)、資源調度策略(FIFO、Fair和Capacity)。
Hive Hive原理和架構、HQL操作、數據類型、分區、分桶、臨時表、Meta Store服務、HiveServer內置函數、自定義UDF和UDAF、數據壓縮、存儲格式、自動化腳本、常見性能優化、explain執行計劃詳解。
項目一(在線教育) 1、還原大型在線教育的大數據平臺。
2、建立企業數據倉庫,統一企業數據中心,把分散的業務數據集中存儲和處理。
3、項目從需求調研、設計、版本控制、研發、測試到落地上線,涵蓋了項目的完整工序。
4、挖掘分析海量用戶行為數據,定制多維數據集合,形成數據集市,供各個場景主題使用。

基于CM自動部署和配置、 數據倉庫建模、離線數倉架構分層、 使用Git版本控制和CodeReview、使用Oozie進行作業調度、Hive2的使用和調優、 Sqoop進行Mysql和Hive的雙向海量數據同步、使用拉鏈表完成增量數據的統計分析、使用FineReport完成數據可視化。
可掌握的核心:
掌握從需求、設計、研發、測試到落地上線的完整項目流程;
掌握大量教育行業的真實業務邏輯,涉及20多個主題,100多個指標;
掌握海量數據如何調優、使用拉鏈表、增量數據處理,以及Hive函數的具體應用等;
掌握基于CM的大數據環境部署和管理;
掌握數據倉庫的核心概念和應用;
掌握常用離線大數據技術:Oozie、Sqoop、Hive等;
掌握FineReport可視化。

可以解決的問題:
具備企業級離線數據倉庫開發能力,深入教育行業需求,提升學員在行業的核心競爭力。

市場價值:
可勝任Hadoop工程師、離線數據倉庫工程師、ETL開發工程師、FineReport BI開發工程師等崗位。
數據微服務接口開發 Spring Spring Boot整合Spring MVC、 使用Spring Boot整合MyBatis開發、搭建Eureka注冊中心、Feign、使用Spring Cloud Gateway搭建微服務網關。 可掌握的核心:
掌握SpringBoot整合SpringMVC開發;
掌握SpringBoot整合MyBatis開發;
掌握Eureka搭建;
掌握Feign的使用。

可以解決的問題:
具備后端數據微服務接口開發,可勝任通過Spring技術架構完成微服務搭建??賞瓿善笠導妒菸⒎窠涌誑?。

市場價值:
可勝任后端開發工程師崗位。
Spring Boot
Spring Cloud
實時生態圈 分布式緩存系統 Redis原理及架構、Redis Cluster原理及架構、Redis常用操作、HBase原理及架構、預分區、LSM結構、Bloom Filter、co-processor、結合Phoneix進行優化查詢、Kafka原理及架構分析、分布式實時計算架構和思想、ElasticSearch開發、Logstash數據采集、Kibana數據可視化。 可掌握的核心:
掌握Redis原理及架構;
掌握Redis命令操作、及數據結構;
掌握Hbase原理及架構;
掌握HBase命令操作、MapReduce編程;
掌握Phoneix二級索引優化查詢;
掌握ELK開發。

可以解決的問題:
具備使用Hbase和Redis開發調優能力、ELK海量數據處理能力。

市場價值:
可勝任ELK開發工程師、Hadoop開發工程師等崗位。
萬億級NoSQL海量數據存儲
分布式流處理平臺
Elastic Stack
Flink Stream Flink DataStream的使用、Flink SQL開發、Flink 性能監控、Flink調優、Flink SQL執行計劃、Hive + Flink SQL、Kafka + Flink、Watermark、Checkpoint、任務調度與負載均衡、狀態管理、Flume+Kafka+Flink+Hbase+Sqoop+Canal+MySQL案例實戰。 可掌握的核心能力:
掌握Kafka原理及架構;
掌握KafkaStreams開發;
掌握基于Flink進行實時和離線數據處理、分析;
掌握基于Flink的多流并行處理技術;
掌握千萬級高速實時采集技術。

可解決的現實問題:
具備Kafka消息隊列開發和調優能力、Flink流式和批量數據開發能力。

市場價值:
可勝任初級實時計算開發工程師、初級Flink開發工程師等崗位。
Flink DataSet
Flink Runtime
Flink SQL
Flink實戰
項目二(證券、物聯網任選其一) 1、實時監控證券市場的每日業務交易,實現對證券市場交易數據的統計分析
2、搭建監察預警體系,包括:預警規則管理,實時預警,歷史預警,監察歷史數據分析等
3、股市行情交易數據實時采集、實時數據分析、多維分析,即席查詢,實時大屏監控展示
項目采用流處理計算引擎Flink,實時處理100萬筆/s的交易數據
基于企業主流的流處理技術框架:Flume、Kafka、Flink、Hbase等
基于Hive和Kylin的批數據處理,可進行海量多維分析
Hbase5日內秒級行情億級規模,MySQL5日內分時行情千萬級規模
T-5日內實時行情毫秒響應,T-5日外的歷史行情秒級響應
數據存儲以HDFS、Hive、Hbase應對PB級規模數據
項目涵蓋主流離線數倉的技術和OLAP分析引擎
OLAP分析引擎以Kylin和Druid實現離線和實時的指標分析
隊列服務以低延遲、高吞吐-百萬筆/秒的Kafka保障數據接收
緩存服務基于Redis的高速緩存,實現數據快速交換
TB級別的實時日處理數據、存儲PB級歷史數據
主備雙大數據平臺保障。
可掌握的核心能力:
掌握基于FTP、Flume + Kafka的實時數據采集開發;
掌握TB級海量規模下Flink實時處理開發,保證實時計算高容錯;
掌握三種不同時間維指標的存儲、計算方案(Druid、MySQL、HBase),例如:毫秒級\秒級\分時等時間維;
掌握基于Kylin的即席快速OLAP開發;
掌握基于Flink CEP的實時預警監控開發;
掌握基于Spring Boot的數據服務接口開發。

可解決的現實問題:
具備TB級規模下毫秒級Flink實時計算程序開發、架設能力,并具備不同應用場景下多種存儲引擎的技術引擎優化能力。以及項目上線部署、運維監控能力。

市場價值:
可勝任實時計算開發工程師、Flink開發工程師、實時數倉開發工程師等崗位。
Spark技術棧 Scala語言  Scala基礎、變量聲明、數據類型、條件表達式、塊表達式、循環、方法和函數、數組、元組、集合、Iterator、構造器、伴生對象、Akka編程。 可掌握的核心:
掌握Scala語言基礎、數據結構;
掌握Scala語言高階語法特性;
掌握Spark的RDD、DAG、CheckPoint等設計思想;
掌握SparkSQL結構化數據處理,Spark On Hive整合;
掌握Spark Streaming整合Kafka完成實時數據處理;
掌握Spark Streaming偏移量管理及Checkpoint;
掌握Structured Streaming整合多數據源完成實時數據處理。

可以解決的問題:
具備Spark全棧開發能力,滿足大數據行業多場景統一技術棧的數據開發,提供就業核心競爭力。

市場價值:
可勝任初級Spark開發工程師、初級大數據平臺開發工程師、初級大數據開發工程師等崗位。
Spark core  Spark架構和原理(運行機制、Driver和Executor、spark任務提交流程)、RDD開發和原理(Partition、Task、RDD的依賴關系、RDD的容錯機制、RDD的存儲級別、RDD的緩存機制)、廣播變量  、DAG原理(DAG思想、DAG的生成、DAG的處理過程)。
Spark sql Spark SQL架構和原理、DataFrame、DataSet DSL和SQL開發、Spark多數據源整合(txt、CSV、Json、parquet、JDBC、Hive)、Spark SQL執行計劃原理、Spark SQL性能調優。
Spark Streaming Spark Streaming流式開發、DStream API、整合多數據源、偏移量管理。
Structured Streaming Structured Streaming開發(input、output、window、watermark、過期數據操作、去重等)、Structured Streaming多數據源整合(socket、Kafka)、
Flume+kafka+Structured Streaming案例實戰。
項目三
(物流、電信任選其一)
1、基于一家大型物流公司研發的智慧物流大數據平臺,日訂單上千萬
2、圍繞訂單、運輸、倉儲、搬運裝卸、包裝以及流通加工等物流環節中涉及的數據信息等
3、提高運輸以及配送效率、減少物流成本、更有效地滿足客戶服務要求,并針對數據分析結果,提出具有中觀指導意義的解決方案
涵蓋離線業務和實時業務、ClickHouse實時存儲和計算引擎、 Kudu + Impala準實時分析系統、基于Docker搭建異構數據源、以企業主流的Spark生態圈為核心技術(Spark、Spark SQL、Structured Streaming)、ELK全文檢索、Spring Cloud數據微服務開發、實時監控地圖開發、存儲和計算性能調優、還原企業搭建大數據平臺的完整過程。 可掌握的核心能力:
掌握Docker環境部署、管理操作;
掌握基于Oracle + MySQL異構數據源數據處理技術;
掌握基于Oracle Golden Gate以及Canal的實時采集技術;
掌握Kudu + Spark的快速離線數據處理、分析技術;
掌握Kudu + Impala即席數據分析技術;
掌握基于ClickHouse高性能存儲、計算引擎技術;
掌握基于ELK的全文檢索技術;
掌握Kudu、Spark的調優能力;
掌握基于Spring Cloud的數據微服務接口開發技術。

可解決的現實問題:
具備基于Docker搭建不同數據源、實時采集開發能力,并具備構建高性能數據存儲處理大數據平臺開發能力。

市場價值:
可勝任中級Spark開發工程師、中級大數據平臺開發工程師、中級大數據開發工程師等崗位。
項目四
(電商、票務任選其一)
1、分析來自全品類B2B2C電商系統,以電商核心流程為主線進行數據分析,支撐運營
2、建立基于用戶的全面分析體系,從多個維度建立基于用戶的運營體系
3、實時分析用戶訪問流量、訂單、店鋪等運營指標
 涵蓋Kettle同步MySQL數據采集方案、JS埋點 + Flume實時用戶點擊行為數據采集方案
、Spark on hive數據倉庫解決方案、Apache Superset可視化方案、Kylin交互式快速數據分析方案、Canal MySQL業務數據實時采集方案、Flink實時ETL處理解決方案、Flink + Druid實時數倉解決方案、HBase + Phoenix明細數據實時查詢方案、Flink CEP實時風控方案、Azkaban作業調度調度方案。
可掌握的核心能力:
掌握Spark + Hive構建離線數倉;
掌握Kafka + Flink + Druid構建實時數倉;
掌握基于Kettle的數據ETL處理技術;
掌握離線數倉和實時數倉分層架構;
掌握基于Parquet + Snappy的存儲、壓縮技術;
掌握Spark處理數據傾斜問題;
掌握基于Redis + Flink實時ETL處理技術;
掌握基于Spark引擎的Kylin Cube構建技術;
掌握Kylin的碎片管理、Cube調優、增量構建等技術;
掌握基于Flume、Canal的實時采集技術;
掌握基于Proto Buf的高效序列化技術;
掌握基于HBase + Phoenix的快速數據查詢技術;
掌握基于Flink CEP的實時風控處理技術;
掌握基于Superset的BI開發技術。

可解決的現實問題:
具備主流Spark + Hive離線數倉開發技術,并具備海量數據處理性能調優能力,具備實時數倉架構能力,構建毫秒級的實時計算平臺。

市場價值:
可勝任高級離線數倉開發工程師、高級實時數倉開發工程師、高級大數據開發工程等崗位。
可選擇線下或線上
大數據平臺化開發 大規模大數據集群部署、大規模集群運維監控 涵蓋主流的一些大數據平臺,涵蓋CDH、HDP、Apache、云平臺等部署方案,引入各家的最佳實踐。包含基于平臺下的各個組件的運維,包括Prometheus、Zabbix、Grafana、Eagle、CM、Ambari、Ganglia等。 可掌握的核心能力:
掌握大數據組件的常用運維方法解決實際的運維方案;
掌握大數據框架必備的數據結構及常用的數據結構;
掌握企業級大數據架構原理及源碼深入剖析;
掌握PySpark、PyFlink等Python大數據生態技術;
掌握大數據數據挖掘常見的算法及應用場景;
掌握數據中臺構建思路及實戰;
掌握數據科學常見的問題方法;
掌握大型互聯網公司常見面試題。

可解決的現實問題:
具備大數據平臺運維能力;
具備企業數據中臺構建能力;
具備大數據數據挖掘、機器學習模型開發、調優能力;
具備Apache頂級項目二次開發能力、源碼級調優開發能力;
具備大型企業大數據平臺架構能力。

市場價值:
直通BAT等大廠。
大數據數據中臺 大數據數據體系建設、管理 基于Altlas元數據管理工具進行數據血緣分析、構建數據地圖,構建統一存儲計算平臺,建立數據類目體系、標簽類目體系、數據資產管理,并基于數據中臺構建數據應用服務。
大廠解決方案實戰 出行、電商、視頻、社交等領域大數據解決方案 大型門戶可視化任務提交解決方案、大型旅游出行服務平臺統一性能監控平臺解決方案、B2B2C電商集中實時采集消息隊列存儲方案、出行平臺實時風控性能調優方案、大型電商雙十一千萬級實時處理調優、視頻網站海量用戶行為數據計算調優。
大數據常見架構與設計 一線大廠技術架構 美團點評實時數倉架構、拼多多離線數倉架構、小米快速OLAP分析架構、抖音小視頻實時推薦架構。
新零售項目實戰 新零售大數據項目實戰,離線實時全覆蓋 本項目基于國內大型新零售巨頭開發的大數據平臺,基于高性能方案構建離線數倉、以及實時數倉。該項目涵蓋完整的業務,包括銷售、屢單、會員、促銷、商品、客戶等主題,每個主題涵蓋大量真實的業務場景,項目手把手帶著學生開發基于新零售場景下的離線、實時業務。本項目采用Hive+Presto架構構建高性能的離線處理方案,并采用基于ClickHouse的實時數倉,實現秒級OLAP分析。
工業大數據項目實戰 制造業大數據項目實戰 本項目基于國內大型的設備制造商大數據項目開發。該企業在全球范圍內銷售設備,設備涵蓋加油站相關的所有,例如:加油機、油罐建設、加氣機、自助設備等設備生產制造、設計、銷售,并提供全球性的服務。在國內重點客戶為:中國石油、中國石化、以及各個地域的大型企業。在國內,業務覆蓋的油站約8W座,設備數量50W臺。拿加油機設備來說,一臺設備包含了眾多的配件,每個配件的維護,設備信息的上報,服務工作人員的調度、GPS跟蹤定位等,企業經過多年的經營,積累了海量的數據。集群公司為了能夠確保企業精細化運營,決定進行數字化轉型,依托于大數據技術,以客戶、生產、服務、運營為核心,打造一個全方位的數字化平臺。
大數據數據挖掘 企業級大數據數據挖掘解決方案 機器學習基礎、SparkMl&SparkMllib基礎實戰、Python核心基礎、Python數據科學庫基礎(Numpy、Pandas、Matplotlib、Seaborn、Imblearn-Learn、Scikit-Learn)、Python數據挖掘案例、PyHdfs、PyHive、PyHbase、Kafka-Python、PySpark、PyFLink案例實戰。
BAT直通車 互聯網公司常見面試題及應用場景剖析 BAT大數據常見的面試精選題、一線大廠多領域場景剖析、HDFS、MapReduce、Hive、Flume、Sqoop等面試題精講、Spark、Spark Streaming等面試題精講、Flink面試題精講、底層數據結構面試題精講。

備注:該課程大綱僅供參考,實際課程內容可能在授課過程中發生更新或變化,具體授課內容最終以各班級課表為準。


基礎差? 可免費學基礎班

申請試讀名額

基礎過關? 可直接就讀就業班

基礎測試

大數據學科項目介紹

  • 企業級360°全方位用戶畫像

    項目簡介:

    1、標簽是表達人的基本屬性、行為傾向、興趣偏好等某一個維度的數據標識,它是一種相關性很強的關鍵字,可以簡潔的描述和分類人群。
    2、標簽的定義來源于業務目標,基于不同的行業,不同的應用場景,同樣的標簽名稱可能代表了不同的含義,也決定了不同的模型設計和數據處理方式。
    3、標簽標簽是構建用戶畫像的基礎,會產生兩類用戶畫像,即個人用戶畫像和群體畫像。個人畫像,也叫360度用戶視圖,用于用戶精準互動和一對一服務,銷售和運營等操作實務指導為主。群體畫像是群體行為分析,群體行為洞察有利于做趨勢分析、產品規劃、營銷決策等層面的工作。

    項目特色:

    1、大型電商真實的用戶畫像項目,真實的業務場景;
    2、自義定SparkSQL DataSource插件;
    3、插件化集成Spark的ML/Mllib建模;
    4、自定義Oozie定時工作流自動構建;
    5、用戶標簽的自動化生成;
    6、支持對人對物的秒級畫像生成;
    7、各種企業級組合標簽設計的思想和方案(如:高富帥、羊毛黨等組合標簽實戰);
    8、RFM(客戶價值模型)模型的應用實戰。

  • 千億級實時數據倉庫

    技術要點:

    1、使用Canal采集關系型數據庫結構化的交易數據;
    2、使用Flume采集非結構化的用戶行為數據到Kafka;
    3、使用Kafka存儲埋點系統產生的實時的用戶行為數據;
    4、使用Hive、HBase存儲大規模數據;
    5、基于ODS-DWB-DWS-DM-ADS的數倉分層;
    6、使用Oozie調度Spark定時工作流處理和計算分層數據;
    7、使用Kylin預計算DM層的數據立方體滿足多維查詢;
    8、使用Zeppelin+Impala實現靈活的數據開發功能;
    9、使用Superset實現EDW的可視化;
    10、使用Flink計算實時訪客相關指標;
    11、使用Druid實時聚合訂單和銷售等相關指標;
    12、使用ECharts實現實時Dashboard的可視化

    項目特色:

    1、企業級離線和流式數倉建設的方案和思想;
    2、企業級數據倉庫建設的難點攻克;
    3、數倉模型的設計分層設計思想、指標/維度設計思想和??檣杓撲枷?;
    4、阿里巴巴數倉分層架構(ODS-DWS-DWB-DM-ADS)實戰;
    5、實時指標計算方面,利用Flink的低延遲,狀態管理等特性進行實時指標的開發,提高指標的計算效率真正做到指標的實時統計;
    6、利用druid時序分析數據庫進行數據的存儲以及指標的統計;
    7、離線部分除了使用傳統數倉技術如hive外,我們加入kylin,hbase等框架,實現了數據查詢的低延遲,可以利用即席查詢對離線數據進行快速高效的查詢分析;
    8、企業級真實的數據倉庫建設全部的核心流程和技術。

  • 黑馬電商推薦系統

    項目簡介:

    黑馬電商平臺個性化推薦系統通過采集用戶購買、加購、瀏覽、收藏、點擊等用戶動態行為數據,結合用戶靜態屬性(基于人口統計學信息)數據。通過混合推薦系統平臺推薦給用戶最可能購買的商品。項目依托于Hadoop大數據平臺,完成了用戶行為數據采集、用戶數據分析、實時查詢、實時展現以及通過構建推薦引擎實現離線和實時推薦,將結果通過Hbase或Redis存儲推薦結果,通過線下構建用戶興趣模型、線上ABTest測試推薦結果的可行性。

    技術棧:

    1、數據采集:ngnix+lua+javascript;
    2、數據存儲:HDFS、HBASE、Redis、MongoDB、Mysql;
    3、數據處理:HiveSql、SparkSql、SparkStreaming;
    4、數據統計計算:Hive、SparkSql;
    5、數據建模:SparkML、SparkMLLib、SparkGraphX、TensorflowOnSpark;
    6、數據展示:Web(Vue.js)、Neo4j;
    7、任務調度:Azkaban;
    8、搜索服務:ElasticSearch。

    項目特色:

    1、使用Spark-ALS算法訓練模型和超參數調優,通過模型的predict方法預測推薦結果,通過Rmse比較推薦結果。
    2、通過Spark-FPGrowth算法訓練模型和超參數調優,獲取購買行為類型的樣本數據,從數據中形成關聯挖掘所需的數據,算法通過不同的置信度和支持度超參數設定,調整算法模型。
    3、項目構建基于Scala基礎的UserCF、ItemCF的基于記憶的推薦引擎,得到推薦結果相關表,即為初始推薦結果。
    4、項目應用SparkGraphX的SVD++算法模型實現基于圖計算的推薦方式,利用neo4j構建用戶和商品的關系圖示。
    5、項目擴展Tensorflow技術對CTR排序中的FM、FFM、DeepFM、Wide And Deep模型提取二階及高階特征完成排序。
    6、推薦結果從MongoDB和ElasticSearch中將離線推薦結果、實時推薦結果、內容推薦結果混合。

  • 電信信號強度診斷

    項目簡介:

    1、本項目基于謀公司開發的手機測速軟件采集的數據對用戶的手機網速、上行下行流量,網絡制式、信號強度等信息進行宏觀分析。
    2、本項目總體分為三大???,分別為數據導入???、數據處理???、報表生成???、地圖處理和渲染。
    1)數據導入??椋菏菁釉嗇?櫓饕糜讜詿徹叵敵褪菘庥氪笫萜教ㄖ浣惺荽?,將mysql數據庫內的同步到大數據平臺中。實時新數據首先進入mysql中。除此之外,該平臺數據導入??榛垢涸鶚菰嘉募?、本地wifi文件的自動導入功能。
    2)數據處理??椋菏荽砟?櫓饕糜詼砸丫釉氐醬笫教ǖ氖莞菔導室滴裥棖蠼懈釗氳拇?、分析、運算、加工。
    3)報表生成??椋罕ū砩贍?櫓饕糜詼砸丫淮笫萜教ù砉氖萁型夾位?、界面化的展示。以便于領導比較簡單的、直觀的了解經處理后的數據所傳遞的信息。
    4)地圖處理和渲染:百度和高德地圖的LBS服務使用,地圖網格的切分思想,地圖熱力圖的顯示,街景的實現,大數據基于地圖的安防案例實現。

    項目特色:

    1、調用高德或者百度的API,實現區域熱點分析;
    2、地圖網格的切分思想和實現;
    3、大數據技術+多維地圖展現(包括地圖、衛星圖、三維圖);
    4、信號強度熱圖使用多方案展現,并與大數據及時方案完美融合;
    5、信號強度矩陣圖(矩陣計算),每個獨立的矩形都要獨立進行計算、一次查詢至少需要計算長*寬次(25*12),并在地圖上渲染,對于查詢的時效性要求極高;
    6、以某一用戶為中心,計算用戶八個方向的信號質量、系統、APP等并以街景圖形式展現。難點在于計算用戶八個方向的數據;
    7、大數據技術和地圖完美的整合。

教學服務

  • 每日測評

    每晚對學員當天知識的吸收程度、老師授課內容難易程度進行評分,老師會根據學員反饋進行分析,對學員吸收情況調整授課內容、課程節奏,最終讓每位學員都可以跟上班級學習的整體節奏。

  • 技術輔導

    為每個就業班都安排了一名優秀的技術指導老師,不管是白天還是晚自習時間,隨時解答學員問題,進一步鞏固和加強課上知識。

  • 學習系統

    為了能輔助學員掌握所學知識,黑馬程序員自主研發了6大學習系統,包括教學反饋系統、學習難易和吸收分析系統、學習測試系統、在線作業系統、學習任務手冊、學員綜合能力評定分析等。

  • 末位輔導

    末位輔導隊列的學員,將會得到重點關心。技術輔導老師會在學員休息時間,針對學員的疑惑進行知識點梳理、答疑、輔導。以確保知識點掌握上沒有一個學員掉隊,真正落實不拋棄,不放棄任何一個學員。

  • 生活關懷

    從學員學習中的心態調整,到生活中的困難協助,從課上班級氛圍塑造到課下多彩的班級活動,班主任360度暖心鼓勵相伴。

  • 就業輔導

    小到五險一金的解釋、面試禮儀的培訓;大到500強企業面試實訓及如何針對性地制定復習計劃,幫助學員拿到高薪Offer。

踢球者即时指数比分
{ganrao} 个人小额理财产品排行 11运夺金玩法说明 今天涨停的股票公式 快三河北 上海十一选五今天号码 黑龙江36选7开奖结果查询今天 群英会 股票指数计算方法是 北京11选五开奖规则 北京时时彩一天几期 贵州11选五怎么下载 幸运飞艇345678码稳赚公式 北京11选5投注网站 广西快三基本走势图表 腾讯二分彩开奖号码 广东26选5开奖