選擇我們,理由不止一個
前瞻性大綱、企業技術講師、專業教研團隊、嚴格考核機制、入學就業協議、學習硬件支撐
企業經理課程、職業素養課程、校友技術沙龍、企業雙選會、技能提高、360°生活確保
課程內容豐富,傳授專業知識
時間 | 內容 | 培訓目標 | 備注 |
---|---|---|---|
Java基礎語法 | 計算機理論介紹;編程基礎--進制分類,進制轉換等;JDK的安裝與環境變量的配置;注釋;數據類型;標識符;變量和常量;轉義字符;數據類型轉換;常用運算符;分支流程控制-if;分支流程控制-switch;循環流程控制-while;循環流程控制-for;方法的定義與調用;方法的參數與返回值;方法的重載;方法的遞歸;數組的定義與元素訪問;數組的內存分析;數組的常見操作;數組排序 | ||
Java面向對象 | 面向對象與面向過程;類的設計;對象的實例化;對象的內存分析;類中成員的訪問;類是一種自定義的類型;this關鍵字;包(package)的創建與使用;構造方法;private關鍵字與屬性封裝;單例設計模式;繼承基本的概念;繼承中的特點;繼承中的構造方法;方法的重寫;final關鍵字;super關鍵字的使用;Object類;對象的轉型;instanceof關鍵字;抽象類與抽象方法;接口 | ||
常用類、異常、集合 | Lambda表達式;內部類;包裝類型;常用類Random、Date、SimpleDateFormat、Calendar;枚舉;異常定義;常用結構.;finally關鍵的應用;自定義異常;String類常用方法;StringBuffer/StringBuilder的常用方法;正則表達式;集合框架Collection;集合中元素排序;Collections具類;泛型;集合框架Map;HashMap集合;TreeMap集合;可變參數;Arrays工具類;基本數據結構 | ||
Java多線程和IO | 多線程概念;并發與并行;創建線程的方式;線程常用方法;線程生命周期;臨界資源問題;同步代碼段synchronized關鍵字;同步方法synchronized關鍵字;lock和unlock;線程死鎖;生產者消費者設計模式(一對一);懶漢式單例設計模式中的線程安全問題;File常用方法;流的基礎;流的分類;字節流;字符流;轉換流;緩沖流;對象流;Properties文件操作;NIO和NIO.2(緩沖區、通道、Paths.get、Files);Class類;Class獲取對象的三種方式;Constructor構造方法;Field 屬性;Method方法;反射實例 | ||
MySQL+JDBC | SQL簡介;SQL表的概念;數據庫的安裝卸載;登錄MySQL和MySQL常用命令;MySQL中常用的基本數據類型;數據庫DDL操作;數據庫DML操作 數據庫DQL操作;數據庫DQL操作;數據完整性;數據庫的索引操作;表與表之間的關系;多表查詢;常見函數應用;數據備份與恢復;JDBC原理;JDBC的實現;JDBC實例-模擬登陸;SQL注入問題;xml和json講解;數據庫事務;連接池;連接池原理;常用的三方連接池DBCP、C3P0和Druid;DBUtils三方工具的使用 |
時間 | 內容 | 培訓目標 | 備注 |
---|---|---|---|
Linux和Shell腳本 | CentOS 7.7安裝部署;常見文件操作命令;常用系統操作命令;常用的四種軟件安裝部署;Shell腳本中變量;Shell腳本數組、if-el分支、循環和方法等;Shell腳本調試;crontab定時器 | ||
HDFS分布式文件系統 | HDFS組件概述;Hadoop安裝部署;HDFS中的服務功能;HDFS工作機制;HDFS讀寫流程;HDFS的api操作 | ||
Zookeeper | Zookeeper的定義;Zookeeper的應用場景;Zookeeper的服務及功能;Zookeeper整體架構;Zookeeper的選舉機制;Zookeeper中事務;Zookeeper安裝部署;Zookeeper操作;HDFS的HA部署 | ||
MapReduce | YARN的組件YARN的架構;YARN的調度方式;YARN工作原理;MapReduce模型;MapReduce中shuffle機制;MapReduce中的partitioner;MapReduce中的自定義輸入輸出;MapReduce中的join操作;MapReduce中的壓縮;MapReduce優化 | ||
Hive | Hive架構;Hive安裝部署;Hive的DDL操作;Hive的DML操作;Hive分區;Hive分桶;Hive數據加載;Hive中數據類型;Hive的常見內部函數;Hive自定義函數(UDF|UDAF);Hive視圖;Hive索引;Hive優化 | ||
Presto | Presto部署;Presto命令行接口;Presto的JDBC驅動;Presto隊列配置;Presto的連接器;Presto的函數和運算符;Presto的數據類型;Presto的sql操作;Presto從Hive遷移;Presto的函數 | ||
Hbase | Hbase架構;Hbase組件;Hbase工作原理;Hbase的shell操作;Hbase的api操作;Hbase的合并;Hbase的觸發器;Hbase的過濾器;Hbase的RowKey設計;Hbase的優化操作 | ||
Phoenix | Phoenix安裝部署;Phoenix的四種操作方式;Phoenix的DDL和DML;Phoenix的視圖;Phoenix的二級索引;Phoenix的分頁實現 | ||
Kylin | Kylin架構;Kylin安裝部署;Kylin數據源添加;Kylin的Mode創建;Kylin的Cube構建;Kylin的Cube運行;Kylin的支持的操作;Kylin的優化 | ||
Sqoop | Sqoop架構;Sqoop安裝部署;Sqoop的工作原理;Sqoop的Import和Export;Sqoop增量和全量操作;Sqoop元數據;Sqoop的Job操作;Sqoop代碼腳本化 | ||
Flume | Flume架構;Flume安裝部署;Flume的source、channel、sink;Flume的selector使用;Flume的實時采集;Flume自帶攔截器和自定義攔截器;Flume多agent部署;Flume的容錯 | ||
Azkaban | Azkaban架構;Azkaban部署;Azkaban的Shell案例;Azkaban的MapReduce案例;Azkaban的Hive案例;Azkaban的Sqoop案例;Azkaban的定時案例;Azkaban的2.0語法;Azkaban的用戶和權限;Azkaban的優化 | ||
Git | Git相關概念;Git安裝部署;Git命令行操作;Git版本庫創建;Git中分支操作;Git沖突解決;GitHub和GitLab介紹使用;Git和IDEA整合使用 | ||
數據倉庫 | 數據倉庫定義;數據倉庫四大特征;數據倉庫主題;數據倉庫集市;數據粒度;數據倉庫中維度;數據倉庫中緩慢數據變化處理;數據倉庫分層 |
時間 | 內容 | 培訓目標 | 備注 |
---|---|---|---|
Scala基礎 | Scala環境部署;編碼規范;var和val的區別;數據類型;表達式;循環;定義方法和函數;數組(Array);映射(Map);元組(Tuple);列表(List);Set;集合的重要函數;類、特質、抽象類、對象、繼承;模式匹配和樣例類;高階函數;隱式轉換和隱示參數;泛型;Netty的概念 | ||
Spark Core | Spark簡介;Spark運行模式;SparkShell;RDD的概念詳解;Transformation算子;Action算子;DAG有向無環圖;RDD任務的切分;Lineage(血統);Checkpoint檢查點機制;Spark集群啟動流程和任務提交流程;自定義排序;自定義分區Accumulator累加器;Broadcast廣播變量;Shuffle原理剖析與源碼分析;SparkSubmit執行流程;集群啟動流程詳解;SparkContext執行流程;Task提交流程詳解;Stage劃分過程詳解 | ||
Spark內核源碼 | Spark啟動腳本解析;Spark提交流程解析;應用提交和Driver進程;SparkContext解析;Spark executor解析;Spark的部署模式;Spark的shuffle流程;Spark的內存管理 | ||
Spark SQL | SparkSQL介紹;SparkSQL的操作方式;SparkSQL的數據抽象;Spark-shell基本操作;數據轉換(RDD,DataFrame,DataSet);數據操作方法(DSL和SQL);SparkSQL自定義函數(UDF,UDAF,開窗函數);Spark集成Hive(內置Hive和外置Hive) | ||
Kafka消息隊列 | |||
Redis | Redis的應用場景;Redis安裝部署;Redis數據類型的cli和api操作;Redis的數據類型和操作案例;Redis主從復制;Redis集群部署;Redis的連接池;Redis中的雪崩、穿透和擊穿問題 | ||
Spark Streaming | Spark Streaming的原理介紹;DStream的概念;DStream原語類型介紹;DStream的Transformation(轉換)、Output(輸出);窗口操作案例實現;Spark Streaming結合Kafka案例實現;背壓和反壓機制;數據的一致性;Structured Streaming實戰 | ||
Spark Mllib | Spark MLlib簡介;Spark MLlib組件介紹;Word2Vec;TF-IDF;ALS;GBDT;LR;MinMaxScaler;OneHotEncoder | ||
Elasticsearch | Elasticsearch的相關概念;Elasticsearch及插件安裝部署;Index的概念;Document的概念;Mapping映射的概念;Elasticsearch的數據類型;Elasticsearch的聚合操作;索引rest和api相關操作;Elasticsearch的SQL操作;Elasticsearch過濾器;IK分詞器集成Elasticseach;查詢文檔分頁操作;Kibana插件操作 | ||
ClickHouse | ClickHouse概念;ClickHouse安裝部署;客戶端連接和JDBC方式訪問ClickHouse;數據類型;ClickHouse的ddl和dml操作;ClickHouse表引擎;ClickHouse優化 |
時間 | 內容 | 培訓目標 | 備注 |
---|---|---|---|
Flink基礎 | Flink部署模式;Flink Streaming DataStream API介紹;Flink Streaming DataSource、Transformations、Sink詳解;Flink的connector;Flink的自定義輸入輸出;Flink中兩階段提交;Flink中的操作鏈;Flink DataSet的DataSource、Transformations、Sink詳解;Flink Table API和SQL應用;Blink Table的操作;Sql與hive的整合;Flink的序列化;Flink的廣播變量;Flink的累加器;Flink的分布式緩存;Flink的狀態管理和恢復;Flink的CheckPoint;Flink失敗重啟;Flink中Time;Flink窗口;EventTime與Watermarks;Flink的CEP;Flink的新特性;Flink的優化 |
完善的配套服務,提高自我
統計多名畢業老學員所在公司使用到的實際企業技術及學員大廠面試反饋
按企業實際需求調整了每天的課程設計,加入更多新特性及技能,并提供技術服務
未來大數據行業更偏向于ETL工具使用、更適用于實時數倉或用戶畫像項目,新增Presto、ClickHouse;引入企業級適用的基于Spark Mllib的機器學習算法等主流技術
大數據六維全息項目實戰
項目介紹:大數據采集與指標監控項目是基于第一階段和第二階段課程,貫穿離線數據上報、數據儲存、數據服務監控、數據分析等全套流程。整個項目包括Flume自定義攔截器代碼、自定義Azkaban監控代碼和SQL相關指標代碼開發
解決問題:解決離線數據上報流程,數據采集操作,flume和azkaban的二次開發,數據服務監控等
項目介紹:實時數倉是一個基于Flink、Kafka、Elasticsearch和Redis等技術構建的某旅游實時數倉平臺。項目整體涵蓋訂單、交易、活動和用戶行為等業務塊。代碼包含實時ETL處理、實時數據落地HDFS磁盤、實時數據打入Elasticsearch和Kafka等
解決問題:解決實時數據ETL處理、解決實時數據回滾HDFS、解決維度變化異步處理問題
門面
¥詢價課時:詳詢
¥詢價課時:詳詢
¥詢價課時:詳詢
¥詢價課時:詳詢
¥詢價課時:詳詢
¥詢價課時:詳詢
¥詢價課時:詳詢
¥詢價課時:詳詢
¥詢價課時:詳詢
¥5000課時:4個月
¥詢價課時:詳詢
¥詢價課時:詳詢