閱讀154 返回首頁    go 阿裏雲 go 技術社區[雲棲]


Hortonworks(HDP)開發者認證-考試大綱

本項目是 Hortonworks開發者認證官方文檔的中文翻譯版,Hortonworks致力於打造一個全新的大數據處理平台來滿足大數據處理和分析的各個使用場景,它組合了大數據平台使用的各個組件, 比如Hadoop、Hbase、Hive、Spark等等一些列的組件, 它安裝方便使用便捷, 而且已經在2000節點以上的節點上商用. 本次翻譯主要針對對Hortonworks感興趣和致力於從事大數據方法開發的人員提供有價值的中文資料,希望能夠對大家的工作和學習有所幫助。

由於我公司鼓勵大家考Hortonworks認證(嗬嗬,公司出費用),於是今天簡單的看了下官方考試大綱,感覺還不錯,故翻譯了下供大家參考學習,本次翻譯並沒有咬文嚼字, 而是根據我個人的理解進行翻譯, 由於本人能力有限難免有些地方翻譯不到位,還希望大家諒解,同時也鼓勵大家去看官方文檔。

基於真才實學的認證

認證概述

Hortonworks重新設計了它的開發者認證程序, 為了創建一個通過在Hortonworks(HDP)集群上親自操作所獲取的專業知識的認證體係, 而不是回答多項選擇問題. HDP開發者認證考試(HDPCD)第一個比較新穎的地方是親自實踐的, 基於性能的考試, 它設計的目的麵向那些工作中經常使用像 Pig, Hive, Sqoop and Flume的開發者.

認證(考試)目的

開發者認證的目的是為了給組織和公司提供一種辨別是否是一個合格的大數據應用開發者, 這種認證實在開源的HDP平台對Pig, Hive, Sqoop and Flume組件對數據的存儲、運行和分析的應用.

考試描述

考試主要涉及到三個分類:

  • 數據獲取
  • 數據轉換
  • 數據分析

考試是在HDP2.2版本上麵進行, 通過 Ambari 1.7.0來進行管理, HDP2.2包括 Pig 0.14.0, Hive 0.14.0, Sqoop 1.4.5, 和Flume 1.5.0. 每位考生都可以訪問HDP 2.2 集群並在集群上進行一些列任務操作.

考試目的

瀏覽完成下麵任務, 它包括一些指向文檔和資源的連接

怎麼注冊

在 www.examslocal.com 網站創建一個帳號. 注冊之後登陸, 選擇“Schedule an Exam”, 然後進入“Search Here”輸入“Hortonworks”進行搜索,然後選擇Hortonworks開發者認證考試.

考試卷購買之後一年之內有效.

時間
2小時

模擬考試

Hortonworks官方提供考生的模擬考試和認證考試的環境和任務是相似的 . 點擊 [Practice Exam] 下載安裝開始模擬考試.

考試及格情況說明
通過 (MQC)認證的考生需要通過開源的Hortonworks數據平台中的Pig、Hive、Sqoop和Flume對數據進行提取,轉換和分析

Prerequisites

想獲取HDPCD認證的考生需要完成考試大綱下麵的所有任務.

語言

考試語言是英文

Hortonworks大學

Hortonworks 大學是你的專業指導對於Hadoop培訓和認證. 考生可以通過公開課程和非公開課程是進行學習. 課程結合通過真實的Hadoop環境演示動手試驗來進行.

HDP開發者考試的目的

HDPCD考試的考試需要完成下麵每項操作:

類型 任務 源(s)
數據獲取 通過Hadoop Shell把本地文件上傳到HDFS https://hadoop.apache.org/docs/current/hadoop-project-dist/hadoop-common/FileSystemShell.html
  使用Hadoop Shell在HDFS上創建一個新的目錄 https://hadoop.apache.org/docs/current/hadoop-project-dist/hadoop-common/FileSystemShell.html
  從一個關係型數據庫中導入數據到HDFS https://sqoop.apache.org/docs/1.4.5/SqoopUserGuide.html
  導入關係型數據的查詢結果到HDFS https://sqoop.apache.org/docs/1.4.5/SqoopUserGuide.html
  從一個關係型數據庫中導入數據到一個新的或者已經存在的Hive表裏 https://sqoop.apache.org/docs/1.4.5/SqoopUserGuide.html
  從 HDFS裏麵插入和更新數據到關係型數據庫裏麵 https://sqoop.apache.org/docs/1.4.5/SqoopUserGuide.html
   給你一個Flume配置文件,啟動一個 Flume agent https://flume.apache.org/FlumeUserGuide.html
  給你一個配置好的 sink 和source, 配置一個 Flume 固定容量的內存 channel https://flume.apache.org/FlumeUserGuide.html
類別 任務 源(s)
數據轉換 寫出並執行一個pig腳本 https://pig.apache.org/docs/r0.14.0/start.html
   加載一個沒有schema信息數據到Pig https://pig.apache.org/docs/r0.14.0/basic.html
  加載數據到Pig裏麵並關聯一個schema https://pig.apache.org/docs/r0.14.0/basic.html
  從Hive表裏麵加載數據到Pig https://cwiki.apache.org/confluence/display/Hive/HCatalog+LoadStore
  通過Pig把加載的數據格式化 https://pig.apache.org/docs/r0.14.0/basic.html
  轉換數據匹配一個給定的Hive schema https://pig.apache.org/docs/r0.14.0/basic.html
  對 Pig 中數據進行分組 https://pig.apache.org/docs/r0.14.0/basic.html
  使用Pig移除記錄裏麵關聯的空值 https://pig.apache.org/docs/r0.14.0/basic.html
  把 Pig 中的數據保存到HDFS中指定目錄裏麵 https://pig.apache.org/docs/r0.14.0/basic.html
  把 Pig中的數據保存到Hive表裏 https://cwiki.apache.org/confluence/display/Hive/HCatalog+LoadStore
  對Pig數據進行排序輸出 https://pig.apache.org/docs/r0.14.0/basic.html
  把Pig中關聯重複數據移除 https://pig.apache.org/docs/r0.14.0/basic.html
  對Pig MapReduce指定reduce任務數量 https://pig.apache.org/docs/r0.14.0/perf.html
  使用Pig進行關聯操作 https://pig.apache.org/docs/r0.14.0/basic.html andhttps://pig.apache.org/docs/r0.14.0/basic.html
  通過Pig join操作生成一個副本 https://pig.apache.org/docs/r0.14.0/perf.html
   運行一個Pig 任務通過 Tez https://pig.apache.org/docs/r0.14.0/perf.html
  在一個Pig 腳本內,通過注冊一個Jar來使用定義的函數 https://pig.apache.org/docs/r0.14.0/basic.html andhttps://pig.apache.org/docs/r0.14.0/udf.html
  在Pig 腳本內, 使用定義的函數定義一個別名 https://pig.apache.org/docs/r0.14.0/basic.html
  在一個Pig 腳本內, 執行一個用戶定義函數 https://pig.apache.org/docs/r0.14.0/basic.html
類型 任務 源(s)
數據分析 寫並執行一個HIve查詢 https://cwiki.apache.org/confluence/display/Hive/Tutorial
  定義一個內部表 https://cwiki.apache.org/confluence/display/Hive/LanguageManual+DDL
  定義一個擴展表 https://cwiki.apache.org/confluence/display/Hive/LanguageManual+DDL
  定義一個分區表 https://cwiki.apache.org/confluence/display/Hive/LanguageManual+DDL
  定義一個桶表 https://cwiki.apache.org/confluence/display/Hive/LanguageManual+DDL
  通過查詢數據定義一個表 https://cwiki.apache.org/confluence/display/Hive/LanguageManual+DDL)
  使用ORCFile 文件格式定義一個表 https://hortonworks.com/blog/orcfile-in-hdp-2-better-compression-better-performance/
  創建一個新的 ORCFile 表從一個非-ORCFile文件的 Hive 表 https://hortonworks.com/blog/orcfile-in-hdp-2-better-compression-better-performance/
  為Hive表指定一個存儲格式 https://cwiki.apache.org/confluence/display/Hive/LanguageManual+DDL
  為Hive表指定一個分隔符 https://hortonworks.com/hadoop-tutorial/using-hive-data-analysis/
  加載一個目錄數據到Hive表中 https://cwiki.apache.org/confluence/display/Hive/LanguageManual+DML
  從HDFS目錄中加載數據到Hive表中 https://cwiki.apache.org/confluence/display/Hive/LanguageManual+DML
  把查詢的結果加載數據到Hive表中 https://cwiki.apache.org/confluence/display/Hive/LanguageManual+DML
  加載一個壓縮數據到Hive表中 https://cwiki.apache.org/confluence/display/Hive/CompressedStorage
   在Hive表中更新一行記錄 https://cwiki.apache.org/confluence/display/Hive/LanguageManual+DML
  從 Hive表中刪除一條數據 https://cwiki.apache.org/confluence/display/Hive/LanguageManual+DML
  插入一條數據到 Hive 表中 https://cwiki.apache.org/confluence/display/Hive/LanguageManual+DML
  對Hive表進行Join操作 https://cwiki.apache.org/confluence/display/Hive/LanguageManual+Joins
   通過Tez來執行Hive查詢 https://hortonworks.com/hadoop-tutorial/supercharging-interactive-queries-hive-tez/
  使用向量化來執行 Hive 查詢 https://hortonworks.com/hadoop-tutorial/supercharging-interactive-queries-hive-tez/
  輸出Hive執行計劃操作結果 https://cwiki.apache.org/confluence/display/Hive/LanguageManual+Explain
   對Hive進行子查詢操作 https://cwiki.apache.org/confluence/display/Hive/LanguageManual+SubQueries
  輸出Hive統計、排序、交叉、多重操作的查詢結果 https://issues.apache.org/jira/browse/HIVE-1402
  設置Hadoop 或Hive 配置屬性通過Hive的查詢結果中 https://cwiki.apache.org/confluence/display/Hive/AdminManual+Configuration

 

最後更新:2017-05-19 18:01:45

  上一篇:go  《React官方文檔》之Why React?
  下一篇:go  5月19日雲棲精選夜讀:性能追求之路——MaxCompute2.0的前世今生