577
技術社區[雲棲]
開源大數據周刊-第50期
資訊
-
穀歌有了自己的人工智能芯片TPU,現在構建適用於深度學習的計算芯片已成為所有科技巨頭共同的發展目標,英特爾、高通、英偉達等都在人工智能芯片上投入巨大,芯片公司正在爭相占領這個新的市場。
-
大數據技術用了多年時間進行演化,才從一種看起來很酷的新技術變成企業在生產環境中實際部署的核心企業級係統。本文從人工智能領域、企業並購情況、雲端大數據競爭等方麵展示了數據生態係統在2017年全景視圖,並針對這一行業的見解總結為關鍵趨勢。
-
Apache軟件基金會宣布Apache® CarbonData™成為頂級項目
Apache CarbonData是由華為開源貢獻的大數據高效存儲格式解決方案。針對當前大數據領域分析場景需求各異而導致的存儲冗餘問題,CarbonData提供了一種新的融合數據存儲方案,以一份數據同時支持“交互式分析、詳單查詢、任意維度組合的過濾查詢等”多種大數據應用場景,並通過豐富的索引技術、字典編碼、列存等特性提升了IO掃描和計算性能,實現百億數據級秒級響應,與大數據生態Hadoop、Spark等無縫集成。
技術
-
今日頭條在去年引入了 Apache Kylin,主要幫助其加速多維分析。今日頭條目前在一些重要場景下基於 Hive 構建 Kylin 的 Cube。例如頭條用戶的閱讀行為分析,大多數情況下 Cube 查詢都能做到秒級或者亞秒級。
-
Cloudera在2016年發布了新型的分布式存儲係統——Kudu。HBase作為Google BigTable的開源產品,一直是Hadoop生態圈中的核心組件,其數據存儲的底層采用了HDFS,主要解決的是在超大數據集場景下的隨機讀寫和更新的問題。Kudu的設計有參考HBase的結構,也能夠實現HBase擅長的快速的隨機讀寫、更新功能。那麼同為分布式存儲係統,HBase和Kudu二者有何差異?兩者的定位是否相同?本文通過分析HBase與Kudu整體結構和存儲結構等方麵對兩者的差異進行比較。
-
如何使用Solr、Spark、OpenTSDB和Grafana進行日誌分析
各企業機構出於各種原因需要進行日誌分析,典型使用場景包括預測服務器故障、分析客戶行為及打擊網絡犯罪等。在本篇博客中展示了Cloudera公司如何使用自己的技術棧來提高開源軟件的質量,如何使用開源工具構建一個日誌分析框架。
-
用於圖像分割的卷積神經網絡:從R-CNN到Mark R-CNN
卷積神經網絡(CNN)最初用於圖像分類,但它的作用遠不止分類那麼簡單。在本文中,我們將看到卷積神經網絡如何在圖像實例分割任務中使用,並提升其結果。
歡迎加入阿裏雲開源大數據交流釘釘群
版權聲明
信息都是來自互聯網,都給出了原文的鏈接,如果侵權,請聯係我們,我們負責刪除。
最後更新:2017-04-27 16:01:19