這8份前沿Paper+Code ,你一定用得上!
[ 自然語言處理 ]
SLING: A framework for frame semantic parsing
一個非常快的 semantic parsing 工具,工作來自 Google。
論文鏈接:
https://www.paperweekly.site/papers/957
代碼鏈接:
https://github.com/google/sling
Sequence Labeling Tasks
通過超過 50000 次實驗,綜合評價序列標注任務(POS,Chunking,NER,Entities,Events)中的超參數作用。將比較有名的序列標注都實現了一遍,並大量實驗求證超參數的作用。
論文鏈接:
https://www.paperweekly.site/papers/962
代碼鏈接:
https://github.com/UKPLab/emnlp2017-bilstm-cnn-crf
Optimal Hyperparameters for Deep LSTM-Networks for
目前 coco leaderboard 第二名,來自微軟的論文。 提出了自下而上(bottom-up)和自上而下的 attention (top-down) 機製。其中 bottom-up 是利用 Faster R-CNN 提出圖像區域,每個區域都具有相關聯的特征向量,而 top-down 的機製確定特征的權重。
論文鏈接:
https://www.paperweekly.site/papers/754
代碼鏈接:
https://github.com/peteanderson80/bottom-up-attention
[ 計算機視覺 ]
Progressive Growing of GANs for Improved Quality, Stability, and Variation
NVIDIA 新作,更穩定的 GAN 訓練,以及更高分辨率的圖像生成,1024*1024 超高分辨率的 CelebA 圖像生成。
論文鏈接:
https://www.paperweekly.site/papers/1008
代碼鏈接:
https://github.com/tkarras/progressive_growing_of_gans
Learning to Compose Domain-Specific Transformations for Data Augmentation
提出了一種不需要特定領域知識的數據擴增的方法,能夠生成大量標記樣本,並且不損失類別信息。按文中所說,確實能夠提升一定的分類模型的精度。
論文鏈接:
https://www.paperweekly.site/papers/919
代碼鏈接:
https://github.com/HazyResearch/tanda
Class-specific Poisson denoising by patch-based importance sampling
將圖像降噪問題與高級視覺問題聯係在一起,有針對性的對不同圖像內容進行不同程度的降噪。解決了現有手法(BM3d)在 texture 圖像降噪上的過處理問題。
論文鏈接:
https://www.paperweekly.site/papers/999
代碼鏈接:
https://github.com/Ding-Liu/DeepDenoising
[ 機器學習 ]
Reinforcement Learning for Bandit Neural Machine Translation with Simulated Human Feedback
EMNLP 2017 論文,通過增強學習的方法來做 NMT,提出了一種 actor-critic 與 encoder-decoder 結合的框架。
論文鏈接:
https://www.paperweekly.site/papers/951
代碼鏈接:
https://github.com/khanhptnk/bandit-nmt
Gated Orthogonal Recurrent Units: On Learning to Forget
文章是在 GRU 的基礎上做了兩個修改,一是將參數矩陣 U 變為正交矩陣,而是將 tanh 改為論文提的 modelRELU,對於某些實驗有較明顯的提高。
論文鏈接:
https://www.paperweekly.site/papers/1002
代碼鏈接:
https://github.com/jingli9111/GORU-tensorflow
原文發布時間為:2017-11-5
本文來自雲棲社區合作夥伴“數據派THU”,了解相關信息可以關注“數據派THU”微信公眾號
最後更新:2017-11-06 12:04:03