科技

長文字表示學習概述

摘要: "如果你願意一層一層的剝開我的心·································那麼你會坐牢的我跟你說"。自然語言就是這麼神奇,句子中的長距離特徵對於理解語義也非常關鍵,本文基於Tranformer、RNN、CNN、TCN分別概述近期學界對長句表示學習的諸多方法。

1.長文字表示學習挑戰

NLP任務的特點和影象有極大的不同,上圖展示了一個例子,NLP的輸入往往是一句話或者一篇文章,所以它有幾個特點:首先,輸入是個一維線性序列,這個好理解;其次,輸入是不定長的,有的長有的短,而這點其實對於模型處理起來也會增加一些小麻煩;再者,單詞或者子句的相對位置關係很重要,兩個單詞位置互換可能導致完全不同的意思。如果你聽到我對你說:“你欠我那一千萬不用還了”和“我欠你那一千萬不用還了”,你聽到後分別是什麼心情?兩者區別瞭解一下。最後,句子中的長距離特徵對於理解語義也非常關鍵,徵抽取器能否具備長距離特徵捕獲能力這一點對於解決NLP任務來說也是很關鍵的。針對長文字表示學習,現階段主要有Transformer、RNN、CNN、TCN四種流派,下面分別概述。

2.學界研究

2.1Transformer 流派

近期基於Tranformer的模型在NLP諸多領域取得了不錯的效果,針對長句表示學習,Google和OpenAI分別提出了相應的改進方案。

2.1.1 Transformer-XL

以往的 Transformer 網路由於受到上下文長度固定的限制,學習長期以來關係的潛力有限。Google的Transformer-XL: Attentive Language Models Beyond a Fixed-Length Context提出的新神經架構 Transformer-XL 可以在不引起時間混亂的前提下,可以超越固定長度去學習依賴性,同時還能解決上下文碎片化問題。具體地說,此方法在 Transformer 架構中引入了迴圈機制。在訓練過程中,為之前的片段計算的隱藏狀態序列是固定的,將其快取起來,並在模型處理後面的新片段時作為擴充套件上下文重複使用,如下圖所示:

Transformer-XL 學習到的依賴性比 RNN 學習到的長 80%,比標準 Transformer 學到的長 450%,無論在長序列還是短序列中都得到了更好的結果,而且在評估時比標準 Transformer 快 1800+ 倍。

2.1.2 Sparse Transformer

OpenAl 的論文Generating Long Sequences with Sparse Transformers提出了一種適用於文字、影象和語音的稀疏Transformer,將先前基於注意力機制的演算法處理序列的長度提高了三十倍。OpenAI的研究人員在最新的論文中為注意力矩陣引入了多種稀疏的分解方式,通過將完全注意力計算分解為多個更快的注意力操作,通過稀疏組合來進行稠密注意力操作,在不犧牲效能的情況下大幅降低了對於記憶體和算力的需求。

稀疏Transformer將先前Transformer的平方複雜度O(N^2)降低為O(NN^1/2),通過一些額外的改進使得自注意力機制可以直接用於長程的語音、文字和影象資料。

上圖中間是第一種步進注意力的版本,可以粗略的理解為每一個位置需要注意它所在的行和列;另一種固定注意力的方式則嘗試著從固定的列和元素中進行處理,這種方式對於非二維結構的資料有著很好的效果。

2.1.3 小結

儘管新興的Tranformer在NLP各個領域都取得了不錯的效果,針對長文字表示學習也有諸多優化技術,然而Tranformer本質上無法編碼位置(只能基於位置編碼), Why Self-Attention? A Targeted Evaluation of Neural Machine Translation Architectures對Transformer進行了深入的實證分析,在建模長距離主謂一致任務上的實驗結果並沒有表明,Transformer 在這方面優於 RNN, Transformer 是強大的語義特徵提取器,但是在某些NLP任務上RNN仍然有一席空間。

2.2 RNN流派

因為RNN的結構天然適配解決NLP的問題,NLP的輸入往往是個不定長的線性序列句子,而RNN本身結構就是個可以接納不定長輸入的由前向後進行資訊線性傳導的網路結構,而在LSTM引入三個門後,對於捕獲長距離特徵也是非常有效的。然而對於長句表示學習,RNN的平行計算能力極差。因為T時刻的計算依賴T-1時刻的隱層計算結果,而T-1時刻的計算依賴T-2時刻的隱層計算結果……..這樣就形成了所謂的序列依賴關係。自從深度學習在NLP領域火爆以來,出現了很多針對RNN方法。

2.2.1 稀疏注意力回溯

本方法出自Bengio組的論文Sparse Attentive Backtracking (SAB): Temporal Credit Assignment Through Reminding。先舉個例子,當你在高速公路上開車時,你聽到了一種異常的爆炸聲。但是仍然不以為意,直到你停下來加油時發現輪胎癟了。然後你突然想起了在開車時聽到的爆炸聲。這樣的回想能夠幫助你確定爆胎的原因,並可能導致突觸變化。而由於這種變化,在以後開車時聽到這種爆炸聲,你的處理方式可能會不一樣。

​ 在稀疏性限制最大的條件下(不利用過去的經驗),SAB 將退化為使用常規的靜態神經網路。在稀疏性限制最小的條件下(利用過去所有的經驗),SAB 將退化為完全使用自注意力機制。為了達到目的,他們通過特定種類的增強 LSTM 模型探究前面二者之間的差距。

SAB分為兩個階段:

在前饋傳播過程中,管理一個記憶體單元,並在每個時間步中最多選擇過去記憶中的一個稀疏子集。這個過程稱之為稀疏檢索。在反向傳播過程中,將梯度僅僅傳播到記憶的稀疏子集及其區域性環境中。這個過程稱之為稀疏回放。2.2.2 QRNN

​論文Quasi-Recurrent Neural NetworksQuasi 提出QRNN,其結合了RNN和CNN的特性。在使用卷積結構替代迴圈結構上,QRNN 沒有純 CNN 模型(e.g. WaveNet)那麼激進,依然保留了一些迴圈結構。

2.2.3 IndRNN

論文Independently Recurrent Neural Network (IndRNN): Building A Longer and Deeper RNN, 提出了 IndRNN,亮點在於:1) 將 RNN 層內神經元解耦,使它們相互獨立,提高神經元的可解釋性。2) 有序列表能夠使用 Relu 等非飽和啟用函式,解決層內和層間梯度消失/爆炸問題,同時模型也具有魯棒性。3) 有序列表比 LSTM 能處理更長的序列資訊。

​對比原始的RNN隱層計算:

​IndRNN 引入了 Relu 作為啟用函式,並且將層內的神經元獨立開來。對 RNN 的式子稍加改進,就變成了 IndRNN:

2.2.4 SRU

​論文Simple Recurrent Units for Highly Parallelizable Recurrence中提出的SRU方法,它最本質的改進是把隱層之間的神經元依賴由全連線改成了哈達馬乘積,這樣T時刻隱層單元本來對T-1時刻所有隱層單元的依賴,改成了只是對T-1時刻對應單元的依賴,於是可以在隱層單元之間進行平行計算,但是收集資訊仍然是按照時間序列來進行的。所以其並行性是在隱層單元之間發生的,而不是在不同時間步之間發生的。SRU的測試速度為:在文字分類上和原始TextCNN的速度相當。

2.2.5 SRNN

​ 論文Sliced Recurrent Neural Networks提出打斷隱層之間的連線,比如每隔2個時間步打斷一次,並通過層深來建立遠距離特徵之間的聯絡。SRNN速度比GRU模型快5到15倍。

2.2.6小結

​ 對於原生的RNN,目前很多實驗已經證明效果比起Transformer有較大差距,只有少數NLP任務RNN仍佔有一席之地。然而RNN平行計算能力受限制太嚴重,RNN的發展目前處於進退維谷的階段,也許未來的發展方向是RNN和其他模組如Transformer相結合,提高並行性。

2.4 CNN流派

​最早將CNN引入NLP的是Kim在2014年做的工作。CNN捕獲到的特徵關鍵在於卷積核覆蓋的那個滑動視窗。大小為k的滑動視窗輕輕的穿過句子的一個個單詞,捕獲到的是單詞的k-gram片段資訊,這些k-gram片段就是CNN捕獲到的特徵,k的大小決定了能捕獲多遠距離的特徵,對於長句而言,暴力的取很大的k是無法解決長句依賴的特徵提取問題的,針對長句表示學習挑戰,針對CNN有以下兩個方向的改進。

2.4.1 Dilated CNN

​空洞卷積主要通過跳躍的方式實現擴大感受野,在論文An Empirical Evaluation of Generic Convolutional and Recurrent Networks for Sequence Modeling中,作者利用Dilated CNN拓展單層卷積層的輸入覆蓋長度,利用全卷積層堆疊層深,使用Skip Connection輔助優化,引入Casual CNN讓網路結構看不到T時間步後的資料。

不過TCN的論文有兩個明顯問題:一個問題是任務除了語言模型外都不是典型的NLP任務,而是合成數據任務,所以論文結論很難直接說就適合NLP領域;另外一點,它用來進行效果比較的對比方法,沒有用當時效果很好的模型來對比,比較基準低。所以TCN的模型效果說服力不太夠。不過本人認為精調過的TCN對長句表示學習還是會優於傳統的CNN。

2.4.2 Deep CNN

​針對CNN改進的第二個方向是加深層數。第一層卷積層,假設滑動視窗大小k是3,如果再往上疊一層卷積層,假設滑動視窗大小也是3,但是第二層視窗覆蓋的是第一層視窗的輸出特徵,所以它其實能覆蓋輸入的距離達到了5。如果繼續往上疊加捲積層,可以繼續增大卷積核覆蓋輸入的長度。

​在論文Do Convolutional Networks need to be Deep for Text Classification出現之前,卷積神經網路進行文字分類都是用的很淺層的CNN,基本是一個詞嵌入層、一個卷積一個池化然後兩個全連線層,文章利用了29個卷積層,提升文字分類的準去率。

2.4.2 小結

​以上是兩種典型的解決CNN遠距離特徵捕獲能力的方案,Dilated CNN偏技巧一些,而且疊加捲積層時超參如何設定有些學問,因為連續跳接可能會錯過一些特徵組合,所以需要精心調節引數搭配,保證所有可能組合都被覆蓋到。相對而言,把CNN作深是主流發展方向,似乎BERT中疊加了n層的Transformer也是做深的一個例子。總的來說,CNN本身具有並行優勢,在NLP也佔有一席之地,不過近期不斷被Transformer蠶食。

3 總結

1.不同的句子表徵方法都有不同的特色,在具體業務問題上需要根據具體問題選擇模型。

2.Tranformer和做深,高度並行是未來的一個趨勢。

3.集合各種模型的優勢如Transformer+CNN+RNN也是未來的一個趨勢。

4.模擬人思考的方式進行模型的改進也是一個趨勢,如Sparse Attentive Backtracking

5.RNN不管怎麼改進並行化還是很差,實際使用先用CNN或Transformer。

參考文獻:

1.Sparse Attentive Backtracking: Temporal Credit Assignment Through Reminding

2.Generating Long Sequences with Sparse Transformers

3.Transformer-XL: Attentive Language Models Beyond a Fixed-Length Context

4.Why Self-Attention? A Targeted Evaluation of Neural Machine Translation Architectures

5.Independently Recurrent Neural Network (IndRNN): Building A Longer and Deeper RNN

6.Simple Recurrent Units for Highly Parallelizable Recurrence

7.Sliced Recurrent Neural Networks

8.Quasi-Recurrent Neural Networks

9.An Empirical Evaluation of Generic Convolutional and Recurrent Networks for Sequence Modeling

10.Do Convolutional Networks need to be Deep for Text Classification ?

作者:zhangningyu1690

Reference:科技日報

看更多!請加入我們的粉絲團

轉載請附文章網址

不可錯過的話題