健康

李飛飛團隊:“AI醫生”診斷抑鬱症,準確率超過80%,手機上就能用!

本文經AI新媒體量子位(公眾號ID:qbitai)授權轉載,轉載請聯絡出處

在全世界範圍內,有超過3億人患有抑鬱症。其中的60%的人都沒有接受任何治療。

我們時有聽到名人患抑鬱症甚至嚴重到自殺的訊息,卻不知周圍一些普通人身在病中不知病。

面對這一病症,AI能做些什麼?

圖片來源:TED.com

曾經說過“AI沒有國界,AI的福祉亦無邊界”的李飛飛老師這次要為那些懷疑自己患抑鬱症的人創造福祉了,這次她和團隊瞄準了AI診斷抑鬱症這個方向:

結合語音識別、計算機視覺和自然語言處理技術,通過表情和語言診斷一個人是否患了抑鬱症。

目前,這項研究初見成效,診斷抑鬱症的機器學習模型目前precision達到83.3%,recall達到82.6%。

並且,這個模型可以部署到手機上,讓更多人能方便的診斷抑鬱症,不再受困於“沒錢”、“沒時間”、“別人知道我去查抑鬱症會怎麼議論我”的阻撓之中。

另外,這項研究成果還入選了NeurIPS 2018醫療健康機器學習(ML4H)Workshop。

下面,我們就來為大家詳細介紹李飛飛這篇新論文的具體內容。

為什麼用表情和語言能診斷抑鬱症?

因為醫生就是這麼幹的。

圖片來源:123RF

在目前的抑鬱症診斷過程中,醫生需要和患者面對面聊天,來判斷對方是否患病。

需要醫生來觀察的要素包括:

對方是否語調單一,完全不抑揚頓挫;

說話音量是否比較低;

講話時手勢是不是比正常人少;

是不是總愛低頭向下看;

……

另外,還需要通過患者健康問卷(PHQ, Patient Health Questionnaire)來調查來了解更詳細的資訊。

用AI來診斷抑鬱症,就相當於用機器學習模型來代替那個和患者對話的醫生,把患者在醫生面前的表現變成資料,輸入機器學習模型中。

因此,李飛飛團隊採用的方案是向模型中輸入3D面部關鍵點視訊、患者說話的音訊和轉成文字的訪談錄音三種資料,分別對應下圖中的abc三行。

圖片來源:arXiv.org

之後,輸出PHQ評分或抑鬱症分類標籤,就能得出此人是否患了抑鬱症。

訓練模型全過程

訓練這個模型用到的是DAIC-WOZ資料集,包括142名患者的PHQ評分和189次臨床訪談、總共50小時的資料。

整個模型由兩個部分組成。

第一個部分叫句子級嵌入(Sentence-Level Embeddings)

以往的嵌入方式都是嵌入一個音節或單詞,只能捕捉幾百毫秒的時間。李飛飛團隊用的是整個句子多模態嵌入,可以實現捕捉更長時間的聲音、視覺和語言元素。

下圖就是多模態句子級嵌入的示例:

圖片來源:arXiv.org

第二個部分叫因果卷積網路(C-CNN, Causal Convolutional Networks)

之所以用因果卷積網路,是因為抑鬱症患者說話慢。

相比普通人,抑鬱症患者說話的時候會在不同的字詞之間停頓更長時間,因此整個句子的音視訊也就比較長。處理這種長句子的時候,因果卷積網路要比RNN強。

效果如何

我們來看一下實驗結果。

圖片來源:arXiv.org

其中,A是指輸入資料為音訊,V是指輸入資料為視訊,L是指輸入資料為文字。

對比前人的實驗結果,李飛飛的這項新研究資料上相對較高。不過,與前人不同的是,這項新研究並不依賴一些預先做好的訪談記錄,所以來的背景資料更少。並且,這項新研究無需特徵工程,可以直接用輸入原始資料。

圖片來源:arXiv.org

這張實驗結果表格對比了使用不同嵌入方式的結果。其中,前兩行是手工嵌入,第3~6行是預訓練嵌入,最後兩行是我們用到的句子級嵌入,輸入的是log-mel光譜圖、3D面部關鍵點視訊和Word2Vecs的序列。

參考資料:

[1] Haque, et al., (2018). Measuring Depression Symptom Severity from Spoken Language and 3D Facial Expressions. arXiv.org, arXiv:1811.08592

大家關注的公眾號越來越多,找不到“藥明康德AI”怎麼辦?簡單四步,將“藥明康德AI”設定為星標公眾號,問題即可解決。

Reference:健康生活

看更多!請加入我們的粉絲團

轉載請附文章網址

不可錯過的話題