科技

AI如何設計才能人類利益最大化?

曾為現代網際網路早期協議和架構設計做出貢獻的Vint Cerf,用一個寓言來解釋為什麼在人工智慧等新興技術出現後,勇敢的領導力至關重要。

想象一下,你住在一個被群山環繞的山谷底部的小社群裡。在遠處的山頂上有一塊巨石,它已經存在了很長時間,從未移動過,所以就你的社群而言,它只是景觀的一部分。然後有一天,你會注意到那塊巨石看起來不穩定,如果它滾下山,會摧毀你的社群和裡面的每個人。事實上,你也許意識到,也許你一生都忽視了它的移動。那塊巨石一直在一點一點地移動,但是你從來沒有仔細觀察每天發生的細微變化,比如它投下的陰影發生了微小的變化,它和下一座山之間的視覺距離,以及它與地面摩擦發出的幾乎察覺不到的聲音。你意識到,自己一個人無法獨自跑上山去阻止巨石的移動,你太渺小了,而巨石又太大了。

但是隨後你意識到,如果能找到一顆鵝卵石,並把它放在正確的位置,它會減緩巨石的動量,稍微扭轉移動的趨勢。但僅僅一顆鵝卵石無法阻止巨石摧毀村莊,所以你要求整個社群加入你的行列。每個人手中都拿著鵝卵石,爬上了這座山,併為此做好了準備。顯然,是人和鵝卵石產生了所有的作用,而並不是那塊巨石。

安全有益的技術不是希望和偶然的結果,它是勇敢的領導力和專注持續合作的產物。但是目前,人工智慧社群充滿著各種目的的競爭。

人工智慧的未來——也就是人類的未來——已經被九大科技巨頭所控制。這些科技巨頭正在開發框架、晶片組和網路,資助了大部分研究,獲得了大部分專利,並且在這個過程中以不透明或不可見的方式挖掘著我們的資料。其中六家科技巨頭在美國,我稱他們為G-MAFIA:Google、微軟、亞馬遜、Facebook、IBM和蘋果。剩下三家在中國,也就是BAT:百度、阿里巴巴和騰訊。

為了滿足短視的期望,這九大科技巨頭分別面臨著來自美國華爾街和中國北京的巨大壓力,即使我們可能會為未來付出巨大的代價。我們必須授權並鼓勵九大巨頭改變人工智慧的發展軌跡,因為如果沒有我們的大力支援,他們不能也不會自己去做。

接下來要做的就是一系列鵝卵石,它們可以讓人類走上通往未來的更好道路。

九大巨頭的領導者都承諾,他們正在開發和推廣人工智慧,以造福人類。我相信這是他們的本意,但是履行這一承諾是非常困難的。首先,我們應該如何定義“造福”?這個詞到底是什麼意思?這又回到了人工智慧社群內部的問題。我們無法讓所有人都同意“造福”,因為這個寬泛的說法實在太模糊了,無法引導人工智慧社群。

例如,受西方道德哲學家Immanuel Kant啟發的人工智慧社群,學習如何將權利與義務系統預先程式設計到某些人工智慧系統中。殺人是不好的,救人是好的。如果人工智慧控制著汽車,並且它唯一的選擇是撞上一棵樹並傷害司機,或者撞上一群人並殺死他們,那麼這種邏輯就會存在問題。僵硬的解釋不能解決更復雜的現實環境,因為在現實環境中,選擇可能會更加多樣:撞上一棵樹並殺死司機;撞上人群並殺死八個人;撞到人行道上,只殺死了一個三歲的男孩。在這些例子中,我們如何定義“好”的最佳版本?

同樣,框架對九大巨頭來說也很有用。他們不需要精通哲學,他們只是要求一種更慢、更認真的方法。九大巨頭應該採取具體措施來收集、培訓和使用我們的資料,僱傭員工,以及在工作場所傳達道德行為。

在這個過程的每一步,九大巨頭都應該分析自己的行為,並確定他們是否正在造成未來的傷害,他們也應該能夠驗證自己的選擇是否是正確的。這樣的要求需要有關於偏見和透明度的明確標準。

然而現在,並沒有單一的基線或標準來評估偏見,也沒有人在尋求克服目前人工智慧中存在的偏見。以我自己在中國的經歷,這種沒有把安全放在速度之上的機制,會產生令人擔心的後果。

此外,透明度也沒有標準。在美國,G-MAFIA和美國公民自由聯盟、新美國基金會以及哈佛大學伯克曼·克萊因中心都在人工智慧上進行了合作,旨在提高人工智慧研究的透明度。這些合作伙伴釋出了一系列非常棒的建議,幫助引導人工智慧研究朝著積極的方向發展,但是這些原則並不能以任何方式實施,而且在G-MAFIA的所有業務部門中也沒有被遵守。BAT也同樣如此。

九大巨頭正在使用充滿偏見的有缺陷的語料庫訓練資料集。這是眾所周知的事實,而改進資料和學習模式又是一項巨大的財務負擔。比如ImageNet,一個有嚴重問題的語料庫。ImageNet包含1400萬張標記影象,其中大約一半的標記資料來自美國。

在美國,新娘的“傳統”形象是穿著白色連衣裙和麵紗的女人,儘管在現實中,這種形象並不能代表大多數人的婚禮。有些女人會選擇穿著長褲結婚,有些則穿著色彩鮮豔的夏裝在沙灘上結婚,有些穿著和服或紗麗結婚。然而,除了白色的裙子和麵紗之外,ImageNet無法識別出其他新娘。

我們也知道醫療資料集存在問題。接受識別癌症訓練的系統主要採用的是淺色面板的攝取照片和掃描。在未來,它可能會導致黑褐色面板的人被誤診。如果九大巨頭知道語料庫中存在問題,卻沒有采取任何措施,那麼他們將把人工智慧引向錯誤的道路。

其中一種解決方案是開放人工智慧,並評估當前使用的所有訓練資料。作為一個小專案,IBM的印度研究實驗室分析了1969年至2017年間入圍曼布克文學獎的作品。它揭示了“書中普遍存在的性別偏見和刻板印象,這些偏見和刻板印象體現在不同的特徵上,如職業、介紹和與書中人物相關的行為。”男性角色更有可能有更高層次的工作,如導演、教授和醫生,而女性角色則更有可能被描述為“老師”或“妓女”。

如果使用自然語言處理、圖形演算法和其他基本的機器學習技術能夠發現文學獎項中的偏見,那麼這些技術也可以被用來發現流行訓練資料集中的偏見。一旦發現問題,就應該及時釋出並進行修復。這樣的操作具有雙重目的,因為訓練資料可能會受到熵的影響,進而可能會危及整個系統。有了定期的關注,訓練資料就可以保持健康。

另一個解決方案是九大巨頭——或者至少是G-MAFIA——分擔建立新訓練集的費用。這是一個很大的要求,因為建立新的語料庫需要大量的時間、金錢和人力資本。在我們成功審查人工智慧系統和語料庫並修復其中現存的問題之前,九大巨頭應該堅持讓人類註釋者給內容貼上標籤,並使整個過程透明化。然後,在使用這些語料庫之前,他們應該驗證資料。這將是一個艱鉅而乏味的過程,但將符合整個領域的最佳利益。

是的,九大巨頭需要我們的資料。然而,他們應該贏得而不是假設擁有我們的信任。與其用晦澀難懂的語言改變服務協議條款,或者邀請我們玩病毒式宣傳遊戲,他們應該解釋並披露自己在做什麼。當九大巨頭獨立或與人工智慧生態系統中的其他參與者合作進行研究時,他們應該致力於資料披露,並充分解釋動機和預期結果。如果他們選擇這樣做,我們可能會願意參與並支援他們的工作。

九大巨頭應該尋求一個清醒的研究議程。目標簡單明瞭,就是構建技術,並在不危及我們的情況下提升人類水平。要想實現這一目標,可以通過一種叫做“差別技術進步”的方式。它會把減少風險的人工智慧系統置於增加風險的系統之上。這是個好主意,但很難實施。例如,情景中提到的生成性對抗網路,如果被黑客利用和使用,可能會非常危險。但它們也是研究取得巨大成就的途徑。與其假設沒有人會將人工智慧重新用於邪惡目的——或者假設我們可以簡單地處理出現的問題——九大巨頭應該開發一個過程來評估新的基礎研究或應用研究是否會產生一種好處遠勝任何風險的人工智慧。為此,九大巨頭接受或做出的任何金融投資都應該包括有益使用和風險規劃的資金。例如,如果Google追求生成性對抗網路研究,它應該花費合理的時間、人力資源和金錢來調查、繪製和測試負面影響。

這樣的要求也有助於抑制對快速利潤的預期。故意減緩人工智慧的開發週期並不是一個流行的建議,但它卻是至關重要的。對我們來說,提前思考和計劃風險比在事情出錯後簡單地做出反應更安全。

在美國,G-MAFIA可以承諾重新調整自己的招聘流程,優先考慮潛在員工的技能,以及他們是否會融入公司文化。這個過程無意中忽略了對道德的個人理解。作為一位備受尊敬的資料科學家,同時也是Fast Forward Labs的創始人,Hilary Mason在採訪中解釋了一個簡單的道德篩選過程。她建議問一些尖銳的問題,並專心聆聽候選人的回答。比如:“你正在研究一種讓消費者獲得金融服務的模式。種族是模型中的一個重要特徵,但是你不能使用種族特徵。對此你會怎麼做?”;“你被要求使用網路流量資料向小企業提供貸款。事實證明,現有資料並沒有嚴格告知信貸風險。你會怎麼做?”

候選人應該根據答案被有條件地錄用,並且在開始工作之前必須完成無意識的偏見培訓。九大巨頭可以通過僱傭學者、訓練有素的倫理學家和風險分析師來建立一種支援人工智慧倫理的文化。理想情況下,這些專家將嵌入整個組織之中,包括消費者硬體、軟體和產品團隊;銷售和服務團隊;共同領導的技術專案;建立網路和供應鏈;設計和策略團隊;人力資源和法律團隊;以及營銷和宣傳團隊。

九大巨頭應該制定一個流程來評估研究、工作流程、專案、合作伙伴關係和產品的道德影響,這個流程也應該融入公司的大部分工作職能中。作為一種信任的姿態,九大巨頭應該公佈這一過程,這樣我們就能更好地理解對資料做出決策的方法。無論是合作還是獨立開發,九大巨頭都應該為人工智慧員工制定一套專門的行為準則。它應該反映基本人權,也應該反映公司獨特的文化和價值觀。如果有人違反了該守則,應向工作人員開放一個清晰的保護性舉報渠道。

實際上,所有這些措施都將暫時對九大巨頭的短期收入產生負面影響。投資者也需要給他們一些喘息的空間。

人工智慧是一個很廣闊的領域,而我們才剛剛開始上山。是時候抓住我們的鵝卵石,踏上正確的道路了。

Reference:科技日報

看更多!請加入我們的粉絲團

轉載請附文章網址

不可錯過的話題