這到底是合理,還是荒唐?這名偷車賊被判8年牢的原因,竟然是因為AI?!不能理解!
現如今,AI(人工智能)已經成為了一個逃不掉的話題..
不管是橫掃圍棋界各大高手的阿爾法狗….
還是用不同化名在網上發表詩歌,都沒有被人察覺的微軟小冰…
最複雜的遊戲,最微妙的情感,
AI似乎夠能和人一樣做出來,甚至,比人做得更好…..
但它們不止於此,更是早已來到了司法界。
最近美國有一起充滿爭議的案子,
一個因為偷竊罪被判刑的男人把威斯康星法院告了,
因為…
他被判整整8年有期徒刑,不是因為他的罪行,也不是因為法官的判斷,
而是因為,一個AI認為,他對社會具有‘高危險性’!
事情要從2013年說起…
那年的2月11日,威斯康星州的拉克羅斯市出現了槍擊案。
有目擊者們看到一輛車行駛過Kane大街2200號房子的時候,車里的人突然掏出槍向屋子開了兩槍。
目擊者馬上報警,並且告訴警察關於車子的信息。
之後,警方在別的地方找到這輛車,馬上展開激烈追捕,最後好不容易把車子逼停了,看到了31歲的Eric Loomis和他的小夥伴….
警方在車子里發現一些槍支,
本以為是人贓俱獲,但仔細徹查後發現…..
這兩人,根本不是槍擊案的罪犯,而是在錯誤的時間錯誤的地點出現的竊車的小偷。
警方調查發現,槍擊案罪犯棄車逃跑後,這個小偷順手把這輛車給偷了…..
案情確鑿,於是法院判兩人有盜竊罪和拒捕罪。
原本,這案子並不算大,但是在Eric Loomis接受了一個叫做COMPAS的軟件系統的提問後,法官宣布,判處Eric Loomis長達8年6個月的有期徒刑。
這麼長的刑期,Eric Loomis簡直懵逼了…..
法官Scott Horene給出的理由是這樣的:
‘根據COMPAS的測試,被告被認定為對社會具有高危險性的人。’(“identified, through the COMPAS assessment, as an individual who is at high risk to the community.”)
COMPAS……
這到底是個啥??
COMPAS是一個由私營企業編寫出的、能夠幫助司法人員做出判斷的智能AI。
它通過向被告詢問137個問題(比如‘你在學校多久打一次架’;‘你有多少朋友非法使用藥物’;‘你受過的最高教育是什麼’),還有搜索他曾經的犯罪記錄,得到一堆數字,
然後經過公司設定的複雜算法,最終得出一長串數據。
里面包括他的孤僻程度、犯罪型人格的得分、性格穩定度….以及最重要的,他的‘危險指數’,也就是‘未來再次犯罪的可能性’。
COMPAS在美國很多個州中都被使用,其中使用最廣泛的是威斯康星州。
從2012年起,威斯康星州就鼓勵在全州所有法庭上都用COMPAS,在監獄系統中的每一部分也使用它,給犯人做出評估,協助司法人員進行判刑到假釋的判斷….
因為….COMPAS實在太好用了,
它告訴人們的答案太清晰了!
這個AI能清楚地說出每個被告的‘危險指數’是多少,從1到10,10為最危險,說明被告再次犯罪的可能性極高。
根據這個數據,能夠幫助法官判斷,
是判他早早出獄,還是在監獄里多待兩年,免得出去禍害社會…..
除此外,COMPAS還能告訴司法人員,
最適合被告的監禁類型是什麼,
被告什麼時候才能被假釋,
監獄里這麼多人,誰最適合提前釋放,
保釋金需要多少錢,
……
只要有人問,
COMPAS幾乎能回答關於罪犯和監禁的所有問題!
威斯康星州懲教部的部長Jared Hoy曾經說,這個AI簡直太好用。
它給人的驚喜不斷,建議每個工作人員做決定的時候都可以用一用。
對工作人員可能是好事….
但對被告來說,這簡直就是莫名其妙….
Eric Loomis聽到結果後,馬上表示不服,
‘為什麼我會被評為是對社會有高危險度?理由呢?
而且還是用一個軟件來評判我,這不合理!’
按照美國第六修正案,被告有權知道被控告的理由,
那麼他被控‘有高危險度’的理由是什麼呢?
COMPAS:抱歉,我不能說。
是的,因為COMPAS是一個商業產品,有知識產權,所有除了公司的核心成員,它的具體算法不能被外界知道,
就算是用它用了很多年的法院,他們也不知道算法長什麼樣,只能看到結果….
所以,COMPAS就像是一個黑匣子。
Eric Loomis被判為‘高危險’,也許是由於他在‘受教育程度’那里分數很低,也許是由於在‘是否住在危險街區’中回答了‘是’,也許是COMPAS認為他在回答中撒謊…..
總之,沒人知道。
於是,不滿的Eric Loomis決定上訴,一路鬧到威斯康星州最高法院,
但最終,法院仍然認為COMPAS的判斷沒有問題,它‘科學又有效’。
在扯了幾年的皮後,Eric Loomis的刑罰最後被降到6年,但他覺得還是很長…..
為什麼威斯康辛星就是對COMPAS如此癡迷呢?
法院方面表示,因為COMPAS的優點很大啊!
它就是一堆冷冰冰的算法,很客觀,完全不受個人情感因素的影響。
使用COMPAS,法官能夠更公正無私地看待案子,最大化地消除偏見。
這就是法院大力使用的原因…..
但根據非盈利新聞社ProPublica的研究,
COMPAS似乎並沒有那麼完美…..
在COMPAS的137個問題中,沒有詢問被告關於‘種族’的問題,這也是人們說它客觀的原因。
但在2016年,ProPublica卻發現了很多‘AI種族歧視’的情況。
比如,
黑人女孩Brisha Borden和白人大叔Vernon Parter因為盜竊罪被捕,兩人都被控竊取價值80美元的東西。
女孩之前有過4次行為不當,沒有入獄經曆;而大叔有過兩次持槍搶劫,還曾經坐過5年牢。
結果女孩被COMPAS判斷的危險指數是8,屬於‘高危’,而大叔的指數卻是3,屬於‘一般危險’…..
再比如,下面兩小哥都因為攜帶毒品被捕,
左邊的白人Fugett曾經因為持有可卡因和大麻,被警方抓捕過三次,還犯過一次搶劫案,COMPAS認為他的危險指數是3分;
而右邊的Parker,只有過一次拘捕,只是逃跑,沒有襲警,卻被COMPAS認為危險程度極高,有10分。
明明是個死物的COMPAS,
為什麼會像種族歧視者呢?
人們不知道,但考慮到COMPAS在問題中問的各種因素,
比如家庭、街區、是否有工作、最高學曆、父母是否吸毒等等,看上去和個人有關,但實際上是受社會大環境影響,黑人處於的弱勢環境,讓他們在AI的評測中更加吃虧….
因為算法本身不客觀,
那麼COMPAS的正確率也不會有多高….
在2016年,ProPublica通過COMPAS計算了7000多名罪犯在刑滿後再次犯罪的可能性。
這些罪犯來自加利福尼亞州的Broward市,被COMPAS測評‘危險指數’的時間是2013年到2014年。
結果…只有20%的人會按照COMPAS預測的那樣再次犯罪,
如果把所有的犯罪類型都算上,比如用一個過期的駕照開車這種小罪,那麼COMPAS的正確率為61%。
而Eric Loomis的這個案例….
因為所謂的‘危險指數’偏高,而不得不被聽信AI的法官判更長時間的牢。 他自己覺得,確實感覺挺冤…
現在,猶他州、弗吉尼亞州,很多地方都在使用類似的AI來幫助審判,預測犯罪,
這是美國司法界的趨勢,
也許,這也將是是全球的趨勢….
但犯罪是一個極其複雜的社會問題,
AI能干得好嗎,它真的能像公正無私的審判者一樣,做出完美的判決嗎?
法官判案,有人說法官受人性影響,會有偏差…
讓AI來評估,實際證明也不完美….
那,什麼又才是正確的路呢?