文章來(lái)源:觀察者網(wǎng) 作者: 雁默 上一篇談AI與中國(guó)倫理,就AI發(fā)展現(xiàn)況看來(lái),似乎是有點(diǎn)遙遠(yuǎn)的事,畢竟目前仍無(wú)法確定通用型AI何時(shí)能實(shí)現(xiàn),然而,最近有幾則新聞令人警覺(jué),倫理在AI里的應(yīng)用,可能比我們想像得更急迫。例如英國(guó)《金融時(shí)報(bào)》中文網(wǎng)3月7日的一篇文章“人工智能的算法黑箱與數(shù)據(jù)正義”。 該文頗長(zhǎng),且充滿(mǎn)許多AI專(zhuān)業(yè)用語(yǔ)與法律用語(yǔ),所以對(duì)一般讀者而言不太容易咀嚼,用最簡(jiǎn)單的話(huà)來(lái)描述該文的主旨,就是“AI的判斷造成了歧視與不正義,所以其算法需要透明,以確保人權(quán)”。論述的出發(fā)點(diǎn),則是針對(duì)歐盟可能于5月出臺(tái)的法案《一般數(shù)據(jù)保護(hù)條例》(GDPR),以及其對(duì)AI深層學(xué)習(xí)所可能造成的負(fù)面影響。 以下,我試著將重點(diǎn)做些比較清晰易懂的說(shuō)明,闡述“為何倫理知識(shí)可能要在通用型AI階段以前就需要用上”,且不是明天,就是現(xiàn)在。 該文作者將具備知覺(jué)與自我意識(shí)的通用型AI稱(chēng)為“強(qiáng)人工智能”,有限功能的AI則為“弱人工智能”。由于強(qiáng)人工智能尚未出現(xiàn),所以該文所闡述的“AI之亂”,是針對(duì)目前許多已在社會(huì)各角落被使用的弱人工智能。 什么是“算法黑箱”? 用一個(gè)簡(jiǎn)單的例子來(lái)說(shuō)明。買(mǎi)新車(chē),許多人會(huì)?!败?chē)體險(xiǎn)”,以期在愛(ài)車(chē)遭受碰撞時(shí),能取得保險(xiǎn)理賠。在臺(tái)灣,相較于竊盜險(xiǎn)或其他,車(chē)體險(xiǎn)最為昂貴,因?yàn)檐?chē)輛遭受或小或大的碰撞機(jī)率,遠(yuǎn)高于遭竊。車(chē)體險(xiǎn)的保費(fèi)并非固定金額,而是隨著一些條件的差異而有不同。決定保費(fèi)的要件如車(chē)輛的售價(jià),車(chē)輛品牌的理賠率,車(chē)主的年齡,性別,肇事紀(jì)錄等等,甚至車(chē)輛的顏色都屬于評(píng)估范圍,因?yàn)殚_(kāi)紅色汽車(chē)的年輕男性,發(fā)生碰撞的幾率較高。 保險(xiǎn)金融業(yè),是以精算來(lái)生存的,所以引入能精細(xì)評(píng)估投保者的AI,理所當(dāng)然。而若使用AI來(lái)評(píng)估,決定保費(fèi)的要件,當(dāng)然會(huì)比上述更為細(xì)膩。AI會(huì)廣泛地搜羅保險(xiǎn)公司的理賠歷史數(shù)據(jù),來(lái)分析哪一種人或哪一種車(chē)的理賠率較高,以作為保費(fèi)金額的參考。 如果開(kāi)紅車(chē)的年輕男性要交比較高額的保費(fèi)讓你覺(jué)得有點(diǎn)歧視,試想,如果AI分析得出單親家庭的成員肇事率較高,所以應(yīng)該繳交更高的保費(fèi)時(shí),你服氣嗎? 問(wèn)題是,AI如何得知你出身于單親家庭呢?這么說(shuō)吧,如果民間征信社可以查出你是否出身單親家庭,AI當(dāng)然也查到。我們的個(gè)人數(shù)據(jù)資料,如果沒(méi)有受到嚴(yán)密的保護(hù),根本無(wú)法逃遁于AI的搜查羅網(wǎng)。 這時(shí)你會(huì)問(wèn),誰(shuí)能決定要將單親家庭這項(xiàng)條件納入保費(fèi)評(píng)估的?當(dāng)然是透過(guò)保險(xiǎn)公司與AI科技公司的合作,而且保險(xiǎn)人恐怕根本不會(huì)知道這項(xiàng)條件其實(shí)被納入了考慮。 “單親家庭”納入評(píng)估,就是一種AI算法,而若只有保險(xiǎn)評(píng)估單位與AI科技公司知道這種算法,被“算計(jì)”的人不知道,就是所謂“算法黑箱”。 如果以傳統(tǒng)人工來(lái)評(píng)估保費(fèi),某些算法很可能會(huì)受到起碼的道德制約,避免這種歧視性的評(píng)估。當(dāng)然,我們也不能對(duì)“人性”打包票,即使完全人工設(shè)定評(píng)估項(xiàng),這類(lèi)問(wèn)題也未必能完全避免,但沒(méi)有“人性”的AI,很可能會(huì)肆意地選擇,畢竟它只知如實(shí)呈現(xiàn)“客觀”的數(shù)據(jù)分析結(jié)果。 與全人工設(shè)定相比,了解并參與AI整個(gè)分析過(guò)程的人更少,這些人完全可能也有更多的機(jī)會(huì)“放縱”AI。如果需要他們“監(jiān)管”AI的工作,對(duì)其“人性”的要求更高。甚至當(dāng)AI的“自動(dòng)化”發(fā)展到一定程度,幾乎無(wú)人能知道“黑箱”內(nèi)部的情況。所以,保險(xiǎn)公司若不將AI算法透明化讓大眾知曉,就會(huì)發(fā)生數(shù)據(jù)不正義的現(xiàn)象。 歐盟的《一般數(shù)據(jù)保護(hù)條例》,就是在限制AI可能造成的人權(quán)侵害,它要求所有科技公司對(duì)其AI算法的自動(dòng)決策機(jī)制提出解釋。而這種法令出臺(tái),也等于直接限制了AI的深度學(xué)習(xí)技術(shù)。 說(shuō)白了,就是重新以“人性”去審視,限制“非人性”的決策模式。而這將使大量依賴(lài)深度學(xué)習(xí)的AI應(yīng)用不合法。 大數(shù)據(jù)的陰暗面 《人工智能的算法黑箱與數(shù)據(jù)正義》一文,也指出了若干已經(jīng)發(fā)生的數(shù)據(jù)不正義案件,例如美國(guó)每周超過(guò)1000人被機(jī)場(chǎng)AI使用的算法錯(cuò)誤辨識(shí)為恐怖分子。美國(guó)法院用以評(píng)估犯罪風(fēng)險(xiǎn)的算法COMPAS,對(duì)黑人族群造成系統(tǒng)性歧視。華盛頓特區(qū)某個(gè)受到普遍認(rèn)可的教師,被政府的自動(dòng)化決定程序篩選為表現(xiàn)不佳,而與其他205人一起被解雇。 數(shù)據(jù)不正義的例子又如:當(dāng)你向銀行貸款,不會(huì)希望自己所屬的種族,在銀行的放貸評(píng)估范圍內(nèi)。你也不會(huì)希望自己在社群網(wǎng)站上的私密發(fā)言,在求職或面臨遣散的時(shí)候被納入考慮事項(xiàng)。你更不會(huì)希望因?yàn)樽约贺S富的性生活經(jīng)驗(yàn),而被性保守的國(guó)度拒絕入境。 目前,大數(shù)據(jù)是沒(méi)有人性可言的,它不會(huì)按照道德標(biāo)準(zhǔn)去彈性處理分析結(jié)果,對(duì)于依賴(lài)大數(shù)據(jù)作為決策基礎(chǔ)的AI而言,你我都只是數(shù)據(jù)碎片,至于要如何組織紛雜零散的數(shù)據(jù)碎片形塑一個(gè)“你”,不在你的控制范圍內(nèi),算法黑箱就是這個(gè)意思。在這種狀況下,你很有可能覺(jué)得AI曲解了你的人格,經(jīng)歷,性向,并錯(cuò)誤預(yù)測(cè)你可能產(chǎn)生的行為,進(jìn)而使你的人權(quán)遭受不人道的剝奪。 去年,臉書(shū)運(yùn)用AI根據(jù)大數(shù)據(jù)辨識(shí)用戶(hù)偏離正常貼文的行為模式,并對(duì)于可能出現(xiàn)的輕生念頭發(fā)出警訊,此舉引起了廣泛的倫理討論:我們?nèi)粼谀槙?shū)表達(dá)輕生念頭,會(huì)引來(lái)警察上門(mén)盤(pán)查,這是否侵犯了個(gè)人隱私?這么做合乎道德嗎?類(lèi)似的例子不勝枚舉,大數(shù)據(jù)侵害人權(quán)的質(zhì)疑已廣泛地出現(xiàn)在各個(gè)精準(zhǔn)營(yíng)銷(xiāo)的手段上。 大數(shù)據(jù)的陰暗面在于,每一個(gè)被分析的對(duì)象,都被細(xì)鎖地分割成許多的數(shù)據(jù)切片,而我們不會(huì)知道哪一分切片會(huì)被不當(dāng)使用。房地產(chǎn)業(yè)者會(huì)不會(huì)根據(jù)大數(shù)據(jù)剔除自殺傾向較高的租房者?企業(yè)主會(huì)不會(huì)根據(jù)求職者在網(wǎng)路上貼文的大數(shù)據(jù)分析,將反社會(huì)傾向較高的人剔除?婚姻仲介公司會(huì)不會(huì)根據(jù)你偏好的AV題材大數(shù)據(jù),而拒絕為你媒合對(duì)象? 歐盟可能即將生效的《一般數(shù)據(jù)保護(hù)條例》設(shè)下了兩種規(guī)范,其一:AI的自動(dòng)化決定,除非你同意,或在合約條件上不可少,否則你有權(quán)不受該決定的限制。其二:將個(gè)人敏感數(shù)據(jù)排除在自動(dòng)化決定,也就是AI算法之外。所謂敏感數(shù)據(jù)是指種族、政治傾向、宗教信仰、健康、性生活、性取向的數(shù)據(jù),或者可唯一性識(shí)別自然人的基因數(shù)據(jù)、生物數(shù)據(jù)。 法律只是道德的底線,有許多大數(shù)據(jù)曲解,可能是合法卻不符合人情道德的,故而對(duì)AI與大數(shù)據(jù)的法令限制,也不可能消除所有“科技的不義”,并有法律自身的限制與可鉆的漏洞。 如規(guī)范一,當(dāng)你已被AI貼上了標(biāo)簽,即便你有權(quán)否決AI判斷,但標(biāo)簽貼上了就是貼上了,他人也可以自由心證地決定是否采納這個(gè)標(biāo)簽,讓你受到隱性的不公平待遇。 再如標(biāo)簽二,即便種族不在AI的數(shù)據(jù)分析之內(nèi),但它仍可透過(guò)你的居住地,收入或前科紀(jì)錄推論出你所屬的種族。尤其重要的是,即便法律規(guī)定的算法透明化了,一般人恐怕也難以讀懂復(fù)雜的運(yùn)算法。 亦即,外在的法律規(guī)范是不足的,要更徹底地解決問(wèn)題,必然要在AI科技的內(nèi)部,做算法的自我規(guī)范。換言之,即是建立AI決策技術(shù)上的倫理規(guī)范,用道德、風(fēng)俗、人情以規(guī)范AI的分析路徑。 讓AI主動(dòng)避免逾越法律界線 就像克隆人科技的發(fā)展命運(yùn),AI這種同樣牽涉到人類(lèi)道德的科技,最大的瓶頸不是來(lái)自于技術(shù),而是來(lái)自于道德束縛。事實(shí)上,克隆人,基因治療,太空生活等領(lǐng)域,早已進(jìn)入了倫理學(xué)的范疇。這些與人類(lèi)生命有關(guān)的新興科技,被納入應(yīng)用倫理學(xué)的生命倫理學(xué)范圍,并在這些科技領(lǐng)域里發(fā)揮限制或引導(dǎo)的作用。所以AI倫理學(xué)遲早也會(huì)成為一門(mén)嚴(yán)肅而專(zhuān)精的學(xué)術(shù),而從已然發(fā)生的AI誤判或大數(shù)據(jù)歧視案件來(lái)看,這門(mén)學(xué)問(wèn)將成為左右人類(lèi)社會(huì)發(fā)展的重要知識(shí)系統(tǒng)之一。 《一般數(shù)據(jù)保護(hù)條例》對(duì)AI產(chǎn)業(yè)的發(fā)展,無(wú)疑是一項(xiàng)重?fù)?,因?yàn)樗鼘?duì)AI的核心技術(shù)產(chǎn)生了人道上的質(zhì)疑。法律的限制將使得現(xiàn)有技術(shù)綁手綁腳,迫使某些重要計(jì)劃產(chǎn)生停頓也是有可能的。但從產(chǎn)業(yè)面的角度來(lái)看,限制技術(shù)的法律也應(yīng)該正面看待,因?yàn)楫a(chǎn)品終究得獲得人們的信任,才得以繼續(xù)發(fā)展,而法令限制也會(huì)迫使產(chǎn)業(yè)將技術(shù)加速導(dǎo)向人性化。 發(fā)展AI的道德自主判斷技術(shù),則是最能確保此項(xiàng)科技逾越法律界線的方式。用最簡(jiǎn)單的方式來(lái)說(shuō),就是讓AI比人還道德。這里的道德包含對(duì)人全面性的綜合評(píng)估,寬容、平等,與客觀無(wú)私。 上一篇我談到AI的核心是“人的思考模式”。我們的思考運(yùn)作特征,是跳躍性思考與綜合式判斷,這也正是AI最難處理的技術(shù)問(wèn)題。 你希望心儀的對(duì)象如何看待你?難道樂(lè)見(jiàn)她對(duì)你的了解僅止于網(wǎng)路上的情緒發(fā)言,斷章取義,憤世忌俗,或偏激思想?不會(huì),你希望對(duì)方也能綜合性地考慮你良善的一面。對(duì)AI而言,綜合式地算出你的各個(gè)大數(shù)據(jù)切片,才是符合人情道德的運(yùn)算法。 你希望你任職的公司如何預(yù)測(cè)你的潛力?難道你樂(lè)見(jiàn)只因要求加薪,公司就認(rèn)為你難以管理,利己主義,或缺乏團(tuán)隊(duì)合作的特質(zhì)?不會(huì),你會(huì)希望公司也能跳躍性思考,考慮“要求加薪”這項(xiàng)行為所需的膽識(shí),積極,謀略等正面特質(zhì)。 總而言之,AI必須能從人性的角度來(lái)判斷一個(gè)人,并在各種決策要求上,能適切地篩除不符合人情義理的大數(shù)據(jù)切片。這就是倫理學(xué)等文科知識(shí),在未來(lái)科技上所能扮演的關(guān)鍵角色。 其實(shí),大數(shù)據(jù)的倫理問(wèn)題在2015年時(shí)就已受到大陸學(xué)術(shù)單位的正視,如國(guó)家社會(huì)科學(xué)基金中大項(xiàng)目“高科技倫理問(wèn)題研究”項(xiàng)目組與湖南省倫理學(xué)學(xué)會(huì)聯(lián)合主辦的“第一屆賽博倫理學(xué)研討會(huì)”。顯示大數(shù)據(jù),AI發(fā)展的同時(shí),急迫需要倫理規(guī)范的知識(shí)系統(tǒng)對(duì)科技予以引導(dǎo),以免因弱人工智能所引發(fā)的道德疑慮,一方面使社會(huì)進(jìn)入失序的數(shù)據(jù)曲解,另一方面阻礙了強(qiáng)人工智能的發(fā)展。 兩岸都有類(lèi)似的問(wèn)題,即文科知識(shí)正面臨學(xué)生、家長(zhǎng)與社會(huì)的普遍輕視,這是由于工業(yè)化與后工業(yè)化環(huán)境的人才需求,傾向于培養(yǎng)理工科的人力資源。然而,當(dāng)科技繞了一圈,由數(shù)理邏輯發(fā)展到非線性思維的應(yīng)用時(shí),文科終于在適應(yīng)與啟發(fā)現(xiàn)代社會(huì)的層次上,派上了用場(chǎng)。 所以,我們都得與時(shí)俱進(jìn),重新正視文科知識(shí)在人類(lèi)文明發(fā)展里應(yīng)有的高度,也讓學(xué)文的人才,能在未來(lái)的勞動(dòng)市場(chǎng)里有更多樣性的選擇,與學(xué)理工的人才一起推動(dòng)社會(huì)進(jìn)步。 |
|
來(lái)自: 聯(lián)合參謀學(xué)院 > 《我的圖書(shū)館》