2020国产成人精品视频,性做久久久久久久久,亚洲国产成人久久综合一区,亚洲影院天堂中文av色

分享

人工智能對道德倫理問題提出重大挑戰(zhàn)

 育則維善余言 2019-06-25

來源:36kr

概要:人工智能如今無處不在,我們生活的各個方面都與人工智能有著或多或少的聯系。

人工智能可高效開展實際任務,如給照片貼標簽、理解口頭和書面自然語言、甚至幫助確診等。

據國外媒體報道,人工智能如今無處不在。從決定購買哪本書、訂哪一班航班,到申請工作、獲取銀行貸款,我們生活的各個方面都與人工智能有著或多或少的聯系。

  如今,這類事情主要由復雜的軟件系統(tǒng)做決定。人工智能在過去幾年中取得了巨大進展,有望從許多方面改善我們的生活。

  幾年來,人工智能的崛起已成了必然趨勢。人工智能初創(chuàng)公司收到了大筆投資。許多現有的科技公司,如亞馬遜、Facebook和微軟等巨頭,都已創(chuàng)建了研究實驗室。可以毫不夸張地說,軟件如今就代表著“人工智能”。

  有些人預言,人工智能將掀起一場比因特網更加猛烈的變革。而至于機器帶來的迅速變化將對人類產生怎樣的影響,幾乎所有科技人員都將道德倫理視為關注重點。

  對于谷歌研究帶頭人和機器學習的領軍人物皮特·諾維格(Peter Norvig)而言,雖然由數據驅動的人工智能技術近期取得了一系列成功,但關鍵問題在于,我們必須弄清如何使這些新系統(tǒng)造福整個社會,而不僅是該系統(tǒng)的控制者?!叭斯ぶ悄芸筛咝ч_展實際任務,如給照片貼標簽、理解口頭和書面自然語言、甚至幫助確診等。”他指出,“而我們必須確保所有人都能從中受益。”

  最大的問題在于,這些軟件往往極為復雜,無法參透人工智能系統(tǒng)采取某一行動的原因。如今的人工智能以機器學習技術為基礎,導致我們無法透過表面、看個究竟。因此我們只能姑且信任它們。但我們必須找出新方法,有效監(jiān)控和審查人工智能參與的系統(tǒng)。

  哈佛法學院網絡法教授喬納森·齊特林(Jonathan Zittrain)認為,隨著計算機系統(tǒng)日趨復雜,人們或許將難以對人工智能系統(tǒng)進行密切監(jiān)視?!半S著我們的計算機系統(tǒng)越來越復雜、聯系越來越緊密,人類的自主控制權也不斷減少,這使我很擔心。”他表示,“如果我們‘放手不管,忘到腦后”,不考慮道德倫理問題,計算機系統(tǒng)的演化或許會令我們懊悔不已?!?/p>

  其他人也表達了同樣的憂慮。“我們如何判斷這些系統(tǒng)是否安全呢?”美國杜克大學人類與自主實驗室主管米西·康明斯(Missy Cummings)指出。她曾是美國海軍首批戰(zhàn)斗機飛行員之一,如今是一名無人機專家。

  人工智能需要受到監(jiān)視,但具體做法尚不清楚。“目前我們還未就監(jiān)視方法達成統(tǒng)一意見,”康明斯表示,“在缺乏系統(tǒng)測試的行業(yè)標準的情況下,這些技術很難得到大規(guī)模應用?!?/p>

隨著人工智能的發(fā)展,機器人可以勝任更加復雜的工作。例如,日本的一家商店采用了機器人“導購”。

  但當今世界日新月異,監(jiān)管機構往往落后一步。在刑事司法系統(tǒng)和醫(yī)療保健等重要領域,許多公司已經開始探索人工智能在假釋和診斷等問題上的決策能力。但如果將決策權交予機器,我們就面臨著失控的風險——這些系統(tǒng)真能在每起案例中做出正確的判斷嗎?

  微軟研發(fā)部門的主要研究員丹娜·博伊德(Danah Boyd)稱,我們必須嚴肅考慮此類系統(tǒng)附含的價值,還要確定最終擔責方?!氨O(jiān)管機構、公民社會和社會理論學家都強力要求這些技術公平公正、符合道義,但這些理念仍然含糊不清?!?/p>

  道德問題對就業(yè)影響頗深。隨著人工智能的發(fā)展,機器人可以勝任更加復雜的工作,能夠取代越來越多的人類工人。例如,中國富士康集團已經宣布將用機器人取代六萬名工廠工人。福特汽車在德國科隆的工廠也啟用了機器人,與人類工人并肩工作。

  此外,如果不斷提升的自動化水平對就業(yè)產生了重大沖擊,便會影響人類心理健康?!叭松囊饬x來自三個方面:有意義的人際關系,充滿激情的興趣愛好、以及有意義的工作?!泵绹翱偨y(tǒng)奧巴馬醫(yī)療顧問、生物倫理學家伊齊基爾·伊曼努爾(Ezekiel Emanuel)指出,“有意義的工作是自我認同感的重要組成部分?!彼€表示,在工廠倒閉率和員工失業(yè)率較高的地區(qū),居民自殺、濫用藥物和患抑郁癥的概率也較高。

  因此,社會需要更多的倫理學家?!肮井斎粫S市場潮流行事,這不是壞事,但我們不能指望他們負倫理責任?!甭槭±砉W院法律與倫理專家凱特·達爾林(Kate Darling)指出,“我們應當將監(jiān)管措施落實到位。每當有新技術出現,我們都會開展這一討論,研究應對策略?!?/p>

許多工廠中,機器人已經開始與人類并肩工作。有些人認為這會使工人的心理健康受到影響。

達爾林指出,谷歌等許多知名公司已經成立了倫理委員會,監(jiān)控人工智能技術的研發(fā)和部署。但這一做法還應進一步普及?!拔覀儫o意阻止創(chuàng)新,但眼下也許我們就該成立這樣的機構?!?/p>

  有關谷歌倫理委員會的成員和工作細節(jié),我們還知之甚少。但去年九月,Facebook、谷歌和亞馬遜達成合作,旨在為人工智能為安全和隱私造成的挑戰(zhàn)提出解決方案。一家名為OpenAI的組織致力于研發(fā)和推廣造福全民的開源人工智能系統(tǒng)。“機器學習必須得到廣泛研究,并通過公開出版物和開源代碼傳播,這樣我們才能實現福利共享?!惫雀柩芯繂T諾維格指出。

  為制定行業(yè)與倫理標準、充分了解當前面臨的風險,需要倫理學家、科技人員和企業(yè)領導人共同參與。這一問題涉及如何駕馭人工智能、使人類更加擅長自己最拿手的領域。“我們更應關注如何利用相應技術幫助人類思考和決策、而非將人類取而代之。”齊特林指出。

人工智能的道德代碼應該如何編寫?

如果預設代碼對AI所有者不利會怎樣呢?

人工智能正在以幾何級數的速度在發(fā)展,雖然對我們生活產生大規(guī)模深遠影響的AI技術尚未正式部署,但是提前對AI引發(fā)的社會與倫理問題進行探討是必要的。不幸的是,此前公眾對人工智能產生的道德倫理問題并沒有太多太廣泛的討論。David Newhoff總結了最近以電車難題為標志的AI倫理問題的相關事件,并分析了不同思路的問題。從目前來看,無論是功利主義還是道德決定論,似乎都解決不了AI的道德代碼問題,也許我們需要道德虛無主義?讓機器像人一樣在千鈞一發(fā)的情況下做出基于直覺的決定?

隨著人工智能從科幻小說變成大眾科學,領先的技術學家與科學家正在向自己提出如何編寫道德代碼的問題。報道最廣泛的道德困境是無人車與所謂的電車難題。這個假想挑戰(zhàn)的內容大致是:一個瘋子把五個無辜的人綁在電車軌道上。一輛失控的電車朝他們駛來,并且片刻后就要碾壓到他們。幸運的是,你可以拉一個拉桿,讓電車開到另一條軌道上。然而問題在于,那個瘋子在另一個電車軌道上也綁了一個人??紤]以上狀況,你是否應拉桿?

這個問題后來被轉移到了無人車領域,問的是一輛車的AI如何做出千鈞一發(fā)、生死攸關的決定。這個問題不僅是技術或者道德問題,同樣也很富有哲理性。因為我們在現代發(fā)達社會應對悲劇的方式,或者對潛在悲劇的預期,通常并沒有包含該AI挑戰(zhàn)所蘊含的這類道德決定論。

許多人是靠信仰來應對悲劇事故。這種信念認為,凡是計劃必有神性,即便這個計劃無法知曉。那些沒有宗教信仰的人對計劃則不抱信念,而是與這個事實和解:即混亂和人的不可靠是會制造出可怕后果的。無論是哪種情況,大家對不確定性都有一定程度的安慰感——不是對減少損失痛苦本身感到安慰,而是因為這讓我們能夠對可怕事件合理化,或者為出門不會活在恐懼之中感到安慰。這種不確定性加上可能性,以及保持著控制手段,讓我們可以自信地步入自己的車子開車到處轉而不怕被干掉。去掉一個因素,比方說控制手段,可能就可以解釋為什么更多人坐飛機要比坐車更焦慮,盡管統(tǒng)計數據表明其實他們應該反過來(汽車事故率比飛機高)。

就這一點而言,當預見不到的事情比如剎車失靈、路面突遇障礙物等發(fā)生時——人類司機的瞬時反應無疑更多是偶然性的結果而不是任何類型的理性決策。哪怕是在相對常見的例子里面,司機被教導的也是永遠都不要為了避免橫闖馬路的野生動物受傷害而打急轉彎,以免增加被對向來車撞上或者自己撞樹的風險。但是那種避免碰撞的直覺是很強烈的,而且一旦突現出現的是阿貓阿狗是還會更加強烈。此處的要點是無論結果如何——不管是松鼠被壓扁還是幾位乘客死亡,包括司機反應在內的這一系列的事件,都要歸咎于一定程度的不確定性,而在這不確定性當中就有許多我們哲學上的應對機制。

但是當人類預先確定特定道德困境的結果,并且把它編碼進機器里面,授權機器做出這些決定時會發(fā)生什么呢?在上面提到的簡單例子里面,松鼠被殺死了而所有的人都活下來了,但如果那瞬間的決定要么導致乘客死亡要么導致橫穿馬路的母子身亡呢?2016年夏,MIT的研究人員推出了一個名為道德機器的網站提出的正是這類問題,在各種假設交通場景下,用戶必須做出一系列的雙輸決定,也就是不管怎么決策都會有人死。任何人都可以進行“測試”,測試完之后網站就會公布你的“分數”以及與其他人所做道德決策的對比情況。

當然,從原則上來說,道德機器測試展現給用戶的信息是汽車AI永遠也無法知道的——比如其中一些潛在受害者是犯罪分子。但在更有可能的場景下,年齡是某些場景的因素之一,這個條件我覺得會更加可信一些——汽車是有可能知道自己搭載的是一堆七十多歲的夫婦,因此決定殺死他們而不是一個年輕家庭會顯得更有道德一點。而那對老夫婦自己可能也會做出這個無私的決定,但在人類操作者在面臨比自己思考還要快的緊急情況時,這類算計不會真正發(fā)生。

這類道德機器測試的可怕之處在于,它隱含意味著用于讓AI做出道德決定的數據集理論上可不僅僅包括數字(比方說機器可以簡單地把拯救數多于殺死數設為默認)。年齡也可以成為因素,但是對社會的凈值或者相對“價值”呢?AI可以為了拯救一位物理學家或者外科醫(yī)生或者一個卡戴珊而毀了整整一校車孩子的生命嗎?種族或者性別方面呢?這然后又會引發(fā)這些預設定決策是大家都知道的還是商業(yè)秘密的問題,這兩個都會引發(fā)巨大且空前的道德困境。

在這一點上,幾天前出現的一篇文章告訴我們說,奔馳的下一代無人車將會被設定為無論任何情況下都拯救乘客。一方面,這屬于一個算法派生,這種派生的主題是特權階級在任何其他生命面前都有一條優(yōu)先通行車道。但也有說法認為奔馳這樣做事未來避免陷進對AI進行道德編程的烏煙瘴氣里面??赡苋绻梢笏熊囕v默認都要接受一個指令,比如拯救乘客,這接近于人類司機的直覺但易犯錯的反應,同時仍然允許不確定性扮演角色,從而免除了工程師“扮演上帝”的責任。至少在AI具備自我意識并開始自行做出此類決定前是這樣。

畢竟,一旦去掉偶然性和放棄權利,把生死決策交給機器之后,很難不會注意到人為道德決定論的反烏托邦啟示。當我們去掉了偶然性、命運、上帝旨意等所提供的這些心理緩沖之后,發(fā)生了悲劇事故自然就要求做出解釋,因此本能上就要求追責。這當然會引發(fā)一些伴生的問題,比如誰不可避免地要玩弄系統(tǒng),誰會對自己的車輛進行“越獄”,以便推翻有可能對自己不利的代碼,確保自己成為事故的幸存者。突然之間,這把抱怨擺弄技術資產“權利”的意志論者推到了理論上“犧牲小我”觀點的對立面。

AI道德問題還成為了導致得出無人車的私人產權也許不會持久結論的又一個因素。就理性而言,要想讓AI負責所有人的往來穿梭,各個AI系統(tǒng)就必須站在同一水平線上,這樣才能汽車去到哪里都講道德。從這一點來說,奔馳或Tesla的模式只不過是公共系統(tǒng)或者高度管制化系統(tǒng)的墊腳石罷了。但是這樣的結果不會是制造商或者投資這一未來的領先數據公司想要的。

這就是我同意奧巴馬總統(tǒng)的理由之一。他最近在跟伊藤穰一(Joi Ito ,MIT媒體實驗室主管)聯合接受《連線》雜志Scott Dadich采訪時表示,公共基金在AI開發(fā)中扮演角色是必不可少的?!?.....我們必須理解的事情之一是,如果我們希望這些突破性技術體現出多元化社區(qū)的價值,那么政府基金就必須成為其中一部分。如果政府沒有參與提供資金支持,那么伊藤穰一提出的所有這些技術價值問題最終可能都會失去,或者至少沒有經過適當的辯證?!?/p>

當然,奧巴馬所指的AI并不僅限于車輛,他的觀點闡述的很好。AI的科幻未來已經到來。但用什么樣的價值觀來推動決策的問題在公開辯論當中幾乎很少被提及。與此同時,企業(yè)用“顛覆”的修辭已經赦免了隱私和知識產權侵權方面的許多原罪?;蛘呔拖馭am Kriss在《大西洋》的文章中的出色概括那樣:“硅谷解決的是此前并不存在的問題,硅谷文化對‘顛覆’的執(zhí)著已經達到了病態(tài)的地步。技術產品不再感覺像是提供給公眾的東西,而像是強加于人:偉大的愿景家觀察大家做某件事情的方式,然后決定以一己之力去改變它?!?/p>

今年9月底的時候,美國的技術巨頭——IBM、蘋果、Amazon、微軟、Facebook以及Google的計算機科學家聯合成立了一個新聯盟,名字叫做“造福社會與公眾的人工智能合作伙伴關系”。該聯盟的目標之一是建立AI領域最佳實踐的規(guī)范標準,其中就包括了類似無人車電車難題這樣的倫理問題的處理。但是這些技術研發(fā)體現出公共利益是必不可少的,雖然我本人可能比較挑刺奧巴馬政府在許多公共領域過于Google化,但是我相信總統(tǒng)本人對如何開發(fā)出有道德的AI是有著深刻思考的。從目前的研發(fā)和投資力度來看,我們唯有希望未來的領導人仍然能繼續(xù)推進這類話題的深入了。

    本站是提供個人知識管理的網絡存儲空間,所有內容均由用戶發(fā)布,不代表本站觀點。請注意甄別內容中的聯系方式、誘導購買等信息,謹防詐騙。如發(fā)現有害或侵權內容,請點擊一鍵舉報。
    轉藏 分享 獻花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多