2020国产成人精品视频,性做久久久久久久久,亚洲国产成人久久综合一区,亚洲影院天堂中文av色

分享

AI的25種可能,就是人類的25種未來

 昵稱52221680 2019-11-16


內(nèi)容來源:本文摘編湛廬文化出品書籍《AI的25種可能》書評文章,本書作者約翰.布羅克曼(John Brockman) ,筆記俠經(jīng)出版社授權(quán)發(fā)布。

封面設(shè)計 & 責(zé)編 | 麗麗
第 4287  篇深度好文 : 5133 字 | 8 分鐘閱讀

讀書筆記·人工智能

本文優(yōu)質(zhì)度:★★★+    口感:蔓越莓

筆記君說:

世界上最聰明的網(wǎng)站Edge,每年一次,讓100位全球最偉大的頭腦坐在同一張桌子旁,共同解答關(guān)乎人類命運(yùn)的同一個大問題,開啟一場智識的探險,一次思想的旅行!

人工智能是今天的神話,也是其他一切故事背后的故事。本書集結(jié)了諸多來自人工智能領(lǐng)域內(nèi)外的重要思想家的對話,探討了人工智能的定義及含義。


以下,enjoy~~

世界上最聰明的網(wǎng)站Edge,每年一次,讓幾十位全球最偉大的頭腦坐在同一張桌子旁,共同解答關(guān)乎人類命運(yùn)的同一個大問題,開啟一場智識的探險,一次思想的旅行!

這次,25位頂尖思想家們將話題聚焦到了人工智能,他們的思想集結(jié)成了《AI的25種可能》一書。

《AI的25種可能》集結(jié)了包括史蒂芬·平克、朱迪亞·珀?duì)?、丹尼爾·丹尼特、邁克斯·泰格馬克等25位計算機(jī)科學(xué)家、心理學(xué)家、物理學(xué)家、科技史學(xué)家的前沿洞見,AI的25種可能,就是人類未來的25種可能。

一、朱迪亞·珀?duì)?/strong>
不透明學(xué)習(xí)機(jī)器的局限性

當(dāng)前的機(jī)器學(xué)習(xí)系統(tǒng)幾乎完全在統(tǒng)計模式或者說模型盲(model-blind)的模式下運(yùn)行,這在許多方面類似于將函數(shù)擬合到大量點(diǎn)數(shù)據(jù)。

這樣的系統(tǒng)不能推理“如果……會怎樣?”的問題,因此不能作為強(qiáng)人工智能的基礎(chǔ),強(qiáng)人工智能是模擬人類推理和能力的人工智能。

為了達(dá)到人類智能水平,學(xué)習(xí)機(jī)器需要現(xiàn)實(shí)藍(lán)圖的指導(dǎo),這種藍(lán)圖是一個模型,類似于當(dāng)我們在陌生城市開車時給我們指路的道路地圖。

我認(rèn)為機(jī)器學(xué)習(xí)是一種工具,使我們從研究數(shù)據(jù)走到研究概率。但是,從概率到實(shí)際理解,我們?nèi)匀恍枰噙~出兩步,非常大的兩步。

一是預(yù)測行動的結(jié)果。

第一層是統(tǒng)計推理。統(tǒng)計推理能告訴你的,只是你看到的一件事如何改變你對另一件事的看法。例如,某癥狀能告訴你得了哪一種疾病。然后,是第二層。第二層包含了第一層,但第一層卻不包含第二層。

第二層處理的是行動?!叭绻覀兲Ц邇r格會怎樣?”“如果你讓我笑了,會怎樣?”第二層需要的是干預(yù)信息,這些信息是第一層所沒有的。這些信息可被編碼成概率圖模型,它僅僅告訴我們哪個變量對另一個變量有響應(yīng)。
二是反事實(shí)想象。

“如果這個東西重兩倍,會怎樣?”“如果當(dāng)初我沒有這樣做,會怎樣?”“治好了我頭疼的是阿司匹林還是剛剛打的盹?”反事實(shí)在感覺中屬于最高層次,即使我們能夠預(yù)測所有行動的結(jié)果,但卻無法得到反事實(shí)。

它們需要一種額外的東西,以等式的形式告訴我們對于其他變量發(fā)生的變化,某個變量會如何反應(yīng)。

因果推理研究的一個突出成就是對干預(yù)和反事實(shí)的算法化,也就是對層級結(jié)構(gòu)最高兩層的算法化。

當(dāng)我思考機(jī)器學(xué)習(xí)的成功并試圖把它推廣到未來的人工智能時,我問自己:“我們是否意識到了在因果推理領(lǐng)域中發(fā)現(xiàn)的基本局限性?我們準(zhǔn)備繞過阻礙我們從一個層級升到另一個層級的理論障礙嗎?”

所以我認(rèn)為,數(shù)據(jù)科學(xué)只是一門有助于解釋數(shù)據(jù)的科學(xué),而解釋數(shù)據(jù)是一個兩體問題,將數(shù)據(jù)與現(xiàn)實(shí)聯(lián)系起來。

但無論數(shù)據(jù)有多“大”,人們操控數(shù)據(jù)多么熟練,數(shù)據(jù)本身并不是一門科學(xué)。不透明的學(xué)習(xí)系統(tǒng)可能會把我們帶到巴比倫,但絕不是雅典。

二、史蒂芬·平克
在不理智的頭腦想象區(qū),總是很容易想象出災(zāi)難場景

今天許多科技預(yù)言的一個焦點(diǎn)是人工智能,在原始的反烏托邦科幻作品中,計算機(jī)瘋狂地運(yùn)行并奴役人類,人類無法阻擋它們的控制;

而在更新的版本中,它們偶然地征服了人類,一心一意地尋求我們賦予的目標(biāo),盡管會對人類福祉產(chǎn)生副作用。

無論是在哪個版本中,人工智能都是焦點(diǎn)。

不過,我還是覺得這兩種威脅都是虛構(gòu)的,因?yàn)樗从谝环N狹隘的技術(shù)決定論,這種技術(shù)決定論忽略了在像計算機(jī)或大腦這樣的智能系統(tǒng)以及整個社會中的信息和控制網(wǎng)絡(luò)。

 

這種對征服的恐懼來自對智能的模糊理解,其模糊之處在于將智能歸于一種存在之鏈和尼采式的權(quán)力意志,而不是根據(jù)信息、計算和控制對智能和目的進(jìn)行的維納式分析。

在這些恐怖場景中,智能被描繪成一種全能的、能實(shí)現(xiàn)愿望的神藥,智能主體各自擁有不同數(shù)量的這種神藥。

人類比動物擁有更多的神藥,而人工智能的計算機(jī)或機(jī)器人比人類擁有的更多。

既然我們?nèi)祟愒梦覀儾桓卟坏偷闹悄荞Z養(yǎng)或消滅了那些不太有智能的動物,既然技術(shù)先進(jìn)的社會奴役或消滅了技術(shù)水平很低的社會,那么超級聰明的人工智能也會對我們?nèi)祟愖鐾瑯拥氖虑椤?/p>

但是這些場景混淆了智能與動機(jī)、信念與欲望、推理與目標(biāo)、圖靈闡明的計算和維納闡明的控制。

即使我們發(fā)明了超人智能機(jī)器人,他們?yōu)槭裁匆鬯麄兊闹魅嘶蚪庸苁澜??智能是指運(yùn)用新的手段達(dá)到目標(biāo)的能力。但是這些目標(biāo)與智能無關(guān),因?yàn)槁斆鞑⒉坏韧谝欢ㄒ非竽承〇|西。

巧合的是,智人的智能是達(dá)爾文自然選擇的產(chǎn)物,而自然選擇本質(zhì)上是一個競爭過程。

在智人的大腦中,推理與一些諸如支配對手和積累資源等目標(biāo)捆綁在一起。

但是,把某些靈長類動物的邊緣腦中的回路與智能的本質(zhì)混為一談是錯誤的。沒有任何一個復(fù)雜系統(tǒng)定律表明,智能主體一定會變成無情的自大狂。

三、邁克斯·泰格馬克

通用人工智能的真正風(fēng)險不是它的惡意,而是它的能力

許多思想家把超級智能這個概念貶低為科幻小說,因?yàn)樗麄冋J(rèn)為智能是一種神秘的東西,只能存在于生物有機(jī)體,尤其是人類中,他們還認(rèn)為這種智能從根本上限制了今天的人類能做什么。

但是,從我作為物理學(xué)家的角度來看,智能只是由四處移動的基本粒子所進(jìn)行的某種信息處理,沒有任何物理定律表明人類不能制造出在任何方面都比我們具有更高級智能的機(jī)器,這種機(jī)器能孕育宇宙生命。

這表明,我們僅僅看到了智能的冰山一角,存在這么一種驚人的可能性:

也許我們能釋放出自然界中所蘊(yùn)藏的全部智能,利用它來幫助人類繁榮發(fā)展,或掙扎求生。

真正的問題是,人工智能安全研究必須在嚴(yán)格的期限內(nèi)進(jìn)行:在通用人工智能到來之前,我們需要弄清楚如何讓人工智能理解、采納和保留我們的目標(biāo)。

機(jī)器越智能、越強(qiáng)大,使它們的目標(biāo)與我們的目標(biāo)一致就越重要。

只要我們制造的機(jī)器相對愚蠢,那么問題便不是人類的目標(biāo)是否會占上風(fēng),而是在達(dá)到我們與機(jī)器目標(biāo)一致之前,機(jī)器會造成多少麻煩。

然而,如果制造出超級智能,那么情況就會反過來:因?yàn)橹悄芫褪菍?shí)現(xiàn)目標(biāo)的能力,所以超級智能人工智能從定義上來說,比起我們?nèi)祟悓?shí)現(xiàn)自己的目標(biāo),它更擅長完成它的目標(biāo),因此會占上風(fēng)。

換句話說,通用人工智能的真正風(fēng)險不是它的惡意,而是它的能力。

一個擁有超級智能的通用人工智能將非常擅長完成它的目標(biāo),如果這些目標(biāo)與我們?nèi)祟惖牟灰恢?,我們就有麻煩了?/p>

為修建水力發(fā)電大壩需要淹沒蟻丘,對這件事,人類不會反復(fù)三思,所以我們不要把人類置于螞蟻的位置。

大多數(shù)研究人員認(rèn)為,如果我們最終創(chuàng)造了超級智能,我們應(yīng)該確保它是人工智能安全先驅(qū)埃利澤·尤德考斯基所稱的“友好的人工智能”,其目標(biāo)在某種深層意義上是有益的。

四、塞思·勞埃德

雖然AI有了長足的發(fā)展,但機(jī)器人“還是不會系鞋帶” 

我們不應(yīng)該完全相信技術(shù)奇點(diǎn)一說,預(yù)測技術(shù)進(jìn)步的常見困難以及發(fā)展超級智能時特有的問題都應(yīng)該讓我們警惕,不要高估信息處理的力量和效能。

沒有任何一種指數(shù)式增長能一直持續(xù)下去。原子彈爆炸呈指數(shù)式增長,但也就持續(xù)到燃料耗盡之時。

同樣地,摩爾定律的指數(shù)式增長近來開始進(jìn)入基礎(chǔ)物理所設(shè)定的極限之中。

計算機(jī)的時鐘速度在 15 年前不超過幾千兆赫,僅僅是因?yàn)樗俣仍俑咝酒烷_始熱得熔化了。

由于隧道效應(yīng)和電流泄漏,晶體管的小型化已經(jīng)進(jìn)入量子力學(xué)領(lǐng)域。

最終,摩爾定律驅(qū)動的各種存儲器和處理器的指數(shù)式增長都將停止。然而,再過幾十年,計算機(jī)的原始信息處理能力也許就能與人類的大腦匹敵,至少按照每秒處理的比特率和位翻轉(zhuǎn)粗略計算的話是如此。

人類的大腦構(gòu)造復(fù)雜,經(jīng)過幾百萬年的自然選擇變成了現(xiàn)在的樣子。越來越敏感的儀器和成像技術(shù)表明,我們的大腦在結(jié)構(gòu)和功能上遠(yuǎn)比維納所能想象的更多樣、更復(fù)雜。

最近,我問現(xiàn)代神經(jīng)科學(xué)先驅(qū)托馬索·波焦(Tomaso Poggio),是否擔(dān)心隨著計算機(jī)處理能力的快速提高,計算機(jī)將很快趕上人類的腦。“絕不可能?!彼卮?。

對奇點(diǎn)主義的恐懼,主要是擔(dān)心隨著計算機(jī)更多地參與設(shè)計它們自己的軟件,它們將迅速擁有超人的計算能力。

但機(jī)器學(xué)習(xí)的真實(shí)情況卻恰恰相反。當(dāng)機(jī)器的學(xué)習(xí)能力變得越來越強(qiáng)時,它們的學(xué)習(xí)方式會變得越來越像人類。

許多事例表明,機(jī)器的學(xué)習(xí)是在人類和機(jī)器老師的監(jiān)管下進(jìn)行的。對計算機(jī)進(jìn)行教育就像對青少年進(jìn)行教育一樣困難、緩慢。

因此,基于深度學(xué)習(xí)的計算機(jī)系統(tǒng)正在變得越來越人性化。它們帶來的學(xué)習(xí)技能不是“優(yōu)于”而是“補(bǔ)充”人類學(xué)習(xí):計算機(jī)學(xué)習(xí)系統(tǒng)可以識別人類無法識別的模式,反之亦然。

世界上最好的國際象棋棋手既不是計算機(jī),也不是人類,而是與計算機(jī)合作的人。

網(wǎng)絡(luò)空間里確實(shí)存在有害的程序,但這些主要是惡意軟件,即病毒,它們不是因?yàn)槠涑壷悄芏鵀槭廊怂?,而是因?yàn)閻阂獾臒o知而遭世人譴責(zé)。

五、我們?nèi)鄙俚氖侨祟惖牧己媚P停?/strong>

機(jī)器學(xué)習(xí)的關(guān)鍵必然是人類的學(xué)習(xí)

價值對齊,就是使自動化智能系統(tǒng)的價值與人的價值對齊。在人工智能研究中,價值對齊只是一個小的主題,但對它的研究日漸增加。用于解決這個問題的一個工具就是反向強(qiáng)化學(xué)習(xí)。

強(qiáng)化學(xué)習(xí)是訓(xùn)練智能機(jī)器的一種標(biāo)準(zhǔn)方法。通過將特定的結(jié)果和獎勵聯(lián)系起來,可以訓(xùn)練機(jī)器學(xué)習(xí)系統(tǒng)遵循產(chǎn)生特定結(jié)果的策略。

現(xiàn)代機(jī)器學(xué)習(xí)系統(tǒng)可以通過應(yīng)用強(qiáng)化學(xué)習(xí)算法找到非常有效的策略來玩電腦游戲,從簡單的街機(jī)游戲到復(fù)雜的實(shí)時策略游戲。

反向強(qiáng)化學(xué)習(xí)扭轉(zhuǎn)了這種途徑:通過觀察已經(jīng)學(xué)習(xí)了有效策略的智能主體的行為,我們可以推斷導(dǎo)致這些策略發(fā)展的獎勵。

 

最終,我們需要的是一種方法,它能描述人類思維的運(yùn)作原理,具有理性的普遍性和啟發(fā)式的準(zhǔn)確性。

實(shí)現(xiàn)這一目標(biāo)的一種方法是從合理性開始,考慮如何讓它朝現(xiàn)實(shí)的方向發(fā)展。

把合理性作為描述任何現(xiàn)實(shí)世界行為的基礎(chǔ),這就存在一個問題,那就是,在許多情況下,計算合理行為需要主體擁有大量的計算資源。

如果你正在做出一個非常重要的決定,并且有很多時間來評估你的選擇,那么花費(fèi)這些資源也許是值得的,但是人類的大多數(shù)決定都是快速做出的,而且風(fēng)險相對較低。

無論在什么情況下,只要你做出決定花費(fèi)的時間成本很昂貴(至少因?yàn)槟憧梢园堰@些時間花在別的事情上),理性的經(jīng)典概念就不再能很好地描述一個人該如何行事。

超級智能人工智能還有很長的路要走。在過去幾年里,對視覺和語言的模型開發(fā)已經(jīng)創(chuàng)造出了用于解釋圖像和文本的重要的商業(yè)新技術(shù),而人類仍然是我們在制造思考機(jī)器時要參考的最好例子,所以我認(rèn)為開發(fā)良好的人類模型將是下一個研究領(lǐng)域。

六、丹尼爾·希利斯

超級智能不僅僅包括人類,它們是人類和信息技術(shù)的混合體

今天,如果沒有計算機(jī)網(wǎng)絡(luò)、數(shù)據(jù)庫和決策支持系統(tǒng),所有的系統(tǒng)都無法運(yùn)作。

這些混合智能是技術(shù)增強(qiáng)的人類網(wǎng)絡(luò)。這些人工智能具有超人的能力。它們比人類個體懂得更多;它們能夠感知更多;

它們能夠做出更精細(xì)的分析和更復(fù)雜的計劃。它們擁有的資源和力量比任何個人擁有的都要多。

 

雖然我們并不總能察覺到,但是諸如民族國家和企業(yè)這樣的混合型超級智能有它們自己的涌現(xiàn)目標(biāo)。

雖然它們是由人類建造的,也是服務(wù)于人類的,但它們的行為卻常常像獨(dú)立的智能實(shí)體一樣,而且它們的行為并不總是與創(chuàng)造它們的人的利益相一致。

國家并不總是為公民服務(wù),公司也不總是為股東服務(wù)。非營利組織、宗教組織或政黨也不總是遵循其原則而行動。

直覺上,我們意識到它們的行為受其內(nèi)部目標(biāo)的引導(dǎo),這就是為什么我們在法律上和思維習(xí)慣上都把它們?nèi)烁窕?/section>

當(dāng)我們談?wù)摗爸袊胍裁础被颉巴ㄓ闷囌谧鍪裁础睍r,我們并不是在隱喻。這些組織有智能,它們能感知、能做出決定、能采取行動。

和人類個體的目標(biāo)一樣,組織的目標(biāo)也很復(fù)雜,常常還自相矛盾,但它們的目標(biāo)是真正的目標(biāo),因?yàn)檫@些目標(biāo)能指導(dǎo)行動。

這些目標(biāo)在某種程度上取決于組織中人員的目標(biāo),但兩者并不相同。

政府和公司,兩者結(jié)構(gòu)中都有一部分是由人類建立的,兩者都會自然而然受到人類的激勵,至少會表現(xiàn)出與它們所依賴的人類有共同的目標(biāo)。

離開人類,它們都無法運(yùn)轉(zhuǎn),所以它們需要與人類合作。當(dāng)這些組織表現(xiàn)出利他行為時,通常這就是它們的一部分動機(jī)。

總之,這些混合機(jī)器有目標(biāo),它們的公民、客戶、雇員是它們用來實(shí)現(xiàn)目標(biāo)的資源。我們幾乎能夠不用人類組件,只用純信息技術(shù)構(gòu)建超級智能。這就是人們通常所說的人工智能。

    本站是提供個人知識管理的網(wǎng)絡(luò)存儲空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點(diǎn)。請注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購買等信息,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點(diǎn)擊一鍵舉報。
    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多