3月29日,國際知名安全組織生命未來研究院(FLI)以人工智能具有潛在的社會(huì)和人類危害為理由,要求世界各地的科研機(jī)構(gòu)停止對GPT-4以上的人工智能進(jìn)行訓(xùn)練,直到該訓(xùn)練方案得到獨(dú)立專家的認(rèn)可、實(shí)施和審核。隨后,馬斯克,以及蘋果公司的聯(lián)合創(chuàng)始人斯蒂夫·沃茲尼亞克,以及上千名人工智能領(lǐng)域的專家和高層,都在這份聲明上簽了字。然而就在不久前,楊立昆、吳恩達(dá)兩位大佬,卻是為馬斯克開了一次直播,“懟”了那句“人工智能項(xiàng)目暫停半年以上”的話。楊立昆是“卷積法”的之父,他是“圖靈三杰”中的一員,吳恩達(dá)則是“谷歌之腦”的設(shè)計(jì)師和締造者,以及“Coursera”這個(gè)全球最大的網(wǎng)絡(luò)教育平臺(tái)的創(chuàng)建者。他們在直播中直言不諱,“人工智能的研究,如果被暫停半年,那才是巨大的傷害。人工智能產(chǎn)品才是被管制的對象,而不是被控制的對象。”他們的核心觀點(diǎn)如下:1.人工智能已經(jīng)為教育,醫(yī)療,以及其他許多領(lǐng)域帶來了極大的價(jià)值,并幫助了許多人。中止人工智能研究會(huì)帶來許多危害,降低人們創(chuàng)造有價(jià)值的東西的速度。2..對于將來的人工智能系統(tǒng),我們將提出一些新思路,讓它們更加容易操控,而不是象 ChatGPT、GPT-4等已有的自回歸模式。3.人工智能世界末日理論,或者人工智能末日說,實(shí)際上都是夸大其詞。人工智能將在各個(gè)領(lǐng)域超過我們?nèi)祟?,這是遲早的事,但是不會(huì)是明天。4.有些規(guī)制,只要運(yùn)作得當(dāng),未必就是一件壞事情。但一種科技,一種還沒有開發(fā)出來的科技,是無法被監(jiān)管的。一種新技術(shù)的誕生,首先要使其產(chǎn)生最大的正面效應(yīng),減少其消極效應(yīng),但是,這并不代表我們就會(huì)停止對其進(jìn)行技術(shù)開發(fā)。5.假設(shè)一個(gè)人工智能系統(tǒng)想要支配人類,這是不切實(shí)際的,因?yàn)橹浔仨氁幸粋€(gè)目的。這種動(dòng)機(jī)在人類以及一些其他社會(huì)性物種中存在,但在非社會(huì)性物種中并不存在,我們完全可以把AI設(shè)計(jì)成非社會(huì)化物種,設(shè)計(jì)成非支配性、順從的,或者遵守特定規(guī)則以符合人類整體的利益。
|