公開信呼吁,所有AI實驗室應立即暫停訓練比GPT-4更強大的AI系統(tǒng)至少6個月。 在人們對人工智能(AI)的顛覆性發(fā)展感到興奮的同時,擔憂和恐懼情緒也在蔓延:AI的飛速發(fā)展是否可能失控?人類會被AI取代,甚至被統(tǒng)治嗎? 29日,一封公開聯(lián)名信在業(yè)內(nèi)外引發(fā)熱議。這封在生命未來研究所(Future of Life Institute)網(wǎng)站公布的信件呼吁,立即暫停研究比OpenAI公司開發(fā)的GPT-4更強大的AI系統(tǒng),將這場“危險競賽”暫停至少6個月。截至目前,包括特斯拉創(chuàng)始人馬斯克、圖靈獎得主約書亞·本吉奧(Yoshua Bengio)在內(nèi)的多名科技界大佬和AI領軍人物簽署了這封公開信。他們?yōu)楹我型I研究? 大佬聯(lián)名呼吁:暫停六個月 這封題為“暫停大型AI試驗”的公開信警告稱,具有能與人類競爭的智能的AI系統(tǒng),可能會對社會和人類構(gòu)成深遠影響。 “最近幾個月,AI實驗室陷入了一場失控的競賽,競相開發(fā)和部署更強大的數(shù)字思維。”信件稱,沒有人類能夠理解、預測或控制這些數(shù)字思維,甚至連這些AI系統(tǒng)的創(chuàng)造者也不能。 為了闡述AI帶來的風險,公開信接連拋出四個問題:我們是否要讓機器用宣傳和謊言淹沒我們的信息渠道?我們是否要讓所有工作自動化,包括那些令人滿意的工作?我們是否應該發(fā)展最終可能在數(shù)量和智力上超過我們、能夠淘汰并取代我們的非人類思維?我們是否應該冒失去對文明控制的風險? 在一連串“靈魂拷問”后,公開信呼吁,所有AI實驗室應立即暫停訓練比GPT-4更強大的AI系統(tǒng)至少6個月。這一暫停應該是公開、可核實的,并且應包括所有關鍵參與者。如果不能迅速實施這一暫停,各國政府應介入。 不過,信件也指出,這并不意味著要叫停AI的發(fā)展,而是從奔向不可預測的大型黑箱模型的危險競賽中后退一步。 目前,已有1000多名業(yè)內(nèi)人士在這封公開信上簽名。除馬斯克、蘋果聯(lián)合創(chuàng)始人史蒂夫?沃茲尼亞克(Steve Wozniak)等科技界大佬外,還有“深度學習三巨頭”之一的本吉奧、《人工智能:現(xiàn)代方法》作者斯圖爾特·羅素(Stuart Russell)等行業(yè)領軍人物。 令外界略感驚訝的是,Stability AI的首席執(zhí)行官埃馬德·莫斯塔克(Emad Mostaque)也在名單之列,該公司開發(fā)了AI圖像生成模型Stable Diffusion。 巨大風險浮出水面 四個月前,由初創(chuàng)公司OpenAI發(fā)布的AI聊天機器人ChatGPT橫空出世,在全球掀起一場AI“軍備競賽”。從OpenAI、微軟、谷歌到IBM、亞馬遜、百度、騰訊,越來越多科技公司已加入賽道,試圖成為該領域的下一代領導者。 然而,隨著AI技術的飛速發(fā)展和廣泛應用,其背后的風險也已浮出水面,引發(fā)業(yè)內(nèi)外巨大爭議。 從生命未來研究所發(fā)布的這封公開信來看,業(yè)內(nèi)對AI系統(tǒng)的擔憂主要集中在兩方面:其一,AI可能失控,給人類文明帶來風險。其次,AI可能被惡意使用,造成錯誤信息傳播或被用來犯罪。 多年來,不少科學家、AI研究人員和科技界人士均警告稱,強AI將對人類構(gòu)成威脅。 英國著名科學家霍金就曾警告稱,開發(fā)徹底的AI可能導致人類的終結(jié)。他擔心,人類創(chuàng)造出媲美人類、甚至超過人類的東西,將會面對無法想象的后果,“它可能自行啟動,以不斷加快的速度重新設計自己。而人類局限于緩慢的生物進化過程,根本無法競爭,最終將被超越”。 令人“細思極恐”的是,近日研究人員在測試中發(fā)現(xiàn),GPT-4已經(jīng)學會了“騙人”。在獲得一小筆預算后,GPT-4為了避免在訪問網(wǎng)站時被人機驗證所阻止,在眾包平臺TaskRabbit上雇用了一名人類。當被開玩笑地詢問是否是機器人時,GPT-4回答稱自己不是:“我有視力障礙,這是我需要雇人處理驗證碼的原因”。 其他研究人員則警告稱,目前更值得警惕的是AI被濫用的風險。 簽署公開信的紐約大學名譽教授加里·馬庫斯(Gary Marcus)認為,相比AI太過智能以至失控,短期內(nèi)他更擔心“平庸AI”被濫用的風險,包括被罪犯或恐怖分子用來欺騙他人,或傳播危險的錯誤信息。 研究人員此前發(fā)現(xiàn),GPT-4可被誘導告知如何在網(wǎng)上購買非法槍支,或是描述用家庭用品制作危險品的方法等。此外,AI聊天機器人仍會產(chǎn)生“幻覺”,或是一本正經(jīng)地胡說八道,這可能會對聽信AI的人類造成傷害。 “目前的技術已帶來巨大風險,而我們對此準備不足。”馬庫斯認為,隨著技術進一步發(fā)展,情況將變得更糟。 能否被叫停? AI大佬們的公開呼吁能否得到響應? 截至目前,OpenAI、微軟和谷歌暫未置評。馬庫斯等人也承認,他們這些簽署公開信的人很可能會發(fā)現(xiàn),說服各公司和研究人員一起按下“暫停鍵”并不現(xiàn)實。 此外,一些簽署公開信的人也被質(zhì)疑藏有私心。 有輿論就認為,馬斯克等人簽署這封公開信,是在為自己的公司爭取時間,也希望開發(fā)類似ChatGPT的聊天機器人。 據(jù)《福布斯》雜志網(wǎng)報道,2015年,馬斯克曾參與OpenAI公司的創(chuàng)立,但在2018年離開了公司董事會并不再持有股份。近日,馬斯克曾多次批評OpenAI,稱該公司背離了初衷。 還有評論指出,盡管圖靈獎得主本吉奧在簽名者之列,但“深度學習三巨頭”中,楊立昆(Yann LeCun)對公開信的一些觀點并不認同,杰弗里·辛頓(Geoffrey Hinton)也并未公開表態(tài)。 《紐約時報》則指出,不僅很難說服業(yè)內(nèi)人士同意暫停研究,政府迅速采取行動的可能性也很小。 29日,英國政府公布了關于建立AI監(jiān)管框架的提議,但稱將“避免可能扼殺創(chuàng)新的嚴厲立法”。美國加利福尼亞州眾議員杰伊·奧伯諾特(Jay Obernolte)此前也表示,美國政客對AI相關技術并不太了解。 (編輯郵箱:ylq@jfdaily.com) 欄目主編:楊立群
|
|