2020国产成人精品视频,性做久久久久久久久,亚洲国产成人久久综合一区,亚洲影院天堂中文av色

分享

聯(lián)名叫?!笆Э亍钡娜斯ぶ悄芨傎?,馬斯克和業(yè)內(nèi)大佬們在擔心什么?

 溫馨的淑女 2023-04-04 發(fā)布于吉林

公開信呼吁,所有AI實驗室應立即暫停訓練比GPT-4更強大的AI系統(tǒng)至少6個月。

在人們對人工智能(AI)的顛覆性發(fā)展感到興奮的同時,擔憂和恐懼情緒也在蔓延:AI的飛速發(fā)展是否可能失控?人類會被AI取代,甚至被統(tǒng)治嗎?

29日,一封公開聯(lián)名信在業(yè)內(nèi)外引發(fā)熱議。這封在生命未來研究所(Future of Life Institute)網(wǎng)站公布的信件呼吁,立即暫停研究比OpenAI公司開發(fā)的GPT-4更強大的AI系統(tǒng),將這場“危險競賽”暫停至少6個月。截至目前,包括特斯拉創(chuàng)始人馬斯克、圖靈獎得主約書亞·本吉奧(Yoshua Bengio)在內(nèi)的多名科技界大佬和AI領軍人物簽署了這封公開信。他們?yōu)楹我型I研究?

大佬聯(lián)名呼吁:暫停六個月

這封題為“暫停大型AI試驗”的公開信警告稱,具有能與人類競爭的智能的AI系統(tǒng),可能會對社會和人類構(gòu)成深遠影響。

“最近幾個月,AI實驗室陷入了一場失控的競賽,競相開發(fā)和部署更強大的數(shù)字思維。”信件稱,沒有人類能夠理解、預測或控制這些數(shù)字思維,甚至連這些AI系統(tǒng)的創(chuàng)造者也不能。

為了闡述AI帶來的風險,公開信接連拋出四個問題:我們是否要讓機器用宣傳和謊言淹沒我們的信息渠道?我們是否要讓所有工作自動化,包括那些令人滿意的工作?我們是否應該發(fā)展最終可能在數(shù)量和智力上超過我們、能夠淘汰并取代我們的非人類思維?我們是否應該冒失去對文明控制的風險?

在一連串“靈魂拷問”后,公開信呼吁,所有AI實驗室應立即暫停訓練比GPT-4更強大的AI系統(tǒng)至少6個月。這一暫停應該是公開、可核實的,并且應包括所有關鍵參與者。如果不能迅速實施這一暫停,各國政府應介入。

不過,信件也指出,這并不意味著要叫停AI的發(fā)展,而是從奔向不可預測的大型黑箱模型的危險競賽中后退一步。

目前,已有1000多名業(yè)內(nèi)人士在這封公開信上簽名。除馬斯克、蘋果聯(lián)合創(chuàng)始人史蒂夫?沃茲尼亞克(Steve Wozniak)等科技界大佬外,還有“深度學習三巨頭”之一的本吉奧、《人工智能:現(xiàn)代方法》作者斯圖爾特·羅素(Stuart Russell)等行業(yè)領軍人物。

令外界略感驚訝的是,Stability AI的首席執(zhí)行官埃馬德·莫斯塔克(Emad Mostaque)也在名單之列,該公司開發(fā)了AI圖像生成模型Stable Diffusion。

巨大風險浮出水面

四個月前,由初創(chuàng)公司OpenAI發(fā)布的AI聊天機器人ChatGPT橫空出世,在全球掀起一場AI“軍備競賽”。從OpenAI、微軟、谷歌到IBM、亞馬遜、百度、騰訊,越來越多科技公司已加入賽道,試圖成為該領域的下一代領導者。

然而,隨著AI技術的飛速發(fā)展和廣泛應用,其背后的風險也已浮出水面,引發(fā)業(yè)內(nèi)外巨大爭議。

從生命未來研究所發(fā)布的這封公開信來看,業(yè)內(nèi)對AI系統(tǒng)的擔憂主要集中在兩方面:其一,AI可能失控,給人類文明帶來風險。其次,AI可能被惡意使用,造成錯誤信息傳播或被用來犯罪。

多年來,不少科學家、AI研究人員和科技界人士均警告稱,強AI將對人類構(gòu)成威脅。

英國著名科學家霍金就曾警告稱,開發(fā)徹底的AI可能導致人類的終結(jié)。他擔心,人類創(chuàng)造出媲美人類、甚至超過人類的東西,將會面對無法想象的后果,“它可能自行啟動,以不斷加快的速度重新設計自己。而人類局限于緩慢的生物進化過程,根本無法競爭,最終將被超越”。

令人“細思極恐”的是,近日研究人員在測試中發(fā)現(xiàn),GPT-4已經(jīng)學會了“騙人”。在獲得一小筆預算后,GPT-4為了避免在訪問網(wǎng)站時被人機驗證所阻止,在眾包平臺TaskRabbit上雇用了一名人類。當被開玩笑地詢問是否是機器人時,GPT-4回答稱自己不是:“我有視力障礙,這是我需要雇人處理驗證碼的原因”。

其他研究人員則警告稱,目前更值得警惕的是AI被濫用的風險。

簽署公開信的紐約大學名譽教授加里·馬庫斯(Gary Marcus)認為,相比AI太過智能以至失控,短期內(nèi)他更擔心“平庸AI”被濫用的風險,包括被罪犯或恐怖分子用來欺騙他人,或傳播危險的錯誤信息。

研究人員此前發(fā)現(xiàn),GPT-4可被誘導告知如何在網(wǎng)上購買非法槍支,或是描述用家庭用品制作危險品的方法等。此外,AI聊天機器人仍會產(chǎn)生“幻覺”,或是一本正經(jīng)地胡說八道,這可能會對聽信AI的人類造成傷害。

“目前的技術已帶來巨大風險,而我們對此準備不足。”馬庫斯認為,隨著技術進一步發(fā)展,情況將變得更糟。

能否被叫停?

AI大佬們的公開呼吁能否得到響應?

截至目前,OpenAI、微軟和谷歌暫未置評。馬庫斯等人也承認,他們這些簽署公開信的人很可能會發(fā)現(xiàn),說服各公司和研究人員一起按下“暫停鍵”并不現(xiàn)實。

此外,一些簽署公開信的人也被質(zhì)疑藏有私心。

有輿論就認為,馬斯克等人簽署這封公開信,是在為自己的公司爭取時間,也希望開發(fā)類似ChatGPT的聊天機器人。

據(jù)《福布斯》雜志網(wǎng)報道,2015年,馬斯克曾參與OpenAI公司的創(chuàng)立,但在2018年離開了公司董事會并不再持有股份。近日,馬斯克曾多次批評OpenAI,稱該公司背離了初衷。

還有評論指出,盡管圖靈獎得主本吉奧在簽名者之列,但“深度學習三巨頭”中,楊立昆(Yann LeCun)對公開信的一些觀點并不認同,杰弗里·辛頓(Geoffrey Hinton)也并未公開表態(tài)。

《紐約時報》則指出,不僅很難說服業(yè)內(nèi)人士同意暫停研究,政府迅速采取行動的可能性也很小。

29日,英國政府公布了關于建立AI監(jiān)管框架的提議,但稱將“避免可能扼殺創(chuàng)新的嚴厲立法”。美國加利福尼亞州眾議員杰伊·奧伯諾特(Jay Obernolte)此前也表示,美國政客對AI相關技術并不太了解。

(編輯郵箱:ylq@jfdaily.com)

欄目主編:楊立群

    本站是提供個人知識管理的網(wǎng)絡存儲空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點。請注意甄別內(nèi)容中的聯(lián)系方式、誘導購買等信息,謹防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊一鍵舉報。
    轉(zhuǎn)藏 分享 獻花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多