【編者按】近年,美國計算機科學(xué)家、視覺藝術(shù)家、計算機哲學(xué)作家及未來學(xué)家杰倫·拉尼爾(Jaron Lanier)與微軟新英格蘭研究院的經(jīng)濟學(xué)家格倫·魏爾(Glen Weyl)提出了“數(shù)據(jù)尊嚴”概念,強調(diào)個人有權(quán)控制和管理自己的數(shù)據(jù),以確保數(shù)據(jù)的安全性、私密性,并保護其免受濫用或未經(jīng)授權(quán)的訪問。
4月20日,拉尼爾在《紐約客》發(fā)表標題為“沒有人工智能(There Is No AI)”的文章,提出應(yīng)停止對人工智能的神化,而將其作為一種創(chuàng)新的社會協(xié)作形式來看待。他反對最近呼吁停止訓(xùn)練更高級人工智能的聯(lián)署信,并再次提出“數(shù)據(jù)尊嚴”概念:結(jié)束人工智能黑箱,記錄比特的來源,“人們可以為他們創(chuàng)造的東西獲得報酬,即使這些東西是通過大模型過濾和重新組合的”,“當一個大模型提供有價值的輸出時,數(shù)據(jù)尊嚴的方法將追蹤最獨特和有影響力的貢獻者?!?/strong>
(資料圖片)
拉尼爾認為,每一個新的人工智能或機器人應(yīng)用的成功引入,都可能涉及一種新的創(chuàng)造性工作的開始。無論大小,這可以幫助緩和向整合了大模型的經(jīng)濟的過渡。
杰倫·拉尼爾被認為是虛擬現(xiàn)實領(lǐng)域的開創(chuàng)者,2014年,他被Prospect雜志評為世界前50名思想家之一。2018年,他被《連線》評為過去25年技術(shù)史上最具影響力的25人之一。以下為《紐約客》上述文章的翻譯,為方便閱讀和理解已做少量刪減。
杰倫·拉尼爾1985年離開雅達利公司,成立了第一家銷售VR眼鏡和有線手套的公司VPL Research。2006年,他開始在微軟工作,從2009年起作為跨學(xué)科科學(xué)家在微軟研究院工作。
作為一名計算機科學(xué)家,我不喜歡“人工智能”這個詞。事實上,我認為它具有誤導(dǎo)性——也許甚至有點危險。每個人都已經(jīng)在使用這個詞,而現(xiàn)在爭論這個問題可能顯得有點晚。但我們正處于一個新技術(shù)時代的開端——誤解很容易導(dǎo)致誤導(dǎo)。
“人工智能”這個術(shù)語有著悠久的歷史——它是在1950年代計算機早期時代被創(chuàng)造出來的。更近的時間里,計算機科學(xué)家隨著《終結(jié)者》和《黑客帝國》等電影、《星際迷航:下一代》中Data指揮官這樣的人物成長起來。這些文化試金石已經(jīng)成為科技文化中一個近乎宗教的神話。計算機科學(xué)家渴望創(chuàng)造人工智能并實現(xiàn)一個長期的夢想,是很自然的。
但令人震驚的是,許多追求人工智能夢想的人也擔心,這可能意味著人類的末日。人們普遍認為,即使是處于當今工作中心的科學(xué)家也認為,人工智能研究人員正在做的事可能會導(dǎo)致我們這個物種毀滅,或者至少會對人類造成巨大傷害,而且會很快發(fā)生。在最近的民意調(diào)查中,有一半的人工智能科學(xué)家同意,人類至少有10%的可能性會被人工智能所毀滅。即使我的同行、經(jīng)營OpenAI的薩姆-奧特曼(Sam Altman)也發(fā)表了類似的評論。走進任何一家硅谷的咖啡館,你都能聽到同樣的爭論:一個人說,新的代碼只是代碼,一切都在人的掌控中,但另一個人認為,任何持這種觀點的人只是沒有理解新技術(shù)的深刻性而已。這些爭論并不完全是理性的:當我要求感到最害怕的科學(xué)家朋友說出人工智能末日可能發(fā)生的情況時,他們說:“加速的進步將從我們身邊飛過,我們將無法想象正在發(fā)生的事?!?/p>
我不同意這種說話方式。我的許多朋友和同行對最新的大模型的體驗印象深刻,比如GPT-4,而且像守夜一樣等待更深層次的智能出現(xiàn)。我的立場不是說他們錯了,而是說我們不能確定;我們保留以不同方式對軟件進行分類的選擇。
最務(wù)實的立場是將人工智能視為一種工具,而不是一種生物。我的態(tài)度并沒有消除危險的可能性:無論怎么想,我們?nèi)匀豢赡芤詡ξ覀兩踔翆?dǎo)致我們滅絕的方式,糟糕地設(shè)計和操作新技術(shù)。將技術(shù)神化更可能使我們無法很好地操作它,這種思維限制了我們的想象力,將其捆綁在昨天的夢想中。我們可以在沒有人工智能這種東西的假設(shè)下更好地工作,我們越早理解這一點,就可以越早開始智能地管理新技術(shù)。
如果新技術(shù)不是真正的人工智能,那么它是什么?在我看來,理解我們今天正在建造的東西的最準確方式,是將其作為一種創(chuàng)新的社會協(xié)作形式。
像OpenAI的GPT-4這樣的程序,可以按順序?qū)懗鼍渥?,就像維基百科的一個版本,包括更多數(shù)據(jù),用統(tǒng)計學(xué)的方法混在一起。按順序創(chuàng)建圖片的程序就像在線圖片搜索的一個版本,但有一個系統(tǒng)來組合圖片。在這兩種情況下,都是由人來撰寫文本和提供圖片的。這些新的程序?qū)⑷祟惖墓ぷ饕匀祟惔竽X的方式完成。創(chuàng)新之處在于,混搭過程變得有指導(dǎo)性和約束性,因此,結(jié)果是可用的,而且往往是引人注目的。這是一項重要的成就,值得慶祝——但它可以被認為是照亮了人類創(chuàng)造物之間曾被隱藏的一致性,而不是發(fā)明了一種新的思想。
就我所知,我的觀點是在贊美技術(shù)。畢竟,除了社會協(xié)作,文明是什么?把人工智能看作是一種合作的方式,而不是一種創(chuàng)造獨立、智能生物的技術(shù),可能會使它不那么神秘,不像HAL 9000(《2001:漫游太空》里的機器人)或Data指揮官那樣。但這是好事,因為神秘感只會使管理不善的可能性變大。
很容易將智能歸為新的系統(tǒng),它們具有我們通常不會與計算機技術(shù)聯(lián)系到一起的靈活性和不可預(yù)測性。但這種靈活性產(chǎn)生于簡單的數(shù)學(xué)。像GPT-4這樣的大型語言模型,包含了程序處理過的大量文本中特定詞匯如何重合的累積記錄。這個龐大的表格使系統(tǒng)內(nèi)在地接近許多語法模式,以及所謂的作者風(fēng)格等各個方面。當你輸入一個由某些詞按一定順序組成的查詢時,你的輸入會與模型中的內(nèi)容相關(guān)聯(lián)。由于關(guān)聯(lián)數(shù)十億條目的復(fù)雜性,每次的結(jié)果都可能有些不同。
這個過程的非重復(fù)性可以使它感覺很生動。而且在某種意義上,它可以使新系統(tǒng)更加以人為中心。當你用人工智能工具合成一個新圖像時,你可能會得到一堆類似的選項,然后不得不從中選擇;如果你是一個使用LLM(大型語言模型)作弊的學(xué)生,你可能會閱讀由模型生成的選項并選擇一個。一個產(chǎn)生非重復(fù)內(nèi)容的技術(shù)要求有一點人的選擇。
我喜歡的人工智能的許多用途,都是計算機不那么僵硬時給予我們的優(yōu)勢。數(shù)字的東西有一種脆性,迫使人們順著它,而不是先評估一下。順應(yīng)數(shù)字設(shè)計的需要,創(chuàng)造了一種要求人類順從的期望。人工智能的一個積極方面是,如果我們能很好地利用它,可能意味著這種折磨會結(jié)束。我們現(xiàn)在可以想象,一個網(wǎng)站為色盲重新制定自己的方案,或者一個網(wǎng)站根據(jù)一個人的特殊認知能力和風(fēng)格來定制自己的方案。像我這樣的人文主義者希望人們有更多的控制權(quán),而不是被技術(shù)過度影響或引導(dǎo)。靈活性可以讓我們重新獲得一些代理權(quán)。
然而,盡管有這些可能的好處,擔心新技術(shù)會以我們不喜歡或不理解的方式驅(qū)趕我們,也是非常合理的。最近,我的一些朋友散發(fā)了一份請愿書,要求暫停最雄心勃勃的人工智能開發(fā)。他們的想法是,在暫停期間,我們將研究政策。請愿書得到了我們?nèi)ψ又幸恍┤说暮灻?,但其他人沒簽。我發(fā)現(xiàn)這個概念太模糊了——什么程度的進展意味著暫??梢越Y(jié)束?每周,我都會收到模糊不清的新任務(wù)聲明,這些組織都在尋求啟動制定人工智能政策的進程。
這些努力的初衷是好的,但在我看來是沒有希望的。多年來,我一直從事歐盟隱私政策工作,我逐漸意識到,我們不知道什么是隱私。這是一個我們每天都在使用的術(shù)語,它在上下文中是有意義的,但我們不能很好地把它確定下來,以便歸納。我們對隱私最接近的定義可能是“獨處的權(quán)利”,但在我們不斷依賴數(shù)字服務(wù)的時代,這似乎很古怪。在人工智能的背景下,“不被計算機操縱的權(quán)利”似乎肯定是正確的,但并沒有完全說出我們想要的一切。
AI政策對話被“一致”(AI“想要”的東西與人類想要的東西一致嗎?)、“安全”(我們能預(yù)見護欄,阻止壞的AI嗎?)、“公平”(我們能阻止一個程序可能對某些人不友好嗎?)這樣的術(shù)語統(tǒng)治。通過追求這些想法當然圈子里已經(jīng)獲得了很多好處,但這并沒有消除我們的恐懼。
最近,我給同行們打電話,問他們是否有什么能達成一致的東西。我發(fā)現(xiàn),有一個達成一致的基礎(chǔ)。我們似乎都同意深度假象——虛假但看起來很真實的圖像、視頻等,應(yīng)該由創(chuàng)造者標明。來自虛擬人的通信,以及旨在操縱人類思維或行動的自動化互動,也應(yīng)該被貼上標簽。人們應(yīng)該了解他們所看到的東西,并且應(yīng)該有合理的選擇作為回報。
如何才能做到這一切呢?我發(fā)現(xiàn),人們幾乎一致認為,目前人工智能工具的黑箱性質(zhì)必須結(jié)束。這些系統(tǒng)必須變得更加透明。我們需要更好地說出系統(tǒng)內(nèi)發(fā)生了什么以及為什么。這并不容易。問題是,我們正在談?wù)摰拇竽P腿斯ぶ悄芟到y(tǒng)并不是由明確的想法構(gòu)成的。系統(tǒng)“想要什么”沒有明確的表述,它在做一件特定的事情時沒有標簽,比如操縱一個人。只有一個巨大的果凍海洋——一個龐大的數(shù)學(xué)混合體。一個作家權(quán)利團體提議,當GPT等工具被用于劇本創(chuàng)作時,真正的人類作者應(yīng)得到全額報酬,畢竟,系統(tǒng)是在借鑒真實人物的劇本。但是,當我們使用人工智能來制作電影片段,甚至可能是整部電影時,不一定會有一個編劇階段。一部電影被制作出來,可能看起來有劇本、配樂等,但它將作為一個整體被計算出來。試圖通過讓系統(tǒng)吐出腳本、草圖或意圖等不必要的項目來打開黑匣子,將涉及建立另一個黑匣子來解釋第一個黑匣子——一個無限的倒退。
同時,也不是說大模型內(nèi)部一定是一個人跡罕至的荒野。在過去的某個時刻,一個真實的人創(chuàng)造了一幅插圖,作為數(shù)據(jù)輸入到模型中,再加上其他人的貢獻,這就變成了一幅新鮮的圖像。大模型人工智能是由人組成的,而打開黑盒子的方法就是揭示它們。
我參與提出的一個概念,通常被稱為“數(shù)據(jù)尊嚴”。早在大模型“人工智能”興起之前,它就出現(xiàn)了,即人們免費提供他們的數(shù)據(jù)以換取免費服務(wù),如互聯(lián)網(wǎng)搜索或社交網(wǎng)絡(luò)。這種熟悉的安排被證明有黑暗的一面:由于“網(wǎng)絡(luò)效應(yīng)”,少數(shù)平臺接管了,淘汰了較小的參與者,如地方報紙。更糟糕的是,由于直接的在線體驗是免費的,剩下的唯一生意就是兜售影響力。用戶體驗到的似乎是一個集體主義的天堂,但他們卻被隱秘的、令人上癮的算法盯上,使人們變得虛榮、煩躁和偏執(zhí)。
在一個有數(shù)據(jù)尊嚴的世界里,數(shù)字的東西通常會與那些希望因制造它而聞名的人聯(lián)系起來。在這個想法的某些版本中,人們可以為他們創(chuàng)造的東西獲得報酬,即使這些東西是通過大模型過濾和重新組合的,而技術(shù)中心將因促進人們想要做的事而賺錢。有些人對網(wǎng)上資本主義的想法感到恐懼,但這將是一個更誠實的資本主義。人們熟悉的“免費”安排已經(jīng)是一場災(zāi)難。
科技界擔心人工智能可能成為生存威脅的原因之一是,它可能被用來玩弄人類,就像前一波數(shù)字技術(shù)那樣。考慮到這些新系統(tǒng)的力量和潛在影響,擔心可能滅絕也不是沒有道理的。由于這種危險已得到了廣泛的認識,大模型人工智能的到來可能是一個為改善科技行業(yè)而進行改革的機會。
落實數(shù)據(jù)尊嚴將需要技術(shù)研究和政策創(chuàng)新。在這個意義上,作為一個科學(xué)家,這個主題讓我感到興奮。打開黑匣子只會讓模型更有趣。而且它可能會幫助我們更多地了解語言,這是真正令人印象深刻的人類發(fā)明,也是我們在這幾十萬年后仍在探索的發(fā)明。
數(shù)據(jù)尊嚴能否解決人們對人工智能經(jīng)常表達的經(jīng)濟憂慮?主要的擔憂是,工人會被貶低或取代。在公開場合,技術(shù)人員有時候會說,在未來幾年,從事人工智能工作的人將會有更高的生產(chǎn)力,并會在一個更有生產(chǎn)力的經(jīng)濟中找到新的工作類型。(例如,可能成為人工智能程序的提示工程師——一些與人工智能合作或控制人工智能的人)然而,在私下里,同樣的人經(jīng)常會說,“不,人工智能將超越這種合作的想法”。今天的會計師、放射科醫(yī)生、卡車司機、作家、電影導(dǎo)演或音樂家再也賺不到錢。
當一個大模型提供有價值的輸出時,數(shù)據(jù)尊嚴的方法將追蹤最獨特和有影響力的貢獻者。例如,如果你要求一個模型制作一部動畫電影:我的孩子們在油彩世界中冒險,有會說話的貓。那么起關(guān)鍵作用的油畫家、貓的肖像畫家、配音演員和作家——或者他們的遺產(chǎn)——可能被計算為對新創(chuàng)作有獨特的重要性。他們將得到認可和激勵,甚至可能得到報酬。
起初,數(shù)據(jù)尊嚴可能只關(guān)注在特定情況下出現(xiàn)的少數(shù)特殊貢獻者。不過,隨著時間的推移,更多人可能會被包括進來,因為中間的權(quán)利組織——工會、行會、專業(yè)團體等開始發(fā)揮作用了。數(shù)據(jù)尊嚴圈子的人們有時稱這些團體為個人數(shù)據(jù)的調(diào)解人(MIDs)或數(shù)據(jù)信托。人們需要集體談判的力量,以便在網(wǎng)絡(luò)世界中擁有價值——特別是當他們可能在巨大的人工智能模型中迷失時。當人們在一個群體中分擔責(zé)任時,他們會自我監(jiān)督,減少政府和公司審查或控制的需要或誘惑。承認大模型的人類本質(zhì),可能會導(dǎo)致積極的新社會機構(gòu)開花結(jié)果。
數(shù)據(jù)尊嚴不僅僅針對白領(lǐng)角色??紤]一下,如果引入人工智能驅(qū)動的修剪樹木的機器人會發(fā)生什么。修剪樹木的人可能會發(fā)現(xiàn)自己的價值被貶低,甚至失去工作。但是,機器人最終可能使用一種新型的景觀美化藝術(shù)。一些工人可能會發(fā)明具有創(chuàng)造性的方法,比如從不同角度看都不一樣的全息圖案,這些方法會進入修剪樹木的模型。有了數(shù)據(jù)尊嚴,這些模型可能會創(chuàng)造新的收入來源,通過集體組織分配。隨著時間的推移,樹木修剪將變得功能更多和更有趣;將有一個社區(qū)被激勵出價值。每一個新的人工智能或機器人應(yīng)用的成功引入,都可能涉及一種新的創(chuàng)造性工作的開始。無論大小,這可以幫助緩和向整合大模型的經(jīng)濟的過渡。
硅谷的許多人將全民基本收入視為解決人工智能造成的潛在經(jīng)濟問題的辦法,但全民基本收入相當于讓每個人都依靠救濟金,以維護黑箱人工智能的想法。我認為這是一個可怕的想法,部分原因是不良行為者會想在一個全體福利制度中奪取權(quán)力中心。我懷疑數(shù)據(jù)尊嚴是否能增長到足以支撐整個社會,但我也懷疑任何社會或經(jīng)濟原則都會變得完整。只要有可能,目標應(yīng)該是至少建立一個新的創(chuàng)造階層,而不是一個新的依賴階層。
模型的好壞取決于其輸入。只有通過像數(shù)據(jù)尊嚴這樣的系統(tǒng),我們才能將模型擴展到新的領(lǐng)域。現(xiàn)在,讓大型語言模型寫一篇文章比讓程序生成一個互動的虛擬世界要容易得多,因為已有的虛擬世界非常少。為什么不通過給開發(fā)更多虛擬世界的人一個獲得聲望和收入的機會來解決這個問題?
數(shù)據(jù)尊嚴可以幫助解決任何一種人類滅亡的情況嗎?一個大模型可以讓我們變得無能,或者讓我們非常困惑,以至于社會集體走火入魔;一個強大、惡意的人可以利用人工智能對我們所有人造成巨大傷害;有些人還認為模型本身可以“越獄”,控制我們的機器或武器,用它們來對付我們。
我們不僅可以在科幻小說中找到其中一些情景的先例,還可以在更普通的市場和技術(shù)失敗中找到。一個例子是2019年波音737 MAX飛機的空難。這種飛機有飛行路徑校正功能,在某些情況下會與飛行員對抗,導(dǎo)致兩次出現(xiàn)大規(guī)模傷亡的墜機。問題不是孤立的技術(shù),而是它被整合到銷售周期、培訓(xùn)課程、用戶界面和文件中的方式。飛行員認為他們在某些情況下試圖抵制該系統(tǒng)是正確的,但他們的做法正是錯誤的,而且他們無從知曉。波音公司未能清楚地溝通技術(shù)的運作方式,由此產(chǎn)生的混亂導(dǎo)致了災(zāi)難。
任何工程設(shè)計——汽車、橋梁、建筑——都可能對人造成傷害,但我們卻在工程上建立了一個文明。正是通過提高和擴大人類的意識、責(zé)任和參與,我們才能使自動化變得安全;反之,如果我們把我們的發(fā)明當作神秘物品,我們就很難成為好的工程師。把人工智能看作是一種社會協(xié)作的形式更具有可操作性:它使我們能夠進入機房,機房是由人組成的。
讓我們考慮一下世界末日的情景,即人工智能使我們的社會脫離軌道??赡馨l(fā)生的一種方式是通過深度偽造。假設(shè)一個邪惡的人,也許在一個處于戰(zhàn)爭狀態(tài)的敵對政府工作,決定通過向所有人發(fā)送我們所愛的人被折磨或被綁架的令人信服的視頻,來煽動大眾的恐慌。(在許多情況下,制作這種視頻所需的數(shù)據(jù)很容易通過社交媒體或其他渠道獲得)?;靵y會接踵而來,即使很快就會發(fā)現(xiàn)這些視頻是偽造的。我們?nèi)绾尾拍芊乐惯@種情況的發(fā)生?答案很明顯:確保數(shù)字信息有背景(context)。
網(wǎng)絡(luò)的最初設(shè)計并沒有記錄比特的來源,可能是為了使網(wǎng)絡(luò)更容易快速發(fā)展。(一開始計算機和帶寬都很差。)為什么當記住比特的來源(或近似于來源)變得更可行時,我們不開始記錄?在我看來,我們總是希望網(wǎng)絡(luò)比它需要的更神秘。不管是什么原因,網(wǎng)絡(luò)生來是為了記住一切,同時忘記來源。
今天,大多數(shù)人理所當然地認為,網(wǎng)絡(luò),以及它所建立的互聯(lián)網(wǎng),就其性質(zhì)而言,是反背景、沒有出處的。我們認為,去背景化是數(shù)字網(wǎng)絡(luò)概念本身所固有的。然而,事實并非如此。不朽的科學(xué)家范尼瓦爾·布什(Vannevar Bush)在1945年、計算機科學(xué)家泰德·納爾遜(Ted Nelson)在1960年提出的數(shù)字網(wǎng)絡(luò)架構(gòu)的最初建議,就保護了出處?,F(xiàn)在,人工智能正在揭示忽視這種方法的真正代價。沒有出處,我們就沒有辦法控制我們的人工智能,也沒有辦法使它們在經(jīng)濟上公平。而這有可能將我們的社會推到邊緣。
如果一個聊天機器人出現(xiàn)了操縱性、刻薄、怪異或欺騙性的行為,當我們問及原因時,我們想要什么樣的答案?揭示機器人學(xué)習(xí)其行為時的來源,將提供一個解釋:我們會了解到它借鑒了一部特定的小說,或者一部肥皂劇。我們可以對這種輸出作出不同的反應(yīng),并調(diào)整模型的輸入以改善它。為什么不一直提供這種類型的解釋?在某些情況下,可能不應(yīng)該透露出處,以便優(yōu)先考慮隱私,但出處通常比對隱私的獨家承諾更有利于個人和社會。
數(shù)據(jù)尊嚴的技術(shù)挑戰(zhàn)是真實的,必須激發(fā)嚴肅的科學(xué)志向。政策上的挑戰(zhàn)也將是實質(zhì)性的。但我們需要改變思維方式,并接受艱苦的改造工作。如果堅持過去的想法——包括對人工智能獨立可能性的迷戀——我們就有可能以使世界變得更糟的方式使用新技術(shù)。如果社會、經(jīng)濟、文化、技術(shù)或任何其他活動領(lǐng)域要為人服務(wù),那只能是因為我們決定人享有被服務(wù)的特殊地位。
這是我對所有同行的懇求。想想人。人是解決比特問題的答案。
(原標題:“沒有人工智能”:美國知名科學(xué)家呼吁停止神化AI,實現(xiàn)數(shù)據(jù)尊嚴)
Copyright @ 2015-2022 太平洋家電網(wǎng)版權(quán)所有 備案號: 豫ICP備2022016495號-17 聯(lián)系郵箱:93 96 74 66 9@qq.com