(相關(guān)資料圖)
財(cái)聯(lián)社4月15日訊(編輯 牛占林)在討論人工智能(AI)系統(tǒng)帶來的威脅時(shí),OpenAI的首席執(zhí)行官兼聯(lián)合創(chuàng)始人Sam Altman表示,人工智能確實(shí)存在重大的安全挑戰(zhàn),但暫停訓(xùn)練并非解決之道。此外,他還透露,目前該公司還沒有開發(fā)GPT-5。
當(dāng)?shù)貢r(shí)間周四,在麻省理工學(xué)院舉行的一個(gè)討論商業(yè)和人工智能的會議上,Altman對此前的“公開信事件”以及GPT-4等問題發(fā)表了講話。
Altman指出,馬斯克等人呼吁將人工智能研發(fā)工作暫停六個(gè)月的公開信缺乏“技術(shù)細(xì)節(jié)”。他表示,我也認(rèn)為需要謹(jǐn)慎行事,并提高人工智能的安全指導(dǎo)意見,但公開信中提到的方法并非正確的解決之道。
在3月29日,馬斯克等千名業(yè)界和學(xué)界人士聯(lián)署公開信,呼吁所有人工智能實(shí)驗(yàn)室立即暫停訓(xùn)練比GPT-4更強(qiáng)大的人工智能系統(tǒng),暫停至少6個(gè)月,以便制定和實(shí)施安全協(xié)議。
這些大佬們警告說,OpenAI和谷歌等人工智能研發(fā)的參與者在沒有對潛在風(fēng)險(xiǎn)進(jìn)行充分管理和規(guī)劃的情況下展開競賽。上周,美國總統(tǒng)拜登在白宮與一個(gè)科學(xué)家顧問委員會討論了這個(gè)話題。當(dāng)記者問及該技術(shù)是否危險(xiǎn)時(shí),拜登回應(yīng)稱:“還有待觀察,有可能是危險(xiǎn)的?!?
Altman補(bǔ)充道,我也同意,隨著人工智能的能力變得越來越強(qiáng)大,安全門檻必須提高。在今年早些時(shí)候,Altman承認(rèn)人工智能技術(shù)讓他“有點(diǎn)害怕”。他認(rèn)為,隨著人工智能技術(shù)的不斷發(fā)展,人類可能面臨著前所未有的挑戰(zhàn)和風(fēng)險(xiǎn)。
此外,Altman還明確表示,目前還未開發(fā)GPT-5,而且在一段時(shí)間內(nèi)也不會。然而,對于那些擔(dān)心人工智能安全的人來說,這些言論可能不會帶來太多安慰。
這位人工智能專家提到,人工智能監(jiān)管的一個(gè)重要挑戰(zhàn):難以衡量和跟蹤進(jìn)展。有編號的版本只是為了強(qiáng)調(diào)技術(shù)的明確發(fā)展,但并不能說明具體的技術(shù)進(jìn)步程度。實(shí)際上只是營銷工具,比如iPhone 35要比iPhone 34好。Altman指出,該公司仍在提升GPT-4的潛力。
Altman表示,大語言模型(LLM)的規(guī)??赡苷诮咏鼧O限,而且不是說規(guī)模越大就越好,人們太關(guān)注參數(shù)數(shù)量了,我認(rèn)為最重要的是提升性能。
與此同時(shí),據(jù)媒體最新報(bào)道,馬斯克計(jì)劃成立人工智能初創(chuàng)公司與Open AI競爭,他已經(jīng)為其人工智能初創(chuàng)公司獲得了英偉達(dá)處理器。
Copyright @ 2015-2022 太平洋家電網(wǎng)版權(quán)所有 備案號: 豫ICP備2022016495號-17 聯(lián)系郵箱:93 96 74 66 9@qq.com