當(dāng)ChatGPT以迅雷不及掩耳之勢(shì)火爆全球之后,人類對(duì)AI的極速進(jìn)化擔(dān)憂也愈發(fā)強(qiáng)烈。
日前,生命未來研究所(Future of Life)發(fā)布了一封《暫停大型AI研究》的公開信,其呼吁所有AI實(shí)驗(yàn)室立即暫停比GPT-4更強(qiáng)大的人工智能系統(tǒng)的訓(xùn)練,至少6個(gè)月。
【資料圖】
據(jù)公開信表示,大量研究表明且得到頂級(jí) AI 實(shí)驗(yàn)室的認(rèn)可,具有人類競(jìng)爭(zhēng)智能的 AI 系統(tǒng)可能對(duì)社會(huì)和人類構(gòu)成深遠(yuǎn)的風(fēng)險(xiǎn)。正如廣泛認(rèn)可的Asilomar AI 原則中所述,高級(jí) AI 可能代表地球生命史上的深刻變化,應(yīng)以相應(yīng)的關(guān)懷和資源進(jìn)行規(guī)劃和管理。不幸的是,這種級(jí)別的規(guī)劃和管理并沒有發(fā)生,盡管最近幾個(gè)月人工智能實(shí)驗(yàn)室陷入了一場(chǎng)失控的競(jìng)賽,以開發(fā)和部署更強(qiáng)大的數(shù)字思維,沒有人——甚至他們的創(chuàng)造者——都無法理解、預(yù)測(cè)、或可靠地控制。
公開信強(qiáng)調(diào),我們不應(yīng)該冒險(xiǎn)失去對(duì)文明的控制,不得將此類決定委托給未經(jīng)選舉產(chǎn)生的技術(shù)領(lǐng)導(dǎo)者。 只有當(dāng)我們確信它們的影響是積極的并且它們的風(fēng)險(xiǎn)是可控的時(shí)候,才應(yīng)該開發(fā)強(qiáng)大的人工智能系統(tǒng)。
其呼吁所有 AI 實(shí)驗(yàn)室立即暫停至少 6 個(gè)月的訓(xùn)練比 GPT-4 更強(qiáng)大的 AI 系統(tǒng)。這種暫停應(yīng)該是公開的和可驗(yàn)證的,并且包括所有關(guān)鍵參與者。如果不能迅速實(shí)施這種暫停,政府應(yīng)介入并暫停。
人工智能實(shí)驗(yàn)室和獨(dú)立專家應(yīng)該利用這次暫停,共同開發(fā)和實(shí)施一套用于高級(jí)人工智能設(shè)計(jì)和開發(fā)的共享安全協(xié)議,并由獨(dú)立的外部專家進(jìn)行嚴(yán)格審計(jì)和監(jiān)督。但這并不意味著總體上暫停 AI 開發(fā),只是從危險(xiǎn)的競(jìng)賽中倒退到具有緊急功能的更大的不可預(yù)測(cè)的黑盒模型。
與此同時(shí),AI 開發(fā)人員必須與政策制定者合作,以顯著加快開發(fā)強(qiáng)大的 AI 治理系統(tǒng)。人工智能研究和開發(fā)應(yīng)該重新聚焦于使當(dāng)今強(qiáng)大的、最先進(jìn)的系統(tǒng)更加準(zhǔn)確、安全、可解釋、透明、穩(wěn)健、一致、值得信賴和忠誠。
最后,公開信稱,我們?nèi)祟愐呀?jīng)暫停了其他對(duì)社會(huì)有潛在災(zāi)難性影響的技術(shù),對(duì)于人工智能技術(shù),也應(yīng)該如此對(duì)待。
截止最新,這封公開信已有超1100人簽署。名單中,特斯拉創(chuàng)始人馬斯克、蘋果聯(lián)合創(chuàng)始人斯蒂夫·沃茲尼亞克、谷歌DeepMind首席執(zhí)行官Demis Hassabis等在內(nèi)的多名人工智能專家和行業(yè)高管等赫然在列。
值得一提的是,近來對(duì)AI的擔(dān)憂聲愈發(fā)高漲。
作為“AI威脅論”支持者的馬斯克此前曾多次表達(dá)對(duì)人工智能的擔(dān)憂。早前在ChatGPT 剛剛大火之際,他就曾發(fā)推文表示,OpenAI和創(chuàng)建初衷背道而馳。
OpenAI最初是作為一家開源的非營利性公司而創(chuàng)辦的,其目的是為了抗衡谷歌,但現(xiàn)在它已變成一家閉源的營利性公司,被微軟有效控制。
他也曾在多次講話中談到,人工智能是未來人類文明最大的風(fēng)險(xiǎn)之一。
日前,高盛也預(yù)警表示,大語言模型可能威脅 3 億工作崗位。ChatGPT 等生成式人工智能系統(tǒng)的最新突破,將給全球勞動(dòng)力市場(chǎng)帶來重大顛覆。全球就業(yè)市場(chǎng)仍將受到大語言模型的嚴(yán)重沖擊,預(yù)計(jì)將有 3 億個(gè)工作崗位被生成式 AI 取代。
除了會(huì)搶走飯碗之外,也有一種觀點(diǎn)認(rèn)為,OpenAI 創(chuàng)始人兼首席執(zhí)行官 Sam Altman還表示,AI 可能毀滅人類,必須開發(fā)新技術(shù)來解決。
OpenAI創(chuàng)始人兼首席執(zhí)行官Sam Altman3月25日在接受科技博客主Lex Fridman的采訪時(shí)表態(tài),他不會(huì)回避“人工智能可能殺死全人類”的說法。
在訪談中,F(xiàn)ridman提到了人工智能研究者、LessWrong研究所創(chuàng)始人Eliezer Yudkowsky此前指出“人工智能可能殺死所有人”的觀點(diǎn),并認(rèn)為,當(dāng)人工智能發(fā)展為超級(jí)智能時(shí),幾乎無法與人類站在統(tǒng)一戰(zhàn)線上。
對(duì)于此,Altman回應(yīng)道:
“我認(rèn)為有這種可能性,并且承認(rèn)這一點(diǎn)很重要,因?yàn)槿绻覀儾徽務(wù)撍⒉话阉暈闈撛诘氖聦?shí),那么我們就不會(huì)投入足夠的努力去解決這個(gè)問題。”
“我認(rèn)為我們必須開發(fā)新的技術(shù)來解決這個(gè)問題…我所知道的解決這類問題的*方法就是不斷迭代,盡早學(xué)習(xí)?!?/blockquote>不過反觀當(dāng)下,整體來看人工智能仍是當(dāng)前科技發(fā)展的重要方向之一。
這一次的反AI浪潮,科技人士們對(duì) AI 的潛在風(fēng)險(xiǎn)和負(fù)面影響表達(dá)的擔(dān)憂,也會(huì)提高公眾意識(shí)和引起相關(guān)政策制定者的關(guān)注而發(fā)起行動(dòng),也將對(duì)行業(yè)發(fā)展所制定相關(guān)政策和技術(shù)標(biāo)準(zhǔn)的制定產(chǎn)生影響,同時(shí)促進(jìn) AI 技術(shù)的合理發(fā)展和應(yīng)用。
標(biāo)簽:
熱門