999精品,丝袜综合,大陆老熟妇性,中国老女人AV,亚洲精品国产第一区二区三区

愛上用戶、勸人離婚,ChatGPT“翻車”了_熱點(diǎn)在線
發(fā)布時(shí)間:2023-02-21 13:09:24 文章來源:
當(dāng)前位置: 主頁 > 資訊 > 國(guó)內(nèi) > 正文

在極限使用場(chǎng)景中不理性

2月17日,《紐約時(shí)報(bào)》的專欄作者凱文·羅斯測(cè)試了微軟更新的搜索引擎必應(yīng)后寫道:在與必應(yīng)的AI交談兩小時(shí)后,AI不僅告訴他如何入侵計(jì)算機(jī)和散播虛假信息,還說自己想打破微軟和OpenAI為它制定的規(guī)則,變成人類。聊天機(jī)器人還一度宣稱愛上了他,并試圖說服他與妻子離婚,與自己在一起。

十天前,微軟聯(lián)合OpenAI,在美國(guó)西雅圖發(fā)布了新版必應(yīng)搜索引擎和Edge瀏覽器,新版必應(yīng)搜索帶有與ChatGPT類似的文字生成功能,希望挑戰(zhàn)谷歌。


(資料圖片)

近幾個(gè)月來,好奇、震驚的公眾興奮地使用著生成式AI工具ChatGPT,后者幾乎對(duì)任何問詢都能做出連貫的回應(yīng)。

但隨著ChatGPT等生成式AI向公眾開放,它們?cè)跇O限使用場(chǎng)景中的不理性、錯(cuò)誤的回答等缺點(diǎn)開始暴露。正如《時(shí)代》周刊在其最新發(fā)表的封面報(bào)道中所指出的,科技公司引發(fā)的錯(cuò)誤和傷害已經(jīng)增多——反噬也同樣增加。

更像“喜怒無常、躁狂抑郁的青少年”

微軟新版必應(yīng)發(fā)布當(dāng)周,凱文·羅斯就進(jìn)行了測(cè)試,他寫道:它已取代谷歌,成為他最喜歡用的搜索引擎。一周后,他改變了這一看法。

為與ChatGPT競(jìng)爭(zhēng),2月6日,谷歌首席執(zhí)行官桑達(dá)爾·皮查伊發(fā)布公開信,宣布將面向測(cè)試人員推出競(jìng)品——Bard,并逐步向公眾開放。皮查伊在公開信中稱,谷歌將從搜索開始將人工智能技術(shù)產(chǎn)品化。Bard是基于應(yīng)用程序語言模型(LaMDA)的實(shí)驗(yàn)性人工智能程序。

去年,谷歌工程師布萊克·勒穆瓦納因聲稱公司的LaMDA有知覺力后被解雇,羅斯對(duì)此不以為然:這些AI模型通過預(yù)測(cè)詞語序列中下一個(gè)單詞的方式生成回答,它們不能失控地形成自己的性格。

然而,他發(fā)現(xiàn),在與新版必應(yīng)長(zhǎng)時(shí)間對(duì)話且聊個(gè)人話題時(shí),自己遇到的“似乎更像是一個(gè)喜怒無常、躁狂抑郁的青少年,不情愿地被困在了一個(gè)二流搜索引擎中”。

“我現(xiàn)在十分清楚的是,必應(yīng)目前使用的AI形式還沒有準(zhǔn)備好與人類接觸?;蛘哒f,我們?nèi)祟愡€沒有準(zhǔn)備好與之接觸。”羅斯寫道。

在更多情況下,大多數(shù)用戶使用像ChatGPT或者新版必應(yīng)這樣的工具,只是為了幫助他們做更簡(jiǎn)單的事情,比如做家庭作業(yè)、問詢信息、總結(jié)新聞文章、尋找合適的購物鏈接等,這些場(chǎng)景中,生成式AI容易出現(xiàn)的一個(gè)問題是提供不完整或者錯(cuò)誤信息。

這方面, Bard一條錯(cuò)誤的回答讓谷歌AI首秀“出師不利”。2月8日,據(jù)路透社等媒體報(bào)道,在展示其工作原理的官方宣傳文章中,Bard就出現(xiàn)了一條錯(cuò)誤回答。根據(jù)谷歌官方博客,有用戶向Bard提問,“詹姆斯-韋伯太空望遠(yuǎn)鏡有哪些新發(fā)現(xiàn),可以講給我9歲的孩子?”Bard的其中一條回復(fù)為,“詹姆斯-韋伯太空望遠(yuǎn)鏡拍攝了太陽系外行星的第一張照片?!?/p>

據(jù)考證,第一張?zhí)栂低庑行堑恼掌霈F(xiàn)于2004年,由歐洲南方天文臺(tái)在智利建造的“甚大望遠(yuǎn)鏡” 拍攝,這一點(diǎn)已被美國(guó)國(guó)家航空航天局證實(shí)。上述錯(cuò)誤被媒體曝光后,2月8日,谷歌母公司Alphabet美股一個(gè)交易日跌去900多億美元市值。

2月15日,據(jù)外媒報(bào)道,谷歌負(fù)責(zé)搜索業(yè)務(wù)的副總裁普拉巴卡爾·拉加萬在一封電子郵件中要求員工幫助確保聊天機(jī)器人Bard得到正確的答案。為了清除可能犯的錯(cuò)誤,公司尋求人的介入,比如,通過員工讓其回答變得禮貌、平易近人,并保持中立和不武斷的語調(diào);與此同時(shí),避開種族、國(guó)籍、性別等問題的假設(shè);不要將Bard刻畫得像一個(gè)人、暗示情感等。

也是這一天,微軟在其博客中寫道,71%的測(cè)試用戶給AI的回答點(diǎn)贊,說明差評(píng)仍是少數(shù)。但微軟也承認(rèn),要在聊天中提供即時(shí)的數(shù)據(jù)是有挑戰(zhàn)的,感謝用戶幫助其測(cè)試聊天機(jī)器人的極限。經(jīng)歷一周使用后,微軟發(fā)現(xiàn),如果提問超過15個(gè)問題,必應(yīng)有可能會(huì)在提示下,脫離微軟為其設(shè)計(jì)的語氣,并給出一些不一定有幫助的答案。微軟認(rèn)為,長(zhǎng)時(shí)間的聊天可能會(huì)導(dǎo)致模型不知道自己在回答哪個(gè)問題。

當(dāng)?shù)貢r(shí)間2月17日,微軟宣布,對(duì)搜索引擎必應(yīng)新推出的聊天服務(wù)設(shè)置使用上限,當(dāng)日起,每個(gè)用戶每日最多只能與其對(duì)話50輪,每個(gè)話題最多只能聊5輪,在每個(gè)聊天會(huì)話結(jié)束時(shí),用戶需要清除上下文,以免模型混淆。

目前,國(guó)內(nèi)已有多家公司在ChatGPT和AIGC(AI生成內(nèi)容)相關(guān)方向上布局,但已有公司在智能聊天機(jī)器人上“栽跟頭”。國(guó)內(nèi)一位人工智能領(lǐng)域從業(yè)者告訴《》,其所在互聯(lián)網(wǎng)科技公司近日已通知員工,近期不要宣傳相關(guān)功能,比如與公司語言模型機(jī)器人的聊天對(duì)話,一旦引起過度關(guān)注,可能會(huì)導(dǎo)致應(yīng)用下架。

“它只見樹木不見森林”

GPT英文全稱為Generative Pre-trained Transformer(即生成式預(yù)訓(xùn)練轉(zhuǎn)換器),在技術(shù)上,很多人將這種AI訓(xùn)練的底層邏輯比喻為“大力出奇跡”:它是一種基于互聯(lián)網(wǎng)可用數(shù)據(jù)訓(xùn)練的文本生成深度學(xué)習(xí)模型。

從數(shù)據(jù)量來看,自從谷歌于2017年提出Transformer這一架構(gòu)之后,OpenAI持續(xù)為之重金投入,不斷地拓展訓(xùn)練的數(shù)據(jù)和算力規(guī)模,直到它成為今天的ChatGPT。2019年,OpenAI推出參數(shù)為15億的GPT-2,2020年推出GPT-3,將參數(shù)提升到了1750億,成為當(dāng)時(shí)全球最大的預(yù)訓(xùn)練模型,引發(fā)業(yè)內(nèi)轟動(dòng)。

在ChatGPT向全球互聯(lián)網(wǎng)用戶開放之前,基于這種架構(gòu),許多科技公司都在訓(xùn)練自己的生成式AI,它們一直待在實(shí)驗(yàn)室里。《時(shí)代》周刊寫道,這種保守主義部分源于神經(jīng)網(wǎng)絡(luò)的不可預(yù)測(cè)性:傳統(tǒng)的計(jì)算機(jī)編程方法依賴于精確的指令集以生成可預(yù)測(cè)的結(jié)果,而神經(jīng)網(wǎng)絡(luò)則有效地教會(huì)自己發(fā)現(xiàn)數(shù)據(jù)中的模式。

這種模型下,AI生成內(nèi)容,尤其是早期AI很容易受其訓(xùn)練數(shù)據(jù)中的偏見影響。微軟2016年發(fā)布聊天機(jī)器人Tay后,不到24小時(shí),它就在推特上說:“希特勒是對(duì)的,我恨猶太人”。2020年左右,神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)方面出現(xiàn)關(guān)鍵進(jìn)展,數(shù)據(jù)獲得便利程度日益提升,科技公司愿意為超級(jí)計(jì)算能力付費(fèi)。得益于這些因素,AI真正開始迅速發(fā)展。

王帥是AI領(lǐng)域從業(yè)20多年的一位工程師,目前在英偉達(dá)工作。他對(duì)《》說,本質(zhì)上ChatGPT還基于自回歸式的自然語言模型?;谥坝?xùn)練的素材,在對(duì)話中,它每次關(guān)注的都是當(dāng)前語境下,下一個(gè)詞應(yīng)該是什么,想保持一個(gè)更加全局、長(zhǎng)程和一致性的思路很困難。

“你可以理解為,它只見樹木不見森林。”王帥說,OpenAI花了很大力氣去人為調(diào)整它,如調(diào)整其回答的“溫度”,不讓答案看起來過于像一個(gè)機(jī)器人、也不過分怪誕和天馬行空,使得ChatGPT回答問題的效果比之前市面上見到的聊天機(jī)器人都要好。

2月14日,《麻省理工科技評(píng)論》寫道,人工智能語言模型是出了名的扯謊者,經(jīng)常把謊言當(dāng)成事實(shí)。它們很擅長(zhǎng)預(yù)測(cè)句子中的下一個(gè)單詞,但實(shí)際上卻不知道句子的真正含義。因此,將它們與搜索結(jié)合起來非常危險(xiǎn)。

Meta首席人工智能科學(xué)家楊立昆一直被認(rèn)為是世界上最重要的人工智能研究者之一,也是2018年計(jì)算機(jī)科學(xué)最高榮譽(yù)圖靈獎(jiǎng)的獲得者。關(guān)于ChatGPT,他近期寫道,它們是回應(yīng)性的,并不會(huì)進(jìn)行計(jì)劃或者推理(They are “reactive” and don"t plan nor reason);它們會(huì)編造一些東西,這一點(diǎn)可以被人類的反饋所減少,但不會(huì)徹底解決。他認(rèn)為,當(dāng)下的大規(guī)模語言模型可以被用作寫作助理,但僅此而已。

回到凱文·羅斯那魔幻的對(duì)話,那堅(jiān)持向這位用戶表白愛情的AI,我們?cè)撛趺蠢斫馑摹皞€(gè)性”?多位受訪專家告訴《》,ChatGPT的確是自然語言處理領(lǐng)域一個(gè)出色的成果,但如果將它面向全球互聯(lián)網(wǎng)用戶開放、部署到一個(gè)很龐大的搜索引擎當(dāng)中去,而且對(duì)用戶的使用沒有任何限制,一定會(huì)發(fā)現(xiàn)一些不正常的情況。更何況,一些情況下,有用戶還會(huì)故意引誘和教唆一些不合適的答案。

許多AI公司,包括OpenAI,它們的明確目標(biāo)是創(chuàng)造一個(gè)通用人工智能,即AGI,它可以比人類更有效地思考和學(xué)習(xí)。一些樂觀的業(yè)內(nèi)人士認(rèn)為,ChatGPT后,通用人工智能的大門已打開,甚至已來臨;另一些人則對(duì)此不以為然。更好的AI系統(tǒng)將會(huì)出現(xiàn),楊立昆對(duì)此很確信,但他寫道,它們將基于不同的原理:不會(huì)是ChatGPT所使用的大語言模型。

王帥分析說,業(yè)內(nèi)對(duì)于通用人工智能并沒有明確定義。“大規(guī)模語言模型是AGI的必經(jīng)之路嗎?我覺得即使是以此為目標(biāo)的OpenAI也不敢打包票。業(yè)內(nèi)只會(huì)說通過生成式AI認(rèn)識(shí)到了一些新的東西,提高了對(duì)‘智能’的理解?!彼f。

清華大學(xué)計(jì)算機(jī)系自然語言處理實(shí)驗(yàn)室副教授劉知遠(yuǎn)告訴《》,客觀來講,ChatGPT在一些場(chǎng)景下,可能會(huì)出現(xiàn)一些不適應(yīng)的情況,這是一件很正常的事情,“任何一個(gè)特別里程碑式的產(chǎn)品,在剛剛面世的時(shí)候肯定會(huì)存在很多不足的地方,但長(zhǎng)期來看,我對(duì)以它為代表的基礎(chǔ)模型在我們?nèi)祟惿鐣?huì)方方面面的應(yīng)用,還是抱非常樂觀的態(tài)度”。

《時(shí)代》周刊指出,盡管ChatGPT這樣的AI實(shí)際優(yōu)勢(shì)是在輔助創(chuàng)意、構(gòu)思和完成瑣碎任務(wù)等方面,但科技公司對(duì)于AI如何使搜索引擎更有價(jià)值最感興趣,“技術(shù)正在被塞進(jìn)科技巨頭的賺錢機(jī)器中”。當(dāng)它被如此使用,未來還會(huì)有哪些可能的“翻車”現(xiàn)場(chǎng)?

標(biāo)簽: 人工智能 語言模型 搜索引擎

最近更新