999精品,丝袜综合,大陆老熟妇性,中国老女人AV,亚洲精品国产第一区二区三区

世界速訊:聚焦人工智能的法律與道德議題
發(fā)布時間:2022-08-18 08:10:18 文章來源:社科院網(wǎng)站
當前位置: 主頁 > 資訊 > 國內(nèi) > 正文

美國《華盛頓郵報》6月報道,美國谷歌(Google)公司的一名工程師稱,該公司研發(fā)的人工智能聊天機器人(LaMDA)作為一種優(yōu)化對話的自然語言處理模型,已具備感知能力。但谷歌公司并不同意這一說法,還為該工程師安排了“帶薪行政休假”,此事件在全球引發(fā)討論。7月,英國皇家國際事務研究所國際安全項目研究分析師亞斯米·艾菲娜(Yasmin Afina)于該機構(gòu)官網(wǎng)發(fā)表文章認為,過度炒作人工智能技術不僅危言聳聽,而且具有誤導性,有可能會轉(zhuǎn)移公眾對重大道德、法律等風險的注意力,使相關從業(yè)人員以一種對人工智能可靠性過度自信的態(tài)度開發(fā)新技術。只有聚焦法律與道德維度,人工智能的發(fā)展才會以人類社會的穩(wěn)定與福祉為前提。


(資料圖片僅供參考)

人工智能的內(nèi)在風險

從協(xié)助推進癌癥篩查研究到支持應對氣候變化的相關行動,人們看到了人工智能在推動社會各領域進步方面存在的巨大潛力。但這一切都建立在人工智能技術以可靠方式運行的基礎上,而且還要保證研究人員和終端用戶都能意識到技術的局限性,及其存在的法律、道德和社會風險,并積極尋求將風險帶來的傷害降至最低。然而,當前的媒體和人工智能行業(yè)存在一種不良傾向,就是對人工智能技術性質(zhì)和功能的描述過于夸張,隨之造成公眾對這些技術及其帶來的道德和法律風險的關注失焦。

事實上,已有越來越多的文獻記錄了這些普遍存在的技術帶來的危害,其中包括性別歧視、種族主義、能力歧視、權力集中、缺乏明確的民主監(jiān)督和問責機制以及侵犯隱私。例如,像谷歌的LaMDA這種大型語言模型,有可能協(xié)助完成諸如使用聊天機器人為客戶服務提供支持、以更快的速度和更高的準確性提高翻譯服務水平等過程,甚至可以收集和整理來自大型數(shù)據(jù)庫的關鍵模型和重要發(fā)現(xiàn)。然而,此類模型也存在固有的道德和法律風險。

第一,在吸收霸權世界觀的同時輸出有害偏見。研究人員發(fā)現(xiàn),從互聯(lián)網(wǎng)中收集的來自美國和英國的英語文本,過度凸顯了白人至上主義、厭惡女性、年齡歧視等觀點。如果將這些數(shù)據(jù)用于訓練大型語言模型,會不可避免地導致此類有害偏見的輸入。第二,惡意生產(chǎn)和傳播虛假信息,從而對個體和社會造成嚴重傷害。第三,與語言加速消失現(xiàn)象息息相關。大多數(shù)大型語言模型是通過英語和其他主要語言進行開發(fā)和訓練的,此類模型部署得越多、越普遍可靠,就越會導致地方性語言的破壞甚至消失。

正確敘事的重要性

人工智能技術對現(xiàn)實生活造成的嚴重影響,揭示了采用批判性方法看待這一問題的重要性。聳人聽聞的敘事方法不僅與現(xiàn)實脫節(jié),而且還會引發(fā)以下潛在風險。首先,對這些技術產(chǎn)生過度自信的情緒,并隨之導致對技術的過度依賴以及缺乏適當?shù)谋O(jiān)督。這主要是因為人工智能技術的能力和可靠性在無意中被夸大了,導致人們對其不足方面認識不到位。例如,對自動駕駛汽車和導航系統(tǒng)的過度自信,可能會對駕駛員和乘客的安全造成嚴重甚至致命的傷害。

其次,人工智能的擬人化可能會誤導政策制定者和公眾提出錯誤的問題。當前,主流的媒體和新聞敘事,將人工智能概念描繪得與人們的關聯(lián)性很強,而不僅僅是一些無形的、充滿代碼的程序,其實后者才更接近人工智能的本質(zhì)。隨著該領域的進一步發(fā)展,甚至有人認為人工智能越來越接近通用人工智能,即具有與人類相似智能水平的程序。這極有可能誤導公眾和政策制定者提出錯誤的問題,進而衍生出無意義的辯論方向,如機器人是否有法律責任,而非聚焦開發(fā)人員在致命事故中是否負有刑事責任等有意義的討論。

最后,關于人工智能的夸張描述,加上人工智能的擬人化,導致何為重要技術的門檻大幅提高。軍事領域的“殺手機器人”和“致命性自主武器系統(tǒng)”(LAWS)這兩個術語都是類似情況的產(chǎn)物,低于這種高門檻的技術有可能遭到忽視。有人為此爭辯,認為人工智能領域的絕大多數(shù)軍事投資不會用于致命性自主武器的開發(fā)。但這并不意味著低于“殺手機器人”和“致命性自主武器系統(tǒng)”的技術帶來的問題會有所減少,比如,那些為大規(guī)模監(jiān)視和情報收集而開發(fā)的程序也存在潛在風險。

重新定義討論范圍

如果不重新定義人工智能的討論范圍,包括國家和大型科技公司在內(nèi)的參與者,將有意避開法律和道德領域的討論,特別是正在開發(fā)和部署的技術領域,目的是為其技術合規(guī)鋪平道路。雖然主要利益相關者建立了應對關鍵道德和法律風險的流程,但過程不透明,缺乏適當?shù)谋O(jiān)督,最終還是無法解決這些技術的內(nèi)在風險。為此,應從以下幾方面著手避免人工智能技術帶來的傷害。

第一,來自公共和私營部門的主要利益相關者,要著力推動各界對人工智能技術的開發(fā)、部署和應用,及其社會影響和內(nèi)在風險進行有意義的討論。同時,討論要以多樣性、包容性和交叉性為基礎,在此過程中,將邊緣化人群和“非西方”的觀點融入合作與跨學科研究。

第二,增強評估意愿與開放態(tài)度,重新評估人工智能技術對政府和企業(yè)之間關系的影響,以及對人類的整體影響;判斷存在哪些特殊權利,使得部分人群因人工智能技術受益以及部分人群受到傷害;采取適當?shù)恼叽胧┯枰詰獙Α?/p>

第三,鑒于人機協(xié)作的范圍越來越廣以及人類愈加依賴人工智能,終端用戶及其他相關方必須清楚技術開發(fā)和部署背后的邏輯與限制,提高這種透明度至關重要。也就是說,必須形成開放且可以隨時訪問的機制,讓人們能夠驗證有關人工智能開發(fā)的聲明。

第四,提高政策制定者的技術素養(yǎng),將有助于作出有意義的決策,并防止因人工智能過度炒作和聳人聽聞的敘事方式而導致焦點偏移。當前,機器學習領域的研究迫切需要做出更大的努力,從道德和法律的視角出發(fā),重塑人工智能技術的開發(fā)和部署過程。

(龍豪/編譯)

標簽: 人工智能 人工智能技術 語言模型

最近更新