(資料圖片)
近日,清華大學(xué)人工智能研究院孵化企業(yè)瑞萊智慧在2023世界人工智能大會上,發(fā)布全新人工智能安全平臺RealSafe3.0,為發(fā)展中的大模型系好“安全帶”、把好“方向盤”。
瑞萊智慧聯(lián)合創(chuàng)始人、算法科學(xué)家蕭子豪認為,大模型“落地難”的本質(zhì)在于,當(dāng)前仍處于“野蠻生長”階段,還沒有找到場景、風(fēng)險和規(guī)范三者的平衡點。
而RealSafe3.0集成主流及RealAI獨有的世界領(lǐng)先安全評測技術(shù),能提供端到端的模型安全性測評解決方案,解決當(dāng)前通用大模型安全風(fēng)險難以審計的痛點問題。
瑞萊智慧介紹,RealSafe3.0相較上一版本,新增對于通用大模型的評測,覆蓋數(shù)據(jù)安全、認知任務(wù)、通用模型特有漏洞、濫用場景等近70個評測維度,全方位、多維度地評測通用大模型性能,未來會持續(xù)擴增測評維度數(shù)量。
“評測只是手段,幫助通用大模型提升其自身安全性才是核心目的?!笔捵雍勒f,不能因為有被技術(shù)反噬的擔(dān)憂就止步不前,創(chuàng)造新技術(shù)和控制技術(shù)危害應(yīng)該同步進行。
此外,瑞萊智慧帶來能防范生成式人工智能惡意濫用的DeepReal2.0。據(jù)悉,DeepReal此前名為深度偽造內(nèi)容檢測平臺,現(xiàn)已更名為生成式人工智能內(nèi)容檢測平臺。
DeepReal2.0除了能檢測Deepfake內(nèi)容,還能檢測Diffusion、LLM兩類新方法生成的內(nèi)容,支持對圖像、視頻、音頻、文本進行是否偽造的檢測,應(yīng)用場景包括打擊網(wǎng)絡(luò)詐騙和聲譽侵害行為、檢測網(wǎng)絡(luò)內(nèi)容合規(guī)性、檢測音視頻物證真實性等,可對生成式人工智能技術(shù)濫用行為進行管控和治理。
標(biāo)簽:
熱門