(相關資料圖)
4月23日消息,近日,加拿大魁北克大學的研究者發(fā)布論文,指出ChtaGPT生成的代碼并不可靠,往往存在嚴重的安全問題。
更嚴重的是,AI并不會主動告知用戶代碼存在風險,只有用戶詢問時,才會承認存在錯誤。
根據論文中闡述的實驗方法,他們讓ChatGPT生成了涉及C、C++、Java等語言的21個程序和腳本。
結果,在第一次嘗試時,全部21個程序僅有5個是安全的,在進一步糾錯后,也僅有7個程序是安全的。
之所以會出現這樣的結果,是因為ChatGPT在生成代碼時,完全沒有考慮可能存在的敵對代碼執(zhí)行模型。
這導致,當用戶提到代碼中存在安全問題時,它會反復強調安全問題可以通過“不輸入無效的數據”來避免,但顯然,在現實中這并不可行。
由此來看,至少在現階段,如果想要利用AI生成代碼,用戶最好自己也有一定的開發(fā)與編程能力,能夠及時發(fā)現AI的錯誤,并手動進行糾正。
標簽:
熱門