中新網(wǎng)北京3月3日電(記者 謝藝觀)“AI‘幻覺(jué)’有利于文學(xué)創(chuàng)作,但在AI安全方面,‘幻覺(jué)’確實(shí)會(huì)帶來(lái)嚴(yán)重問(wèn)題。”
全國(guó)政協(xié)委員、360集團(tuán)創(chuàng)始人周鴻祎近日在北京接受中新網(wǎng)等媒體采訪時(shí)談及AI“幻覺(jué)”的兩面性。
AI“幻覺(jué)”,是指人工智能系統(tǒng)(自然語(yǔ)言處理模型)生成的內(nèi)容與真實(shí)數(shù)據(jù)不符,或偏離用戶指令的現(xiàn)象。
“企業(yè)內(nèi)部應(yīng)用大模型時(shí),如果該企業(yè)屬于醫(yī)療、法律、金融、證券等領(lǐng)域,或者用于生產(chǎn)制造等不容出錯(cuò)的地方,大模型一旦胡亂編造信息,就會(huì)帶來(lái)嚴(yán)重后果。”周鴻祎舉例。
如何防止AI出現(xiàn)“幻覺(jué)”?周鴻祎認(rèn)為,企業(yè)應(yīng)用相關(guān)技術(shù)時(shí),要連接企業(yè)專有的知識(shí)庫(kù),去進(jìn)行校正。“幻覺(jué)”問(wèn)題,部分是能通過(guò)知識(shí)庫(kù)解決的。
但他也指出,當(dāng)大模型連接知識(shí)庫(kù),就會(huì)帶來(lái)數(shù)據(jù)安全的問(wèn)題?!爸悄荏w的安全、數(shù)據(jù)的安全、客戶端的安全,還有基座模型的安全,構(gòu)成一個(gè)新的人工智能安全新領(lǐng)域。解決方法就是‘以模制?!?。”(完)