近日,多家網絡安全上市公司公布網絡安全領域AI技術應用的新進展。綠盟科技、北信源向記者透露AI創(chuàng)新成果,深信服、亞信安全等企業(yè)相繼公布應用AI技術的網絡安全產品以及市場應用。
行業(yè)專家認為,AI技術應用在帶來新型安全風險的同時,也為網絡安全行業(yè)提升效率、提高產品能力帶來機遇。
“網絡安全+AI”成研發(fā)重點
9月23日,記者獲悉,綠盟科技將于近期發(fā)布保護大模型自身安全的網絡安全產品,包括AI安全一體機、AI安全圍欄、大模型安全評估系統(tǒng)以及相關的服務和解決方案。
綠盟科技副總裁宮智介紹,目前綠盟科技通過深入研究AI系統(tǒng)的安全風險,針對客戶AI系統(tǒng)的不同應用模式,提供場景化的產品和服務,幫助客戶全面提升AI體系的整體安全防護能力,實現(xiàn)在線AI系統(tǒng)的安全合規(guī)。
北信源董事、副總裁高曦近日對記者表示,AI技術幫助企業(yè)提升開發(fā)效率,完善產品性能。公司已開發(fā)出AI能力平臺,集成了大模型、開發(fā)工具和知識庫,可進行私有化部署。此外,公司已在金融、能源行業(yè)等領域交付了應用AI技術的相關軟件產品。
多家網絡安全上市公司正在積極投入AI技術研發(fā)。深信服在投資者互動平臺表示,持續(xù)將人工智能技術與能力融入網絡安全和云計算各項產品與服務中,截至目前已將大模型技術應用到網絡安全產品,形成安全GPT、融合AI能力的AI防火墻和其他多款安全產品,并計劃未來繼續(xù)加大對AI技術的研發(fā)投入。
天融信表示,公司已在AI+安全、智算云等新方向進行布局和投入,目前已形成“云、管、邊、端”全棧安全產品體系與智算云綜合解決方案,并在多行業(yè)實現(xiàn)規(guī)模化應用。未來將重點推動網絡安全、智算云產品與人工智能等新興場景的深度融合。
螞蟻集團也于近日發(fā)布了融合網絡安全與AI技術的創(chuàng)新產品及解決方案。其中,智能眼鏡可信連接技術框架gPass已與Rokid、小米、夸克、雷鳥等智能眼鏡品牌合作,率先落地“看一下支付”場景。在大模型安全方面,螞蟻集團展示了AIGC濫用檢測、深度偽造防御在內的多項解決方案。
另外,啟明星辰表示,其開發(fā)的安星智能體已經應用于安全運營、威脅檢測、數據安全等產品或服務中,顯著提升了產品的能力和服務的效率。亞信安全稱,上半年,公司AI大模型應用與交付業(yè)務實現(xiàn)顯著增長,未來公司將持續(xù)聚焦AI大模型應用與交付、5G專網與應用、數智運營三大增長引擎,加快簽單節(jié)奏。
AI應用帶來安全新挑戰(zhàn)
信息技術咨詢公司Gartner的報告顯示,中國網絡安全的重點正逐步轉向保障人工智能的安全,實現(xiàn)業(yè)務轉型并加強企業(yè)、機構的韌性。
Gartner高級研究總監(jiān)陳延全稱,預計到2027年,60%的中國大型企業(yè)將在安全運營中心采用暴露面管理技術,以提升事件響應效率并減少漏洞。預計到2028年,在部署AI技術的中國企業(yè)中,60%企業(yè)將實施協(xié)作式AI防御策略,整合跨職能團隊應對AI網絡安全風險,而目前這一比例僅為5%。
綠盟科技副總裁曹嘉表示,企業(yè)應用AI大模型時需警惕提示詞注入、模型被誘導等風險?!半m然這些風險在模型運營商或開發(fā)廠商中出現(xiàn)的概率較低,但仍需重點關注。目前,行業(yè)主要依賴電子圍欄技術來防止模型被誘導輸出違規(guī)內容?!辈芗握f,另外云計算的安全問題須引起重視。
綠盟科技首席創(chuàng)新官劉文懋則提到工具鏈安全的重要性。他解釋稱,在企業(yè)應用AI大模型過程中,工具鏈漏洞和配置錯誤可能導致嚴重的數據泄露,例如智能體調用第三方工具時存在的風險。他呼吁重視軟件供應鏈安全,采取加強版本漏洞管理、代碼安全審計等基礎安全措施。
360集團創(chuàng)始人周鴻祎近日公開表示,大模型在帶來機遇的同時也帶來了惡意利用、內容安全、幻覺問題、提示詞攻擊等風險。大模型既是生產力工具,也可能成為新的攻擊載體和攻擊入口,政府和企業(yè)的數據資產、商業(yè)機密面臨著前所未有的暴露風險,保障AI安全是一項長期而艱巨的任務。
奇安信在投資者互動平臺表示,大模型能顯著提升網絡安全企業(yè)的能力和效率,產生“乘數效應”。該公司認為,當前政企推廣智能體應用的趨勢,類似于二三十年前普及網站的浪潮。然而,智能體應用也帶來了爆炸式增長的安全風險,因為它們往往擁有企業(yè)內網的超級權限。奇安信建議企業(yè)加強跨部門協(xié)作,構建動態(tài)防御體系,特別是部署特權賬號管理系統(tǒng),以應對AI智能體帶來的安全風險。
構建AI安全防護網
在保障AI應用安全方面,行業(yè)專家們認為,可以從大模型強制備案、構建體系化防護入手,保障企業(yè)應用AI過程中的安全。
曹嘉認為,AI大模型備案應成為強制性要求,模型廠商可以到當地網信部門進行基礎評估,提前識別風險,讓使用者更全面地理解其安全性與可用性。
“與傳統(tǒng)軟件和基礎設施相比,AI大模型的風險更大、更泛化,必須由專業(yè)安全廠商進行持續(xù)投入。未來,大模型的檢測與防御將走向一體化,客戶需要從產品開發(fā)、代碼審計等全流程進行規(guī)劃?!辈芗握f。
此外,AI大模型的運營單位可以通過構建防護體系,保障AI應用安全。首先開展合規(guī)評估,對照監(jiān)管規(guī)定、合規(guī)檢查清單進行自查;其次是部署專項防護,引入AI安全圍欄等技術,防御新型攻擊,并確保過程可審計、可追溯;再是考慮引入第三方評估,定期進行滲透測試和安全評估,獲取權威報告,降低責任風險。
劉文懋認為,AI技術應用將為各行業(yè)帶來爆發(fā)式增長,但安全問題限制了數據流通。他認為,通過安全手段建立信任,推動數據流通,并將AI全面應用于各類場景,將為各行業(yè)釋放巨大價值。(作者 鄭萃穎)