AI安全是一場須立即投入的軍備競賽

李維斌:AI安全是一場須立即投入的軍備競賽

台灣產業界從2017年左右開始大舉投入,目前AI發展邁向落地應用;AI攻擊、防禦技術就像一場軍備競賽,各國都已積極投入,「但是到目前為止,AI和資安這兩個領域還沒有開始對話。」

回顧2021年,除了疫情、晶片和供應鏈,資訊安全也是產業界關注的重點。一方面因為多家知名企業網路系統被駭客入侵或綁架,造成影響範圍不同的傷害;另一方面,政府也開始積極進行規範,如金管會宣布2022年第一季前,符合一定條件的證券商、期貨、投信投顧與銀行業,須設立副總級以上資安長。

資訊安全 (Cyber Security) 的重要性已是共識,那麼逐漸邁向落地應用的AI呢?如何確保使用AI時的資訊安全,以避免造成對生命、財產或是整個社會的傷害?

人工智慧科技基金會董事長、鴻海研究院執行長李維斌,也是台灣知名的資安專家,他指出,AI本身的安全是各種不同產業都必須儘快面對的挑戰,當然,也是台灣重要的機會。

AI資通安全更為複雜難解

李維斌表示,由於AI技術的不透明性、複雜度與不可解釋,造成實作資訊安全措施的困難。「攻擊可能透過原始資料、模型,甚至是雜訊干擾進行,」他舉例,如果衣服上有一個人眼無法辨識但足以干擾鏡頭判讀的圖形,很可能就讓自駕車誤判穿上這件衣服的人「不是人」。或者因為AI的誤判,讓健康檢查結果產生誤差,而衍生出許多個人與家庭的問題。

這幾年AI已經廣泛應用於網路搜尋、社交軟體、自然語言處理、自動駕駛汽車、自動決策系統等,都可能成為被攻擊的目標。然而,令人憂心的是,AI系統的資通安全標準在台灣尚未出現,甚至還沒有開始起步。

「很多人討論AI for cybersecurity (人工智慧在資通安全的應用),但Security of AI (人工智慧本身的安全問題) 還沒有受到足夠重視,」李維斌說,依照美國國家科學科技理事會NSTC的定義,AI Security應該包括以下幾項:

1、系統的規格驗證,以確保功能、安全、穩健性與公平性
2、AI所做的決策能被信任
3、偵測與減少對抗例的輸入 (Adversarial Inputs)
4、AI賦能系統被信任

資安是各國AI政策關鍵

而這幾項其實包括了技術、專利標準、認證、法令規範、甚至文化等多種領域的共識,不可能由某一個政府單位或單一企業就能夠打造出這樣的系統。但是不同於現在大家所知道的網路資訊安全,AI因為應用範圍廣,且需要蒐集大量行為數據,幾乎已經成為大家生活的一部分。「直接牽涉每個人的財產、健康甚至生命安全,」李維斌說,所以如何建立AI 的資通安全認證標準,更是必須儘快著手進行的關鍵議題。

世界積極投入發展AI的國家,大部份也都同步投入AI Security的認證標準研究,從美國、歐盟、德國、英國、新加坡等,通常都是在擘劃國家AI發展策略時就將AI Security視為不可或缺的部分,對岸同樣有多個單位同時積極投入。李維斌強調:「security必須是default (預設前提),不能再是補救。」

安全AI系統必須具備要件

那麼,安全的AI系統應該有哪些條件?李維斌指出,從目前世界各國提出的規範與要求看來,大概包括以下幾個項目:

1、保密性:要求 AI 技術生命週期內所涉及的數據與模型資訊不會洩露給未授權使用者;以及用途也需要被限定。
2、完整性:要求 AI 技術在生命週期中,演算法模型、數據、基礎設施和產品不被惡意植入、篡改、替換和偽造。
3、穩健性:要求 AI 技術在面對多變複雜的實際應用場景時,能夠抵禦複雜的環境條件和非正常的惡意干擾。例如自動駕駛系統在面對複雜路況時不會產生意外行為,在不同光照和清晰度等環境因素下仍可獲得穩定結果。
4、隱私性:要求 AI 技術在正常構建使用的過程中,能夠保護數據主體的數據隱私。這一點是AI模型特別需要考慮的屬性,與保密性有所區別,是指在數據原始資訊沒有直接外洩的情況下,AI 模型計算產生的訊息或資料不會間接暴露用戶數據。

台灣產業界從2017年左右開始大舉投入,目前AI發展邁向落地應用;AI攻擊、防禦技術就像一場軍備競賽,各國都已積極投入,「但是到目前為止,AI和資安這兩個領域還沒有開始對話。」李維斌期待,能借鏡資安過去三十年的發展,及早關注、布局、投入,共同迎接AI賦能新時代。

回到頂端