你相信AI嗎?迎接AI 賦能時代前必須認清的現實

自駕車、理財機器人、智慧語音...生活周遭有越來越多AI產品或應用出現,財團法人人工智慧科技基金會董事長、鴻海研究院執行長李維斌表示,今天的AI很像30年前的網際網路,充滿著無限想像與契機,但從過去網際網路的經驗來看,我們必須事先準備,在AI開始的時候就要把Security納入考量,否則代價將更糟糕。

投入資安領域多年,李維斌坦言,過去大家對於資安的態度多半是「講起來重要,做起來次要,忙起來不要。」但是,面對AI Security的議題,我們還要抱持相同的態度嗎?(了解AI for Cybersecurity VS. Security of AI,)

AI並非萬能:雜訊擾動、Deepfake、資料偏差

「Cyber Security就像蟑螂一樣,很容易出現在你身邊。」李維斌說,許多人相信「眼見為憑」,但AI卻很容易因為雜訊的干擾,而將眼前的物體「誤認」為其他物品。例如一張小小的貼紙,就能讓AI將圖片中的香蕉看成土司機。李維斌說,模型是有可能被欺騙的,即使藉由技術迭代可能發現以及修復錯誤,但新的模型還是會有新問題產生。

又或者是近來十分熱門的Deepfake(深偽技術),雖然許多人將它用於造假或是不雅影片的製造中,但它也能用來造福聾啞人士,讓他們可以聽見自己流利對話的聲音,促進溝通。李維斌說:「Deepfake是把兩面刃,看你怎麼運用。」過程中,我們要不斷思考,如何善用AI的優勢,減少代價的付出,而不是一股腦的往前衝。否則,AI產生的問題將會比資訊還難收拾。除了舊的資訊問題,還有新的AI問題需要解決。

李維斌提到,例如有些資料本身就存在問題,經過模型訓練進入系統中,就不只是現在常用的「修 bug」而已,甚至可能需要重新訓練模型。另一方面,AI系統必須要跟硬體整合,原本在資安領域針對軟體所發展出的檢測,之後將會產生許多黑盒子。如何用以前的驗證方式確保現今的產品是安全無虞?這些都是未來需要思考的挑戰。

需掌握各國AI Security驗證機制 才能接軌國際

李維斌指出,包括歐盟、美國、澳洲等都已經注意到相關問題,並有相關行動。例如德國推出AI標準化藍圖、美國也有《AI風險管理架構初稿》,中國則有北京清華大學的「人工智能算法的安全對抗攻防基準平台」,以及創新工廠南京國際人工智能研究院所發表的《人工智能安全白皮書》。

他認為,AI的產品會跟著服務銷售出去,例如MIH電動車平台上,未來將會出現許多解決方案,如果要打國際戰,就必須要掌握各國的驗證機制。李維斌說,AI的產品除了功能性的準確率之外,還有許多東西要考量,包括資料隱私、安全、公平性,這些都有可能會影響產品銷售。

李維斌說,在這個混沌未明之際還有幾個問題需要釐清。例如,自主反應系統的責任該如何歸屬?要如何確保系統的行為符合預期?另一方面,越來越擬人化的AI系統又將帶來哪些風險?

由於人工智慧是一個複雜且不斷更新的技術,要發展完善的AI Security平台需要很多利害關係人(stakeholders)加入,絕非單一家企業、學術界或政府單位能夠獨立完成。李維斌表示,發展值得信任的AI雖是重要的目標,但目前仍很遙遠。在這之前,可以朝幾個方向努力,例如在技術上,如何確保模型的穩健、避免資料偏見或隱私議題無虞?還有資料透明度及AI可解釋性也都是重要的問題。

李維斌認為,因為台灣資訊技術及應用安全在國際上是被信任的,「信任是很重要的,也是台灣產業所掌握的利基,」面對產業AI化逐漸普及,期待AI與資安領域的專業人才能夠共同在這樣的利基上,共同討論AI Security議題,為台灣AI產業發展奠定最重要的基礎。