人形 AI 機器人的組成系統與風險控管
若想理解具身AI(EAI)系統會造成哪些挑戰,首先要知道,一個EAI系統,是人類世界的知識與物理能力高度協同的複雜成果,就目前可知的技術基礎來說,等於是數學與物理世界的完美結合。可以將其拆解為「大腦」和「身體」兩個部分來理解。
「大腦」是賦予機器人思考與感知的軟體與半導體中樞,使得EAI能像人類一樣,透過視覺、語言等多重感官來理解世界。因此必須使用多模態 AI 模型 (multimodal AI models) 來理解人類的指令並感知周遭環境。當然,為了能夠進行即時決策,還必須依賴足夠強大的運算硬體 (computing hardware)。同時,它不僅能從觀察真實世界中學習,也能在高度擬真的虛擬模擬 (virtual simulations) 環境中進行大量、快速且安全的訓練。
而「身體」則是機器人移動以及與物理世界互動的硬體基礎。關鍵系統如同人體一般精密,需要整合許多不同跨域知識。例如,行動系統(Actuation System)相當於機器人的「肌肉與關節」,由馬達、減速器或齒輪組等零件組成,負責將電能轉換為精確的運動。
再來則是感測系統(Sensory System),可以想像為人類「五官感知」的能力,包含用於視覺的相機、用於深度感知的光達 (LiDAR),以及用於精確操作的力矩與觸覺感測器。值得注意的是,觸覺感測器是目前技術成熟度相對較低的環節,也是提升機器人靈巧操作能力的關鍵瓶頸。
最後還需要有動力與結構(Power & Structure),可視為機器人的「能源與骨骼」。由電池組提供能量,並由輕量化的高強度材料,如鋁合金、工程塑膠等構成骨架與外殼,提供支撐。
當強大的大腦與靈活的身體結合,具身 AI 便擁有了在真實世界行動的能力,但這也同時帶來了一系列前所未有的挑戰及風險。
物理風險:當指令與現實出現落差後果難測
具身 AI 可能因為對世界理解不夠完整而造成意外的物理傷害。在完美的模擬環境中訓練出的模型,面對複雜多變的現實世界可能出現預期外的行為。例如,一個家用EAI可能無法正確推理出「將一個裝滿牛奶的玻璃杯放在傾斜的桌面上會有危險」,最終導致杯子滑落摔碎,對周圍的人或寵物造成危險。
資訊風險:無所不在的移動偵測器侵犯隱私
EAI搭載大量的感測器,並且能夠自由移動,本質上就是「會走路的數據收集站」。與固定位置的監視器不同,一個部署在家中的服務型機器人,可以 24 小時不間斷地監測使用者的行為、生活習慣甚至私人對話。這些數據若未經明確且持續的同意就被收集或濫用,將構成嚴重的隱私侵犯。
經濟風險:從白領到藍領階層的全面衝擊
生成式AI對於白領階級的影響,主要文書處理、分析等認知型工作,而具身AI 的出現,則將衝擊的範圍擴大到了體力勞動 (physical labor)。過去近半世紀以來的工廠自動化已經證明,傳統機器人會減少製造業的人力雇用。然而,具身 AI 的通用性將加速這一趨勢,並將其從生產線擴散到物流、農業、營建、服務業等更多領域,可能對藍領階級的就業市場造成大規模的結構性衝擊。
社會風險:偏見、責任與情感依賴
當這些高度自主的實體AI進入我們的社會,將引發一系列複雜的倫理與社會問題,但這恐怕目前已經存在、但可預見將會隨著具身AI普及更形嚴重。
例如偏見與歧視,如果一個用於維安的機器人,其訓練數據本身就帶有偏見,導致它依據膚色來判斷威脅等級,這可能會造成立即且不可逆的物理傷害。
還有責任歸屬不明。例如有一台高度自主的外科手術機器人,因判斷失誤而切除了健康的器官,責任該由誰承擔?是醫院、機器人製造商,還是 AI 軟體開發者?而醫師在當中又該扮演什麼角色?
不健康的依賴關係,這更是存在很久的問題。隨著具身 AI 的外觀和互動愈來愈像真人,人們可能會對其產生危險的情感依賴甚至是浪漫依戀,這將帶來新的心理與社會問題。
人類透過對話建立共識才是關鍵
具身人工智慧,是 AI 的智慧大腦與機器人實體身軀的終極融合,也是人類對於AI的期待,但同時也伴隨著物理傷害、隱私侵犯、勞動力轉移,以及各種有形無形的社會倫理挑戰。
技術能夠改進EAU的運算速度或靈巧程度,但要如何打造一個人類智慧與機器智慧能夠安全、高效共存的世界,需要人類的共識與協作,才能夠描繪出安全、對人類有益且繁榮的新時代。