鄧淑明:人工智能可靠嗎?

2020-01-02
鄧淑明
香港大學工程學院計算機科學系、社會科學學院地理系及建築學院客席教授
 
AAA

AI1.jpg

人工智能的「黑箱」思維問題,往往會出現令人難以理解的決定,萬一程式判斷錯誤,責任又該當誰負?

早前彭博新聞有一則題為《當機械人令你蒙受投資損失,你可以告誰》的報導,提及首宗人類狀告人工智能的案件,引人深思。

一名香港富商把25億美元(約195億港元)交託給一個人工智能的電腦程式作管理和投資。這個程式能夠透過整理網上零碎的資訊,包括即時新聞和社交媒體等,掌握投資者情緒,然後預測美國股票期貨走勢,從而作出買賣決定。

以人工智能分析數據,進行投資買賣,非今時今日之事。根據彭博數據,由2014年至2019年的5年間,人工智能投資回報較對沖基金優勝,回報多逾一倍。但遇上股票市場表現反覆,人工智能跟人手操控則互有輸贏,到近一年,人類的表現更是佔優。

至於案中的AI程式,在展開服務起便表現強差人意。去年2月14日當天,這個程式認為美國標普500指數期貨會上漲,但是資料顯示美國通脹上升較預期快速,標普指數掉頭向下,這引致程式作出1.4%止蝕的指令。可是,標普指數卻在數小時內反彈,結果令客戶於一天內損失逾2,000萬美元(逾1.5億港元),訴訟由此而生。案件已排期在倫敦的商業法庭開審,相信會引來大眾關注。

人工智能善於解讀數據,而進行精確的預測,所以人工智能AlphaGo可以一舉打敗人類而稱霸於圍棋界,可是,棋藝有一定法規,而股市則存在許多非理性的「人為因素」,令人工智能無所適從。而且,人工智能涉及大量和多重決策因素與資訊,它們結合一起時又產生新的變化,使分析結果難以臆測,要詮釋更是啞口難言,這樣的「黑箱」思維,難免惹人疑慮。

人工智能必須讓人信賴,才能夠獲得更進一步的發展和應用空間,而解決「黑箱」思維問題,相信是當前必須克服的挑戰。

 

文章只屬作者觀點,不代表本網立場。

 
延伸閱讀