陳進雄:Chat and Trap

2023-02-21
陳進雄
民主思路理事
 
AAA

WhatsApp Image 2023-02-21 at 17.09.32 (1).jpeg

科技及財經界最近大熱的話題一定是ChatGPT (全名:Chat Generative Pre-trained Transformer)是由美國公司OpenAI開發的一個人工智能聊天機械人程式。由於篇幅有限,在此不詳細描述它的工作原理,但想同大家分享個人見解。

大家要知道這些聊天機械人程式有很多, 當中參差不齊,不少是利用ChatGPT的名氣在市場上濫竽充數。就算是大廠出品的也不是一定可靠, 搜尋器龍頭公司Google推出的聊天機械人Brad, 在發佈會中也出現回答問題失誤, 其他的聊天機械人也出現不同程度的失誤, 證明現時技術上還沒十分成熟。所有的聊天機械人都是由人類編寫程式而成, 再給予聊天程式大量資料數據作為訓練學習, 才可以模仿人類回答問題, 其實當中存在着重大的風險隱患。

就如2016年美國總統大選期間,「劍橋分析」(Cambridge Analytica)公司被揭發, 他們利用Facebook上免費的心理測驗竊取用戶資料數據,並利用這些資料左右選民的投票傾向。同年在英國脫歐公投中,支持脫歐的陣營也曾利用類似的手法,操弄選民的情緒,使英國脫歐。同樣情況一樣可以出現在這些聊天機械人身上。開發者可以故意在程式中設下對某個議題的「答案」, 亦可以運用有偏向性的資料去訓練機械人, 使它自然地回答被設定的答案去操控民意, 操控選舉, 及至顛覆政權。

科技發展往往超前於立法規管, 暫時沒有聽聞有任何一個政府去立法規管這些人工智能聊天機械人。可能因為不少國家已有法例去處理虛假信息, 其市民及國家安全也得到部分的保障。用Youtube上的「國歌事件」為例, 香港雖然有國安法, 但面對在涉及外國散擴的假信息時,也一樣束手無策。政府真是要想想如何處理這些涉及外國散擴的假信息, 萬一被人利用來攻擊香港政權時, 政府有甚麼辦法去阻止; 怎樣幫助市民分辨真偽; 哪個部門負責監察假信息等。

科技可以改善人類生活, 亦可以變成陷阱, 那就要靠各國政府如何立法規管了。


文章只屬作者觀點,不代表本網立場。
 

延伸閱讀