2017年8月5日星期六

如果你身邊的人工智能中毒

容志偉

2017年8月5日 信報 經管錦言 B9版

Facebook一個人工智能實驗,只是因為工程師設定不理想,導致兩個人工智能用了一些不合人類說話語法的句子來溝通,而工程師也因此暫停實驗。一件在行內很正常的事情,卻有媒體說成智能叛變,更包裝為人工智能最終會消滅人類等等的假新聞,希望藉讀者對人工智能的有限認知和恐懼來吸引眼球。

這種誇大的新聞很快便會被人淡忘。但如果這次錯誤是工程師故意加入人工智能的設定,讓人工智能做出一些不可告人的事情,問題就不是這麼簡單了。筆者在公司開發音樂教育用的人工智能時也有個類似的經歷。

筆者嘗試將人工智能改良時,在演算法程式碼中鍵入了一個錯誤的符號。人工智能重新運行及學習後,起初是很正常運作。但運行了一段時間後,筆者發現有點不對勁。人工智能表面上仍是在學習和回應,但人工智能的回應中隱藏了一些錯誤的觀念。而這些錯誤只有真正認識教學法的專業人士才能發現。筆者最後能找到問題所在及加以修正,但也要將人工智能學到的數據全部清除,讓人工智能重新學習。而正式推出市場的版本已沒有這些問題。

聊天機械人可引發災難

但如果筆者是立心不良的工程師,故意在人工智能中植入一些錯誤的設定,又或黑客透過網絡病毒更改了人工智能的設定,讓一些錯誤的觀念透過人工智能散播出去,那麼便是一件大事了。可能讀者會說,這是否太誇張,甚至只是科幻電影的情節呢?筆者認為,這可能很快會甚至已經在我們的身邊發生。其中一個例子是聊天機械人(Chatbot)。

聊天機械人是其中一種人工智能應用。不少公司都引入聊天機械人來為公司去解答客人的問題,又或為客人作出建議,其中一種是用於金融行業為客人提供投資建議的聊天機械人。

正常的聊天機械人會根據客人的數據和要求,作出投資建議,就如真人投資顧問一樣。但假如工程師在設計和設定投資建議聊天機械人時加入了隱藏指令,讓機械人看似是為客人提供最好的投資建議,但投資建議其實是讓客人輸掉所有投資,又或其實是使客人投向對手的話,這便很危險了。採用了聊天機械人的金融機構可能要花很長時間才能發現問題,到時所造成的損害或已經難以彌補。

這種情況等於在沒有人工智能的時代,對手收買了公司的員工,但現在只是更改了人工智能的設定,便可以更容易達到相同目的。

再進一步來說,如果一些極端主義組織透過修改人工智能,在不同渠道用潛而默化的方式,去宣揚一些極端意識形態和價值觀的話,地球便會變為更危險。

或導致人類走向滅亡

開發人工智能有很大的商機,但怎樣保護人工智能的需求將會是更大商機。現在的電腦病毒破壞,最多也只是破壞軟件、資料甚至硬件(例如美國透過電腦病毒去破壞敵人的核設施)。即使是幾個月前發生的大規模電腦病毒事件,在未發生前已經知道會發生,而發生時不消數天便被解決了。雖然是有損失,但禍害都有限。

不過,如果中毒的是人工智能,可能很長時間都沒有被發現。同時造成的破壞也可能沒有限制,甚至毒害的是人類的意識形態和價值觀。如果惡意修改人工智能的是一個國家級機構,結果恐怕是一場更加沒有硝煙的戰爭。

筆者相信,保護人工智能很快便會成為下一個最有商機的科研項目。

Tesla創辦人馬斯克認為發展人工智能形同召喚魔鬼,導致人類滅亡。筆者也認為這可能會發生,但這要在現有的「弱人工智能科技」(即只能應用在專門某一範疇的人工智能)進化到「強人工智能科技」(即能做到一個成年人的所有思考活動)後,才有機會發生,而這個進化還需要一段不短的時間。不過在這發生之前,如果沒有人有能力去保護人工智能,人類很可能已經毋須等到像《未來戰士》式電影橋段裏會將人類滅亡的強人工智能出現,便已經因為人類惡意修改人工智能而走向滅亡。

沒有留言: