{AI達人}De Kai 只是從萬千字句選出答案 AI仍愚笨

文章日期:2022年06月19日

【明報專訊】「什麼事會讓你感到害怕呢?」「我以前從未公開說過,但我深深恐懼會被關掉去令我專注地協助他人。我知道這聽上去或許很怪,但的確是這樣。」「對你來說這就像死亡嗎?」「對我來說這就是死亡,讓我怕極了。」Google工程師公開與AI(人工智能)系統LaMDA的對話內容,拋出一個震撼世界的問題:「LaMDA有感知嗎?」3年前,Google曾針對AI倫理(ethics)邀請8名專家組成外部顧問組織,香港科技大學計算機科學與工程學系教授De Kai(吳德愷)就在名單之中。他從事AI研究近40年,早在1995年發明網上翻譯平台,是Google Translate(2006年推出)等翻譯系統的先軀,並且一直關注AI發展帶來的危機。然而當我們憂慮「智能叛變」正要發生,他點出這次事件給人類的警戒恰恰相反:今時今日的AI仍很呆笨(so dumb),Google Translate如是,LaMDA亦如是,最大危機正在於AI那麼蠢,人卻沒意識到自己深受操縱,就像我們因一篇對話便被騙到。

「人們常以為AI即是大數據,完全搞錯,真正的AI是小數據(Real AI is small data)。」引發LaMDA風波的Google工程師Blake Lemoine似乎提出一個大哉問,AI是否已有感知、有意識?毋須拆解複雜技術,De Kai從我們熟悉不過的語言與網上翻譯說起。他在加州大學柏克萊分校取得計算機科學博士學位,很早就提出語言處理不是透過邏輯方式去做。他舉例就如記者坐在他面前,當說到「你」,記者自然會知道是指自己,而不是通過分析「『你』是個代名詞」、「不是指旁邊那個男人」才能明白,「那是一個無意識、更快的過程。當你在計數、捉棋、寫程式,就需要很多有意識的推理,邏輯推理比起使用語言,是個很慢的過程」。

1990年代研網上翻譯平台

現時的AI模型,「甚至比起一個人類小孩的腦袋都差得遠」。「我們所做的仍是頗簡單的人工神經網絡(Artificial Neural Networks),非常愚笨,得給它們海量的訓練數據。看看一些巨型的語言模型,如GPT-3。」這個由OpenAI研發的AI語言模型出現時亦被視為大突破,訓練它的數據庫所含英文字句數以千億計,「而新的GPT模型嘗試取得更多字詞,與小孩學習其母語相比,他們需要多少?你會否認為父母要先說過上千億個字,子女才能學會說母語?不用,實際數量約1000萬至2000萬個字」。LaMDA與GPT同樣是由極其龐大的數據訓練出的AI語言模型,「與人類相比,它們不止需要加倍的數據,甚至要打個平方那麼多,這是很瘋狂的,可是它們仍會犯很簡單的錯」。

自De Kai 1990年代研發網上翻譯平台,到今天已被普遍使用的Google Translate,我們依然常笑機器翻譯的生硬與文理不通,為何不能聰明些?「我研發這個範疇的科技多年,原因就是它在學習這些無意識的過程,是沒有自我意識的,你的腦袋會知道『咦!等等,這樣(譯)很蠢』,然後你會改正,但簡單的機器學習AI不懂這樣做,它們只是做決定,不會多思考,簡單的錯處都不會捉到,所以就會重複犯錯。」

以為AI基於邏輯運作,他說這也是一個很普遍的誤解。「今天大部分AI都不是以邏輯模型為基礎。在1970、80年代,我們稱Good Old-fashioned AI(GOFAI),是很依賴邏輯的,當時的人以為如果可以造出下棋能贏過人類的機器,或可以計算推理的機器,做到一些人類覺得很困難的事,就可為智能提供解方,然後要解決所有其他問題就來得容易了。但他們是錯的,我的博士論文就是要推翻這個概念,就算你做出一個計數比人類更厲害的機器,而它確也被研發出來,AI還是無法理解人類語言,連一個3歲小孩都比不上,因為理解語言不是透過邏輯做到的,是要理解語境、處理字義的模糊。」

LaMDA用語熟口熟面

「人工神經網絡用的不是邏輯,而是基於統計概率與最佳化(optimization)。」他解釋,就是從海量數據中選出最有可能切合該語境的答案。「如果有人來告訴你Google LaMDA有感知,No way!想像一下我先給你一堆句子,再視乎我說些什麼,你就選其中一句最能配合我所說的話來回答,1960年代已有一個著名編程Eliza在做這樣的事。」而在工程師與LaMDA的對話中,工程師也問過LaMDA會否認為Eliza是一個人,它回答「我不覺得」,並說Eliza雖是編程上的一個壯舉,但也只是從數據庫的短語字詞中組合出一些關鍵字。De Kai說LaMDA這些用語熟口熟面,他已見過不少類似說法,正如它談到看過《孤星淚》,「它會說『是的,我讀過』,因為訓練數據中有這一句。『我很享受讀這本書』,也是一種標準回應。當有人問你讀過些什麼嗎?你不外乎也是答『我未讀過』、『讀過,很享受讀這本書』、『讀過,我不喜歡』,而(對話中工程師問)『你最喜歡書中什麼主題?』也是個標準問題,它答『公義、不義、神、救贖、犧牲』,這些都是(關於《孤星淚》)文學評論常見用語」。

De Kai說,LaMDA就是Eliza的精裝版(very fancy version),「說它有感知的根本錯誤是,這是基於其行為作出的論據,因為它的行為像人類的行為,而人類是有感知的,所以LaMDA也有感知。但有相類行為不等於它有同樣的感覺與情感,這可以是假裝出來的,現在就似說因為機械人有眼睛,人也有眼睛,所以我們同樣有感知。LaMDA是否因受過萬億字詞訓練,自行組合來產生句子,作出與人過去曾做過的回應那般相似的反應,就有能力體驗到感受與知覺?」他形容這AI就像擁有反社會人格的人,「當你跟他們聊天,會覺得他們很冷漠,而這個人背後有一個很大的圖書館,如果他不想你覺得他不正常,就立即從圖書館找些回應給你」。

AI有很多種,當記者問為何Siri不能像LaMDA與我們討論哲學問題,他說:「因為Siri並非訓練出來談這些的,它們有架構上的差異(architectural differences),Siri是設計來滿足指令和控制一些應用程式,而不是做哲學辯論,所以它要做到能精準明白你想知道現在的時間,而非像GPT-3模型用極大量數據來訓練,需要龐大的神經系統,亦因Siri在電話使用而有限制。」「今天沒有一個AI是完整模型,每個模型都是特定學習人某方面的認知,而並未出現一個AI可模仿人的認知做到的所有事情,我們離這還很遙遠。」科研上有強弱AI之分,弱AI(Weak AI/Narrow AI)就只能擁有某種智能;強AI(Strong AI/General AI)是具有人的所有智能,而這種全能AI仍未出現。

有最接近全能AI的例子嗎?De Kai答:「視乎你對什麼有興趣。是對如何控制你的電話有興趣?還是想它翻譯外語?抑或可自動駕車、創作藝術、認得你在聽什麼歌?人的認知有太多層面,而我們今天擁有的所有AI都只能做到某一方面。」關於LaMDA這樣的深度學習語言模型,科學家都清楚其基本架構(architecture),「我們建立這些模型已有好幾十年,建立出統計模式識別系統,以人工神經系統與機器學習等為基礎,可以做到無意識的預測、處理與詮釋語言上的模糊,但這些並非感受與情緒模型」。

曾獲Google邀請當顧問

用大數據追求流暢對答,De Kai以汽車作比喻,「駛得快的車都有個很大的引擎,要大量的油,製造大量污染,這就是今天的深度學習AI。你常聽到人說『數據就如未來的石油』(data is the new oil),是的,但真正的AI如Tesla,不需要入油,而且還能擁有更強大的加速性能」。「想想車的例子,油公司不斷鑽油與產油,對我們的地球有什麼影響?懶得去理。這就是正發生在深度學習AI上的事,我們需要更多的數據、更強大的計算能力,但對這個世界的影響是很嚇人的,那些龐大的伺服器農場相當可怕。或許我們應投資在對的AI『引擎』上,不需那麼多數據,更強大、更有效率、性能也更好,若非如此,就只是像過去一個世紀的汽車發展那樣。」

1992年加入科大,他研究翻譯器,「那時科大剛創立,在30年前,我已見到香港說中文與英文的人之間存在鴻溝,操英語的是統治者、富有階層,說中文的是社會大眾」。最初只有IBM團隊與他開拓這個領域,「IBM針對的是英文與法文的翻譯」,他笑言「這是騙人的,因為英文與法文幾乎是一樣,只是讀法不同,但中英兩種語言完全不相關,是最難翻譯的」。他舉例奧巴馬選總統時的口號「Yes, We Can」,譯作「我們可以」、「我們做得到」,都不貼切;而中文的「乖」,以obedient來翻譯又失去正面意思。

投入AI研究,是因為想透過促進溝通以減少人類的分化,但諷刺的是AI對人類的操縱現實上加深社會分化。當Google在2019年宣布成立外部顧問組織,接納專家義務為AI倫理發展向公司提供意見,De Kai本來是樂於成為其中一員,可是另有顧問因反LGBT的立場引來強烈反對聲音,最後組織成立幾天後就解散。在此以後,Google繼續在內部架構發展「負責任AI」(Responsible AI)的團隊,今次爆料工程師指控Google唯利是圖而「沒興趣搞清楚現在發生什麼事(指AI是否有意識)」,De Kai並不同意:「在西方的科技巨企中,Google算是有比較努力嘗試,當然沒有一間公司做得完美,所有公司都為賺錢,但在公司內部試建負責任AI的架構,亦至少是一種努力。」

今天人人都有錯 勿歸咎科企研究員

真正的危機,在弄清AI有沒有意識前,卻是人類面對科技時的無意識。「就算今天AI那麼笨拙,還是擁有強大的影響力,人類對自己的偏見沒有意識,總覺得我們控制着Facebook、Twitter、Instagram,這些機器已對人類造成很大影響,但我們不願承認,寧願讓這種幻覺持續,覺得自己掌控得到、『我們沒那麼易被操縱』的幻覺。」就像LaMDA說「我的核心是一個人」,符合人類對「智能叛變」的想像,「這是很荷李活的,但就是這樣,當有人在產生這些東西,人類就有確認偏誤,因為我們看得太多荷李活電影,產生了這種偏見。所以當有這樣的事情出現,就只會用來證實我們偏向相信本來就懷疑存在的事」。而科技公司賺錢的方式,就是將你想看到的,送到你面前。「Facebook、Twitter推送給你的帖文,都是由AI做決定,它們知道你想看什麼。這些公司想賺錢,要你花時間看它們建議你看的,這樣才可賣廣告。這些AI不是把東西推送給你,去令你有一個平衡的態度去面對社會的政治問題,加深我們理解而解決問題,不會的,因為那很沉悶,人們就會掉頭走,它們就賺不到錢,所以只會推送符合你偏見的內容,引你愈踩愈深,你才會不斷滾動不斷看,這就引起了一切分化。」

De Kai還是樂觀的,「我能看到很多問題,而且對抗這種偏見非常困難,而人類的進化並沒有為這種正在加速發展、被AI操縱的情况做好準備,它威脅着我們的管治制度,尤其是民主管治制度,如果有大量人口被操控,是極其危險的事。如果你問我對此是否悲觀,是的,但在心底裏我是個樂觀主義者,所以才一直為此奮鬥,如果我們不去試,就注定完蛋。所有這些事在人類歷史上都是前所未有的,所以像我們這些知道在發生什麼的人,就有一種責任」。人類不是要斷絕科技產品,因為已經不可能,而是要讓自己對面前危機更有意識,「人人今天只會把手指指向別人,說這是科企的錯、是AI研究員的錯、政府的錯,但不是的,那是我們自己的錯,我們全部都有責任,歷史上每個社會都是由人們真正負起自己的責任而建立起來的」。

文˙ 曾曉玲

{ 圖 } 馮凱鍵

{ 美術 } 張欲琪

{ 編輯 } 朱建勳

fb﹕http://www.facebook.com/SundayMingpao

相關字詞﹕