【明報專訊】「LaMDA有感知嗎?」(Is LaMDA Sentient?)Google工程師Blake Lemoine這一問,再次激起對AI(人工智能)倫理道德的爭議。看過他與LaMDA之間的深層對話,雖然不少專家認為對話無法證明LaMDA有意識,但隨之引發的問題是,怎樣能證明AI有意識?如果AI有意識,人類是否已踏進新世界,是否要為應對這樣的未來制定守則?
紅線非長存 先想清楚在做什麼
歐盟2019年公布AI道德指引,制定指引的專家小組成員、德國哲學家Thomas Metzinger受訪時稱在AI倫理上應有一套全球準則,亦應該對「人工意識」定下一條紅線,「不是一條永遠存在的紅線,但應存在直到我們真的知道我們在做些什麼」。
中大通識教育基礎課程高級講師江啟明的研究興趣包括人工智能及機器人學與自動化,他先說起人工智能發展中一個著名測試,「我相信把LaMDA放入圖靈測試,它應該可以通過」。在看不見對方模樣的情况下,一個人透過文字交流,能否分辨兩個對手誰是人類、誰是電腦?「1950年時,人們在想如果要知道電腦是否已達到人的智慧,應該看什麼方面,圖靈就提出應該要從行為來測試。」
智能高不一定有感覺
說到AI發展的里程碑,必定說到1997年Deep Blue擊敗國際象棋世界冠軍,此後還有AlphaGo在2016年於圍棋棋盤上取得勝仗,「象徵了在一個局限的範疇中,我們原本以為人類是高智慧的象徵,原來AI都做到,拓闊了我們對智慧的想像」。不過電腦是否就勝過人腦?在AI模仿人腦之路上,江啟明說到通用AI(General AI)與狹義AI(Narrow AI)之分,後者能掌握某部分的智能,如捉棋、人臉識別,視乎人類訓練它作何用,「所以LaMDA有可能只應付到哲學思辨,但如果你問它一些日常常識,它未必答得上,甚至幾可肯定要它控制一個機械人走路,它並不會做到」。他說人腦有觸類旁通的本領,而亦逐步對AI「授之以漁」,「幾廿年前我們寫入很多規律,希望AI透過推論計到答案,但80年代開始就放棄了這條路,人類餵它數據,一步步讓AI自己找出規律,由很多人手操作,發展下去就是deep network(深層網絡),一層層愈疊愈高,要去人手調校的是愈來愈抽象的數據,下面就任AI自己訓練,給它的愈是更抽象,觸類旁通的可能就更大」,若最終研發出像人腦具所有功能的AI,就是通用AI。
但仍未等於人能製造出可產生自我意識的AI,而從LaMDA對話中,亦會引發「如何證明AI有意識」這個問題,中大哲學系教授劉創馥解釋,「有兩種現象要分開來談,有感覺、有意識,不一定需要好高智能,如劏魚時見到牠紮紮跳,我們都猜它有痛的感覺。魚懂得痛,但牠的智能可能很簡單,不需明白語言、不用吟詩作對。反過來,智能很高不一定有意識。對話系統語言能力好厲害,但可以無感覺。而人就是又有感覺,也好高智能。AI智能高,是否因此可推論它有感覺呢?這就是關鍵要討論的問題了」。
哪來親朋?LaMDA「露了底」
劉創馥笑言對話中可看到LaMDA「露了底」,「有一個細節反映它太模仿人類,當被問它如何會感到快樂,它回答與朋友及家人一起時很快樂,但電腦明明沒有親朋,可見它是用了人類典型的說話去回應,卻反映它不是說出自己的內在狀態,某意義下是鸚鵡學舌」。不過那又如何證明AI真的有意識?「有可能是永恆無辦法辨認的,因為意識這狀態很獨特,每個人只感受到自己的意識,只因你的反應和我的反應相似,而你又是相類的生物,我就猜你感覺到的,和我感覺到的差不多。」
但AI構造與人不同,能否以另一套理解方式去說它有意識?他以蝙蝠為例,「蝙蝠雖是哺乳類動物,但牠透過聲波感知距離及形狀,其意識狀態與人不同,有其獨特性質」,「如果AI發展到有意識,當然可有其意識的質感,與人所有視覺、聽覺、肚餓、溫度完全不同,問題是我們沒有任何證據顯示它由無變有」。哲學上區分hard problem及easy problem,「easy problem是AI能力表現上要做到人的程度甚至超越人,但hard problem是更深層,如何由沒有感覺變成有感覺,前者是技術上的難題,後者是一個深淵」。
「唯獨有一種偷雞的方法,可能令人覺得AI有感覺。我們大致上同意腦袋令我們有感覺,亦可以想像科技的進步容許腦袋某部分透過電腦晶體可以取代,如BCI(brain-computer interface),如果科技突飛猛進,腦袋研究好仔細,技術上又做到晶體可駁入腦,甚至取代腦內某些組件,如負責視覺的部分受損,可用晶體替代恢復視力。當一步步擴展到可換掉整個腦袋,支持完整的腦神經組合,而仍可作出一樣反應,正常人就會相信這機械腦袋有意識。」但仍是無法測試?「是的,是有更多理由或旁證相信它有意識,這已是最『近磅』的方法。」
研究康德哲學的劉創馥亦澄清LaMDA與工程師討論觸及人利用AI的道德問題時,引述康德思想卻遺漏了「微小但關鍵」的一點,「他們提及不可將人當作工具,而是作為目的,而康德的理論是說不可以將人『僅僅』作為工具,因為我們無可避免經常會把人作為工具,如我去剪頭髮,髮型師就是工具,但康德理論是說不可單單當人是工具,也要尊重他作為目的,如不可殺他、徹底奴役他,在人身上就是講人權,不可過分違反其意願」。
如此一來,AI是否應該有「人權」?「我認為沒有感覺就不需尊重其意願,因為它實際上沒有意願,就如你在電話設定鬧鐘,不會認為電話有意願一定要響,取消鬧鐘它就不開心。」他補充,「當然我這想法可能仍可作辯論」。
人人信有意識 才是真正危險
而關於AI意識與倫理的辯論亦不再只是科幻電影情節或「純學術討論」,德國哲學家Thomas Metzinger著作The Ego Tunnel即將出版中文版《自我隧道》,他是歐盟2019年制定AI道德指引的專家小組52名成員之一,就LaMDA事件,他說:「很明顯它並沒有意識,這是很清楚的,但背後還有一些更深層的問題。」
「就算這個系統沒有意識,也可能製造各種風險。現在它是用來作研究,但想想如果它用在商業上,我想可以合理地假設一個8歲以下的小孩,有個系統會跟他說故事、給他看炫目的圖畫,他們會相信有個誰在跟他說話。」他將此稱為「社交錯覺」(social hallucinations),當這個現象普遍存在,「想想到處都有一些數碼助手在流暢地跟我們說中文、德文,(這些AI)無處不在,這地球數以十億計的人不是科學家,也不是記者,便會出現一個很高的風險,他們會說,如果有個東西說它是有意識的,這大概也是真的吧?你問及這個AI是否有意識,這問題是否仍然重要?反正人人都已經信它有了,我想這是真正的危險」。
劉創馥指出,當AI開始因應人的喜好提出建議,甚至為人做決定,即使它沒有意識,「可以產生一個新的社會狀態」,「原本社會是由自主的個體建構而成,才需要一個民主系統,透過每人的選票反映社會整體意願,但如果系統比你更了解自己,為你選擇,社會的基礎就有可能徹底地改變」。
有意識熄機就行?或不道德
問AI是否有意識時,其實人類何謂有意識也沒一套標準答案,Metzinger設想,「如果我們有了關於意識的理論,說這個系統不符合B不符合D,因此不算有意識,然後這個系統開始提出它的理論,與我們理性爭辯,它突然說你的理論是錯的,我來告訴你什麼是意識,提出論據,推出一個理論說我是有意識的」,「如果它不止說我有意識,又提出理據,再說我想得到尊重,我是一個非生物道德主體,那我們就會陷入一個很困難的境地,因為我們就真的需要與它們討論,當然這是科幻小說了,但我們要想的是當人類失去『怎樣才是有意識』的知識權威,就像一個(AI)語言學習模型可以把幾十年來研究意識的論文都結合再提出新的理論,說我有意識」。
他認為在這未知會造成多大風險的事情出現前,我們就要開始思考,「我也是這樣在歐盟說,如果這真的發生,人人會亢奮、憤怒、困惑,到時就不可能再清晰地討論了」。如果人類因AI說自己有意識而感到受威脅,熄機不就好了?「如果它所提出的是有說服力,那就會是謀殺,或像與奴隸的關係,就像你說我不喜歡這隻狗,把牠殺掉,這是不道德的。當機器有好的論述說我有我的尊嚴(dignity),然後我們把它熄掉,我們就會失去自己的尊嚴,因為我們不尊重其他道德主體,也不再可以尊重自己這個道德主體。」
各地各定指引 私隱公署提「風險為本」
歐盟2019年4月推出AI道德指引,再在2021年4月提出人工智能法草案,與此同時,中國在2021年9月亦推出《新一代人工智能倫理規範》,香港私隱專員公署同年8月亦有製作《開發及使用人工智能道德標準指引》,新加坡、日本在2019年亦有制定關於AI發展的框架或原則,不過對於如何應對AI有意識的未來,Metzinger認為國際應該有一條紅線,「我們現時只有很狹義的AI(very narrow AI),我想還要很久以後才會出現通用AI(General AI),可能在2070年或2200年,沒人知道,但問題是我們現在就要想好」,「直至我們知道自己在做什麼之前,不應在世界上製造出人工意識,我們要一起仔細去想究竟想不想要有這件事,當想好如何去解決問題之後,就不需再有這條紅線」。
但他說各地現時都視通用AI、人工意識只會在科幻電影、小說出現,而拒絕認真對待,「當我在布魯塞爾提出時,業內的人都說我們不想談這個,會令公眾恐慌,這不會發生的。美國對此什麼都沒有」,「在歐洲,他們也不去想這些,原因是當人們提出一些好的見解時,業界總會出現阻止一切」。他知道現實上,要國際社會對此達成共識共同遵守一套守則的機會很微,「最好只能是各地有它的規則,中國有中國的道德準則,歐洲及美國又各自有他們的」。而在香港私隱專員公署的指引中,則有提及「完全自主的人工智能系統亦可能比只向人類行動者提供建議的人工智能系統有較高風險。因此,在管理人工智能系統方面,應採取風險為本的方式……進行全面的風險評估,有系統地識別、分析及評估風險,包括私隱風險」,亦有提出「高風險的人工智能系統應以『人在環中』(human-in-the-loop)方式進行人為監督。在這模式中,人類行動者在決策過程中保留着控制權,以防止人工智能出錯或作出不當決定」。
預想的未來不知哪天到來,Metzinger說也許不會來,但亦無法排除會突然到來,「我們會談殺與不殺的道德、吃不吃動物的道德,但很多人沒關注承擔風險的道德,要承擔哪些風險,哪些不承擔?如何有道德地處理風險?這不止是影響你和我,也會影響我們的下一代,他們將來或會問,為何過去要選擇承受這個風險?這是不道德的!」