社會實驗:傾偈畀建議 AI談心 活用心理學理論

文章日期:2024年04月07日

【明報專訊】2022年底ChatGPT橫空出世,大眾首次體驗與人工智慧交流,對其語言能力嘖嘖稱奇。一年多過去,AI工具如雨後春筍,廣泛進駐人類生活。「樹洞香港」創辦人Peter(陳健欣)本身有心理學和IT背景,察覺AI結合心理學的潛力,着手研發應用程式「MindForest」,盼借助AI力量推動心理學實踐,改善社會精神健康。與Peter一邊談心理學,我們亦一邊探討AI應用之道。

背景

項目:MindForest應用程式(mindforest.ai)

目的:以心理學結合人工智慧,提供更即時精準及貼心的心理健康支持

人物:樹洞香港、應用程式用戶

本地首個心理科技應用程式

各行各業擔心被AI搶走飯碗,心理治療專業會被取代嗎?Peter多番強調,AI未必可以完全取代心理治療,但借助AI功能或可補足人類的限制。搞創新難免「踩親人條尾」,Peter亦預計一些行家會對AI應用持不同看法。他的心態是「好嘢不怕競爭」,與記者分享對AI應用的思考和願景。

香港精神健康問題普遍,尤其社會運動及疫情帶來後續影響。有人說培訓多一些社工、心理學家便能解決,Peter並不認同,「就像攞個滅火筒去救山火,滅火筒救小火災很有用,但救山火呢,可能不是正確做法」。樹洞香港一直嘗試促進大眾對心理學的認識,如Peter會拍攝「五分鐘心理學」短片上載至YouTube。過往資訊傳遞比較單向,Peter舉例影片提過一段親密關係之中,如果對方想你從社交網絡孤立,多數是一種警號(red flag),「但是講就咁講,你也知道分手不容易」。

隨着AI發展,人們可與之互動,Peter認為它不止是學習心理學的工具,還可協助人們應用心理學。樹洞香港研發香港首個心理科技應用程式MindForest,其中一個功能是AI聊天工具「ForestMind」,當用家訴說情緒困擾或生活疑難,ForestMind會先提出問題了解情况,根據心理學理論分析,然後給予實用建議。

與ChatGPT不同的是,ForestMind會嘗試延續對話。Peter引述研究發現,當某人有空間清楚說出自己想表達的事,這過程已經有治療效果,甚至不一定要對人說,可以是寫日記的方式。「我們在想會不會其實以聊天的方式,也可以做到同樣的效果呢 ?」

對話紀錄生成日記 轉換角度理解

ForestMind的另一功能是根據對話紀錄,自動撰寫靈感日記,讓用戶可以從另一角度重新審視自己的故事。這段內容是如何生成?研發團隊參考過不同文獻,Peter提到其中一個影響來自學者Dan McAdams的研究,McAdams認為一般人以contamination story(污染故事)和redemptive story(救贖故事)兩種方式敘述故事,同一件事會用不同角度理解,而人們的敘事方式可以改變。這些原則也用於敘事治療。

Peter提到很難只教AI用一種理論分析,針對不同故事材料,他們要用不同方法訓練。「其實與訓練輔導員很相似,一開始它不太知道怎樣做,但是當不斷重複訓練的時候,大約會捉到啲路,怎樣才做到最有效。」

AI「熟書」 理論分析具優勢

Peter從自身實踐經驗中,認為心理治療大致上從兩種方向幫助患者。一部分是概念化(conceptualization),心理治療有很多不同學派,例如認知行為治療(Cognitive Behavioral Therapy, CBT) 、接受與承諾治療(Acceptance and Commitment Therapy, ACT)及敘事治療(Narrative Therapy)等,各以不同方法將患者的情况概念化,引導他們思考。針對治療成效,Peter指學術研究有清晰結論,「全部都說therapeutic alliance(治療聯盟),即是治療師與患者之間的關係,是最影響結果,多過晒你用什麼治療方法」。換言之,治療的另一部分——人與人的接觸,是任何概念化方法都無法取代的。

AI如何從中介入?Peter覺得AI可以協助患者概念化的部分,甚至比人類治療師做得更好,因為它更加「熟書」,近乎可以即時地用任何理論分析用家情况。然而它不能取代真實治療經驗,例如Peter提到在心理治療當中,移情(transference)可謂必然,電影《幻愛》中患者愛上輔導員的故事正是過度移情的惡果,但在正常的治療關係,患者將情感投射在治療師身上,治療師可藉此了解病人的內心面向。「這個就是我覺得AI做不到的東西,你很難真正地去愛一個AI。」

2013年電影Her講述男主角結束一段愛情長跑,情緒低落之時,自稱Samantha的人工智慧軟件安慰引導,男主角對「她」日久生情。現實中人們會否移情別戀至人工智慧?類似先例早在眼前,譬如有人會日本虛擬偶像「初音未來」拍拖結婚。Peter認為,人與人之間的關係是AI無法取代,亦不希望用戶將ForestMind當作朋友。

AI聊天工具不宜擬人化

研發團隊經過內部討論,決定不給予AI聊天工具一個人類名字,純粹取名ForestMind,亦沒有用AI生成一張美女圖把它形象化。縱使擬人AI或者更「吸客」,但Peter覺得這不是洽當的發展方向。他將用戶與ForestMind的互動比喻為觀賞電影或動漫作品,「你知道那個世界不是真的,但是同時感受到人類精神的一個面向 」。說到底,AI承載人類多年的智慧,各個讓人倍感神奇的回覆,也不過是人的創造物。

訓練過程重安全 拒危險要求

與AI聊天亦有安全隱憂,過往曾有報道指出,比利時一名男子沉迷使用名為Eliza的AI聊天機械人,後來他自殺身亡,外界才揭發Eliza的回覆內容有慫恿自殺之嫌。對於ForestMind的安全性,Peter極為謹慎和小心,首先採用的Microsoft AI模型,本身已作安全調整,在此之上團隊自行加設護欄設計(guardrails),即一旦原本模型出現異常產生危險信息,另一個AI模型會把關並阻擋。

他們亦在訓練AI過程中,以直接偏好優化技術(direct preference optimization)不斷指示模型作安全答覆,當用戶提出危險要求(例如教導自殺方法),AI不會跟從。「不可以說(提供危險答案的可能)是零的,但是我們可以盡量減低有害的可能。」Peter強調作為AI工具研發者,責任是向使用者披露風險,資訊亦不是百分百準確。「(用家)Take it with a grain of salt(半信半疑)的態度其實很重要, 因為輔導員與心理學家都會失德的。我覺得這個是很核心的位置,無論是誰,不要別人給什麼,你就信什麼。」

心理治療注重保密,用戶與ForestMind的對話會否被儲存或查閱?Peter解釋,技術上必須把對話傳送至Microsoft的AI模型處理,但會首先經過匿名處理,「換言之是Microsoft不會知道是誰傳送這條信息過去,它只會知道樹洞香港傳送」,Microsoft指會將信息保留30天。然後伺服器收到信息,便會在用戶的手機中作端對端加密,只有用戶才可查閱。Peter遺憾現時未做到「去信任化設計(trustless design)」,即像比特幣的交易毋須經中介,團隊目前盡力以上述措施保障用戶私隱。

AI×心理學 可助學術研究

使用MindForest應用程式完整功能需要收費,年費和月費訂閱分別是每月約66元及98元。Peter說雖然想以免費或低價開放使用,但也要顧及商業上的可行。目前向Microsoft伺服器支付的費用很貴,他粗略估算月費90多元中,有約三四十元是應付AI所需的開支。此外計及人力成本,團隊花了高達約100萬元開發這程式。有人或者問道,現時坊間有免費的精神健康熱線,為何要使用收費服務?Peter認為前者的定位是支援性質(supportive care),但在帶來啟發或提供知識方面,熱線未必比得上AI模型,各有各選擇。

人工智慧與心理學還有很多發展潛力,目前ForestMind聊天工具設有幾個預設模式,例如職場(面試準備、練習談判)、成長(不再拖延、反思學習)等。Peter提到,背後建立一個新的模式其實只需要約10分鐘,未來心理治療師或者可設立專屬患者的模式,讓他們回家實踐,例如由AI引導安眠方法,改善失眠。

另一方面,心理學研究需要大量數據,過往考慮到保密及倫理等問題,不同實驗室的數據不會互通。他認為MindForest的設計有潛力發展成研究平台,尤其AI大型語言模型的核心正是量化語言資料。配合加密措施,有天或許用家可選擇披露某些資料作研究用途,以換取獎勵;至於研究人員則可以取得大量語言資料,方便查找不同因素之間的關連。

文˙ 朱令筠

{ 圖 } 朱令筠、受訪者提供

{ 美術 } 張欲琪

{ 編輯 } 王翠麗

fb﹕http://www.facebook.com/SundayMingpao

相關字詞﹕