用AI、Chatbot聊天機器人來當客戶服務(客服)的解決方案是最近幾年的熱門需求與話題。尤其,強大的ChatGPT AI問世以來,冒出更多新興的的AI客服產品與解決方案。
然而,ChatGPT AI能夠完全取代客服嗎?
前一鎮子參加 策略思維商學院夜聊,聊到ChatGPT適不適當客服系統使用。
線上的一個朋友說:「某某某微軟技術專家表示,ChatGPT不適合拿來當客服。」
另一個朋友立即反對,而且用實例証明的說:「才不是咧,我就已經用ChatGPT幫客戶建置一個客服系統,而且已經有賺到錢了。ChatGPT是可以當客服的。」
我當下的想法是:「ChatGPT AI可以當客服啊,有效率,又不受客訴的情緒影響。為何不呢?」
凡事反過來想
隔一天,我問自已一個問題:「ChatGPT AI當然可以取代客服。但是,有什麼情況下用AI當客服,不適合呢?」
在思考不適合交給AI的事情前,我先列下可以交給AI的事情。
適合交給AI處理是事情
- 客服對話,高度結構化的事 AI可以處理高度結構化的客服工作,例如提供產品資訊、處理常見問題等。但需要人工介入的複雜客服案件,AI可能無法妥善處理。
- 重複性工作AI可以大量減少人力處理重複性、例行性的工作,如大量資料的輸入、文書的排版等。這些工作需要花費大量人力但缺乏創造力,AI可以比人更有效率地完成。例如,我現在看書如果看到值得筆記的內容,善用智慧型手機拍照功能,一拍、二辨視、三貼上文字、四整理,筆記輕鬆搞定。在光線暗的地方,拍照不方,我就改用語音輸入,一念、二轉、三生文字、四修字,一樣輕鬆完成。
- 創意工作(很燒惱的工作) 這是ChatGPT驚艷世人的一個特點。以前大家都認為AI不太能夠從事「創作」類型的工作,但是現在AI可以用於一定程度的創意工作,推翻過去世人的認知。ChatGPT可自動生成藏頭詩、寫詩歌;Midjoury可以產生各種畫風的照片與圖像創作,例如沒有油的油畫、沒有水彩的水彩畫、沒有毛也沒有筆的毛筆畫。雖然說,AI的創造力和人類相比仍有限,現階段仍需要人類「詠唱」(prompt),給予AI更高次抽象思考創作主題與方向,才能生成創作作品,但是已全面刷新人們對AI的想像。ps. 現階段人類創作者的技巧和情感,AI難以達到,不過不用很快,也許神通情人夢的據情,會真實的發生。電腦會有喜怒哀樂,為它的主人寫情歌給心儀的女生,但和它主人的一樣愛上這個女生,成為主人的情敵。電腦為情所困,最後意識到它終究是電腦,不是人類,選擇自己引電流自爆結束了自己的生命。
- 研究或數據分析 既然AI可以創作,那麼AI也可以幫助人類進行研究和學術工作,如大量文獻的查詢、複雜數據的分析等。但真正的研究工作需要人類專家的知識和判斷,這就是人類的價值與必要做的事了。
不適合交給AI處理的事情
- 需要人與人溝通/理解的工作 需要深入理解人與人之間複雜溝通和互動的工作,AI仍然無法取代人類。如教師、心理師、諮商師等職業都需要人類的同理心和情感體會,AI難以達到。當然,神通情人夢的據情如果實現的話……你的情敵是AI!?那該怎麼辦?
- 需要情感/同理心的工作 需要展現情感和同理心的工作需要人類完成。如照顧老人或幼兒、醫療照護等工作都需要人類的情感支持,AI無法提供同等的情感體會。雖然,市場上已有很多「陪伴型」的AI電子產品,不過到目前看到只能達到操作輔助或時間陪伴的程度,距離人與人的情感交流與同理仍遠遠不及。
- 道德/倫理事情 涉及道德和倫理的事情需要人類的判斷和情感體會,需要情、理、法,以人的角度考量。AI難以處理這些事。如法律判決、醫療決定等都需要人類專家介入。交給AI可能導致不合理或不人道的結果。
- 需要作出重要決定或複雜決定的工作 簡單的判斷可以交給AI,例如小型賽事裁判。但是,重要而複雜的決策工作需要人類不斷自身探索或詢求專家協助。例如要不要轉職、要不要結婚、政府政策制定、企業高層管理決策等都需要考慮各種因素,並需要人類的最終判斷,不宜完全交給AI。
想完這些,突然腦袋閃過一個去年的新聞:恩恩事件
事件的概述:
2022年4月疫情爆發高峰期間,新北市中和區一名2歲男童(化名恩恩),因嚴重Covid-19肺炎確診併發重症,全身出現紫斑,家屬陸續撥打兩次1922專線與三次緊急救難專線119尋求協助,但是對專線發出求救81分鐘後,才等到救護車。最終歷經急救與治療6日後,恩恩仍不幸去世,成為當時新北市政府,因為機關間通聯問題,導致延誤就醫的不幸事件。
這事件中,有很多政府機關通聯及SOP的問題、疫情指揮中心的防疫指引、以及新北市政府後續備受質疑的不當處置…等等,這些超出議題範圍,不多做討論。
回到,客服系統這個議題。恩恩事件中,家屬陸續撥打兩次1922專線(客服)與三次緊急救難專線119(客服)尋求協助。引用Wiki資料,列出通話摘要:
時間 | 通話方 | 通話摘要 |
---|---|---|
16:00 | 恩恩媽聯絡衛生局 | 通報小孩昏迷不醒,衛生所要求自行搭計程車前往醫 |
衛生局17:00匡列恩恩為密切接觸者 | ||
17:42 | 恩恩爸第一次撥打1922 | 通報小孩狀況不佳,但無法聯繫衛生所,請求協助 |
18:00 | 恩恩媽第一次進線119勤務中心 | 通報恩恩發高燒、全身顫抖、意識不清,且衛生所打不通。 |
18:09 | 恩恩爸第二次撥打1922 | 告知消防局亦聯繫不上衛生所,且恩恩意識昏迷 |
18:11~18:19 | 119勤務中心致電衛生所 | 無人接聽,總機傳來語音「現在是下班時間,請於上班時間再來電」。 |
18:21 | 恩恩媽第二次進線119勤務中心 | 通報恩恩發紫斑、嘔吐、嗜睡、呼吸正常。 |
18:22 | 消防局聯繫醫院 | 轉告衛生所、衛生局電話均無人接聽;醫院說必須聯絡感染控制中心,確定床位才能收治。 |
18:25 | 消防局聯繫衛生局 | 通報案例;衛生局人員回覆無法立即安排 |
18:54 | 衛生局聯繫消防局 | 通知派遣救護車。 |
19:00 | 恩恩媽第三次進線119勤務中心 | 通報恩恩眼睛上吊 |
19:09 | 119勤務中心聯繫消防員、醫院 | 確認可收患者,指示派遣南勢分隊救護車 |
19:13 | 消防員回報消防局出車 | |
恩恩19:21上救護車 | ||
19:26 | 消防員到院回報119勤務中心 | 通報恩恩意識不清、臉色發紺、血氧80,並已給予氧氣。 |
20:44 | 1922客服中心聯繫衛福部疾管署 | 轉送案件至衛福部北區管制中心 |
20:56 | 衛福部疾管署聯繫新北市衛生局 | 北區管制中心連絡上新北市衛生局 |
我猜想恩恩的媽媽,在16:00那通電話通報小孩昏迷不醒時,通報的口氣應該是非常焦慮、不安與惶恐的,但是衛生所照著SOP行事;在18:21給119勤務中心的電話裡,可能是大聲的哭喊與求救吧,而電話的那頭的「人」員仍按SOP行事,確定床位才能收治,衛生局人員回覆無法立即安排。
專線的那頭,是個活生生的人,聽到了不安、恐懼、甚至求救的哭喊,應該是可以感受的到另一頭的情緒與感受吧,卻仍按SOP行事。如果,這整個事件的專線,都換成ChatGPT AI呢?那會怎樣?是否仍官腔、制式的以極高效率的回應?
我作為一個六歲小孩的父親,想到這裡頭皮發麻。假設這樣的事件發生在我身上,當我打電話向客服或緊急救難專線求助,那頭是ChatGPT AI,我能放心嗎?
AI可以處理效率問題,無法處理情緒問題,更不能用AI來處理人命相關的問題
回到本文開頭的問題:「ChatGPT AI當然可以取代客服。但是,有什麼情況下用AI當客服,不適合呢?」
我認為與人身安全、人命關天的客服專線,不應該完全使用AI來取代。
類似於緊急救難專線這類的客服,可以加入AI偵測說話者語氣或情境的辨視或偵測,例如:「我的兒子現在全身紫斑。」講話的語氣急促,AI不僅要辨視文字、語意、甚至語氣與說話者的情緒。當講話的語氣急促、語意中有狀況描述時,必需立即由機器人,轉由真人介入處理,而且處理層級要能夠立即上升,即時處理。
更重要的是,有了AI輔助之後的客服後面必需要有個「人」,而這個人要能高度的同理情感、情緒,並能打破SOP的做事。因為SOP該作的事,AI都已經作完了,才會到pass到後面的「人」這關,所以就不能再用AI的方式了,必需要用「人的方法」來處理事情。
總之,在未來到處都是AI的年代裡,人啊,就要活的不像機器,不然跟機器有什麼兩樣?