今天小編分享的互聯網經驗:聊天機器人也要懂“人情世故”?一文了解Chatbot所需的11種社交特性,歡迎閱讀。
圖片來源 @視覺中國
文 | 追問 NextQuestion
聊天機器人(Chatbot)正在改變人類與計算機之間的互動方式。
諸如 GPT、LLaMA 等大語言模型(LLM)的到來,正在重塑人類生活的各個領網域,不論是全新的對話互動方式,還是更為高效的知識獲取與學習,甚至通過聊天機器人來診治精神病患者或是實現患者自我健康監控。
在當今世界,Chatbot 使用的廣泛程度已經遠超乎你的想象。2018 年的 F8 大會上,Facebook 宣布其 Messenger 應用上就已經有 30 萬個活躍的 Chatbot。而 BotList 網站更是羅列了數以千計的 Chatbot,涵蓋了教育、娛樂、遊戲、健康、生產、旅遊等多個領網域。
▷圖 1:BotList 網站上列舉的一些 Chatbot。圖源:BotList 官網
但問題是,這些 Chatbot 果真能像人類一樣 " 懂 " 如何聊天嗎?它們是否能夠精準滿足用戶的交流需求和期望呢?
答案是否定的。為了讓 Chatbot 更好地滿足用戶預期,IBM 和華盛頓大學的研究者建議 Chatbot 的互動目标中應當包含社交能力。
"讓用戶接受對話機器人主要是一個社會問題,而不僅僅是技術問題。—— Mario Neururer 等
奧地利因斯布魯克管理中心研究表明,人們更偏好具備一定社交特性的 Chatbot。那麼,随之而來的則是:到底哪些社交特性能夠提高 Chatbot 的溝通能力和社交技巧?這些特性在哪些領網域具有顯著的益處?使用它們是否存在挑戰?
早在 AI 浪潮爆發的 3 年之前,北亞利桑那大學和巴拉那聯邦理工大學的研究者 Chaves 和 Gerosa 就曾進行了一項深入的文獻研究。他們從近千篇相關文獻中篩選出了 56 篇代表性的工作,來探究 Chatbot 的社交特性如何影響用戶對其的感知和反應。研究者運用基于扎根理論(Grounded Theory)的定性編碼方法,總結出了三類共計 11 種社交特性的概念模型。
結果發現,在特定領網域中這 11 種社交特性有利于 Chatbot 和用戶更好地互動,但其中仍存在一些使用限制和挑戰。這些研究成果有助于深入了解特定的特性是否适合特定 Chatbot 的互動情境,來幫助聊天 AI 產品的設計者在選擇特性子集時做出明智決策。
▷圖 2:文章截圖。圖源:Taylor and Francis Online Homepage
Chatbot 應具備哪些社交特性?
在這項研究中,研究者通過對相關工作的總結,提出了 11 個 Chatbot 應該具備的社交特性,并将其分為三類。首先是" 會話智能(conversational intelligence)",這個類别有助于 Chatbot 管理自己與用戶的互動過程。其次是" 社交智能(social intelligence)",該類别關注習慣性的社交規範。最後是" 拟人化(personification)",指的是賦予 Chatbot 可感知的身份和個性表現。
為了幫助設計師和研究人員開發能夠體現這些社交特性的 Chatbot,研究者對這三類社交特性在 Chatbot 上的應用所帶來的益處以及相應的挑戰進行了詳細的分析。
▷圖 3:社交特性對 Chatbot 的益處與相應的挑戰。圖源:論文原文
(一)會話智能
會話智能指的是 Chatbot 在實現對話目标的技術能力之上,所具備的有效溝通能力。這能讓 Chatbot 積極主動地參與對話,展現它對讨論主題和不斷演變的對話語境的認知,同時還能夠理解對話的流程。
1. 主動性(Proactivity)
當與具有主動性的 Chatbot 進行對話時,對話會變得更加豐富多樣,不再拘泥于簡單的一問一答模式。
比方說,Chatbot 可以自己引入新的話題,提供額外的信息,并提出後續的追問,從而使對話更加有趣,也更有效率。不僅如此,Chatbot 還能依靠自己的主動性去吸引和引導用戶,避免用戶過早對交流失去興趣。
然而,Chatbot 也要講究方式方法,太過主動也可能會讓用戶感到不适。合适的時機和與話題的相關性十分重要。同時,研究指出,絕不能侵犯用戶隐私,也不能讓用戶有被操控的感覺。
2. 責任感(Conscientiousness)
不同于人類,Chatbot 的責任在于維護對話的主題和上下文。一個負責任的 Chatbot 能夠确保對話流程連貫,最終得到有意義的結果。
根據 Brandtzaeg 的實驗(參考文獻 10),有 68% 的參與者表示他們使用 Chatbot 主要是為了提升 " 生產力 "。在復雜的行業領網域(如金融)中,即便是最簡單的問題也需要了解一定的背景知識,即 " 上下文 "。顯然,能夠記住這些上下文并正确使用的 Chatbot 是提高生產力的前提保障。
然而,目前的 Chatbot 在處理過于復雜的問題和長篇上下文方面仍存在局限。此外,Chatbot 對于上下文的理解與用戶表達的内容之間可能存在歧義。由此,如何在對話中保持統一性也是一項重要的挑戰。
3. 可交流性(Communicability)
Prates 認為(參考文獻 11)," 可交流性是互動式軟體的本質,因為用戶是通過與系統交換信息來實現目标的。"在 Chatbot 的讨論範疇中,可交流性是指需要向用戶傳達自己的功能,也就是讓用戶知道應該如何使用自己。
與傳統軟體不同,Chatbot 不再通過按鈕、菜單、鏈接或新手指南來呈現自身功能,而是在與用戶的多輪交流對話中逐步展示其能力。
除了明确功能,可交流性還有助于管理用戶期望。畢竟,如果用戶期望超出了 Chatbot 的能力範圍," 期望越高,失望越大 "。
總之,會話智能的社交特性能讓 Chatbot 在互動中扮演主動地提供關注和信息的角色。這類特性可以幫助 Chatbot 管理對話,讓它變得高效、有趣和靈巧。為了實現這一目标,產品的設計研發人員需要關注提供信息的時機與相關性、隐私、互動的靈活性以及一致性等問題。
(二)社交智能
社交智能指的是個體為了實現預期目标而產生适當社交行為的能力。在人機互動領網域,人們對待計算機就如同對待社交角色一樣。因此,在 Chatbot 和用戶的互動中,有必要讓它遵守人類社交的交往規則。
1. 傷害控制(Damage control)
多項實驗表明,人們在對待 Chatbot 時的态度與對待真實人類時存在差異,更容易采取騷擾行為、使用非正常輸入進行壓力測試,并且更容易對結果表現出不滿。Lasek 和 Jessa 在分析酒店 Chatbot 對話記錄時發現,辱罵性言論占比達到了 2.8%;而在 Amazon 的對話中,有 4% 的句子含有露骨的性暗示(參考文獻 12)。
因此,傷害控制成為了 Chatbot 不可或缺的社交特性。這種特性使 Chatbot 能夠以适當的方式應對騷擾和測試行為。當然,前提是 Chatbot 必須能夠識别出敏感詞匯,同時也需要識别超出其能力範圍的請求,并提供符合對話上下文的回應。
2. 連貫性(Thoroughness)
有趣的是,Chatbot 的語言風格不僅會影響到用戶的使用體驗,還會影響到用戶的回答風格——用戶在交流時會更傾向于和 Chatbot 使用的語言風格保持一致。
一致的語言風格和精準的語言使用,能夠顯著增加 Chatbot 的可信程度,使其從 "acting as a machine(像機器一樣工作)" 變為 "more as a person(與真人更相似)"。
可惜,盡管有 13 篇研究強調了語言使用和語言風格對用戶體驗的重要性,但目前尚無工作提出具體的策略來支持 Chatbot 的連貫性。
3. 禮貌(Manners)
盡管不同地區和性格的人對禮貌的界定存在差異,但通常情況下,禮貌可以營造更融洽的對話氛圍。Chatbot 也可以通過使用禮貌的詞匯,例如問候、道歉或結束語,來維持對話的和諧,減少不愉快對話帶來的負面體驗。
然而,即便對于人類而言,維護面子也是一項挑戰,更不用說 Chatbot 了。讓 Chatbot 識别潛在的丢臉行為(Face-Threatening Acts),并以禮貌的方式化解,這一任務更是異常復雜。
4. 道德準則(Moral agency)
一個沒有道德準則的 Chatbot 是難以控制的,就像微軟在 Twitter 上推出的 Tay 一樣,在短時間内就展現出了種族歧視和性别歧視等不道德行為。因此,Chatbot 需要能夠根據社會的道德觀念來采取行動。
限制 Chatbot 具備道德準則的主要痛點是訓練數據和訓練方法當中的偏見。開發者給 Chatbot 投喂的訓練數據通常是 " 幹淨 " 的,沒有不道德的語料。然而,這種 " 幹淨 " 的數據反而導致 Chatbot 對不道德言論的陌生,無法适當地對其做出回應。
5. 情商(Emotional intelligence)
具備情商能讓 Chatbot 接受、識别和表達情感,對用戶的情感作出回應,并在解決問題時運用情感智能。
這種能力主要在一些可能涉及情感披露的領網域中發揮作用,例如教育和醫療。有趣的是,實驗表明,在與 Chatbot 交流時,人們更有可能披露自己的負面情緒。參與者表示,有些話題與人類交談可能會感到尴尬,但如果對方是個機器人,便可以更加随心所欲地傾訴。
此外,情商還可以使用戶更加信任 Chatbot。在一項實驗中,用戶表示在與治療師 Chatbot 交流的體驗中,最好的一點是能夠感受到同理心。這種感受使他們更願意稱呼 Chatbot 為 " 他 "、" 朋友 " 或者 " 一個有趣的小家夥 "。
Lee 和 Choi 提出了一種有趣的方法來提升 Chatbot 的情商。他們認為通過自我披露和展現互惠性的方式可以增加用戶對 Chatbot 的信任度和親近感(參考文獻 18)。然而,盡管這個假設頗具潛力,目前還需要進一步的研究來充分驗證其有效性。
6. 個性化(Personalization)
擁有一個 " 私人訂制 "Chatbot 對許多人來說是非常有吸引力的。個性化能夠使 Chatbot 根據用戶的個人信息和獨特需求來定制化調整其功能。
想象一下,如果一個導航的 Chatbot 沒有個性化能力,它會為所有用戶提供統一的答案,而不考慮用戶的個人需求,比如是否喜歡走高速,是否願意繞開擁堵路段,還是只是想随處兜兜風。
然而,實現個性化功能意味着 Chatbot 必須收集足夠的用戶個人信息,這可能會帶來用戶隐私洩露的風險。因此,在實現個性化功能的同時,務必要高度重視用戶的隐私保護問題。
總的來說,社交智能這一類社交特性有助于 Chatbot 解決社交定位問題,同時增強調整能力、可信度、類人性、互動性和人際關系。在實現這一目标的同時,設計師和研究人員也應關注隐私保護、情感調節問題、語言一致性以及故障和不當内容的識别。
(三)拟人化
拟人化是指将人類的特質賦予 Chatbot,包括外貌和情感狀态。文獻表明,經過誘導,用戶可以将計算機視為人類,且計算機越類人化,人們的反饋就會愈發社會化。
1. 身份(Identity)
雖然 Chatbot 無法自主選擇自己的身份,但開發人員在定義其對話風格和行為方式時,總會有意無意地賦予它一定的身份特質。一個恰如其分的身份不僅能夠增強對話的沉浸感,還能夠提升用戶的信任度。想象一下,當患者面對 " 專業醫師 " 和 " 實習醫生 " 兩種 Chatbot 身份時,前者很可能更容易獲得信賴。
Chatbot 身份的建構可能涵蓋多個方面,如性别、年齡、語言風格和姓名,甚至連字體的選擇也在其中。有研究表明,用戶認為采用手寫字體的 Chatbot 更具人類特質。
然而,如何賦予 Chatbot 一個貼切的身份是頗有挑戰的。需要注意的不僅是 Chatbot 身份與其能力之間的一致性,還需避免身份賦予帶來的社會刻板印象,比如黑人身份所帶來的與種族主義相關的聯想。
2. 人格(Personality)
根據社會學觀點,人格是用來預測個人思維、情感和行為的特質,包括外向性、宜人性、盡責性、神經質、開放性、氣質和幽默感等。同樣,Chatbot 也需要具備這些人格特質。
擁有一致人格的 Chatbot 更具可預測性和可信度。喜怒無常和多變的人很少受歡迎,同樣,如果 Chatbot 的态度出現不可預測的波動,也會讓用戶感到不适。
需要注意的是,不同的用戶群體對 Chatbot 的人格有不同偏好。例如,學生更偏好宜人性和外向性較高的導師式 Chatbot,以便能在面對挫折時獲得鼓勵;而一些以娛樂為目的的人可能更希望 Chatbot 具備幽默感。
以上兩個拟人化特性的好處與社交智能很類似,包括增強可信度、類人性、互動性和人際關系。不同之處在于,研究人員應專注于賦予 Chatbot 可識别的身份和人格特征,并且這些特征可以和用戶所期待的 Chatbot 特質相一致。此外,也要關注對用戶文化背景的适應、減少負面刻板印象的影響。
如何選擇 Chatbot 的社交特性?
進一步的研究揭示,不同領網域對社交特性的需求各具差異。
目前,幾乎所有的社交特性在開放領網域的 Chatbot 中都得到了應用,唯獨" 可交流性 "例外。這是因為開放領網域的 Chatbot 通常無需明确界定它的具體能力範圍,只需模拟人類的交流方式即可。
然而,在特定領網域中,Chatbot 往往需要更加定制化的社交特性。以教育和客服領網域為例,Chatbot 在禮貌和情商方面需求更高,但在不同的目标下表現迥異。在教育背景下,這些特性旨在激勵學生,因此 Chatbot 應擅長鼓勵和安撫,特别是在學生遇到挫折時。而在客服領網域,情商和禮貌更多地用于應對客戶對產品或服務的不滿情緒,從而提供更優質的服務體驗。
▷圖 4:研究者在不同領網域中發現的社交特性。圖源:論文原文
此外,不同社交特性之間的關系也值得關注。研究者們發現,社交特性之間可以相互影響、相互促進。比如,當責任感和情商同時出現時,因為保留了先前對話的信息并能夠回憶它們,Chatbot 能夠展現出更強的同理心。責任感也能支持更好的個性化特性,因為 Chatbot 能夠記住不同互動會話中的個人偏好。研究者用一個理論框架總結了社交特性之間的 22 種關系命題。
▷圖 5:社交特性之間的相互關系。圖源:論文原文
總結
Chatbot 的發展已經不再僅僅依賴于計算機科學,還需要社會科學的有力支持。
這項研究通過對相關工作的回顧性調研,總結出了 11 種 Chatbot 所需的社交特性,并提出了社交特性之間的 22 種相互關系。這些特性或許并不全面,也沒有定量分析,但已經涵蓋了許多人際交流的關鍵要素。這些結果為設計師和研究人員在推動人機互動領網域發展方面提供了重要的參考和機遇。
研究者認為," 社會科學,尤其是社會語言學和傳播學,在 Chatbot 的設計中扮演着重要角色。"
文中研究者指出了一些可指導這些研究的社會學理論,如合作原則、社會認同、個性化、禮貌以及心智感知理論。具體而言,責任感、連貫性和主動性可能屬于合作原則的範疇,而社會認同理論可能有助于解釋人機對話中的身份、人格和道德問題。這些理論為 Chatbot 的開發提供了有益的指導,讓設計師和研究人員能夠更好地塑造 Chatbot 的社交特性。
然而,需要注意的是,要讓 Chatbot 具備恰當的社交特性并不是一項容易的任務。在确保 Chatbot 的社交特性與其功能一致的同時,還需要避免潛在的偏見和社會刻板印象。這需要我們在技術與倫理之間找到平衡,以創造出能夠為用戶提供積極體驗的 Chatbot。
綜上所述,Chatbot 的未來之路在于融合計算機科學與社會科學,讓技術更加人性化、智能化,為用戶提供更優質、親近的互動體驗。通過深入挖掘社會科學,我們能夠更準确地滿足人們多樣化的需求,使 Chatbot 的發展更加貼近人心,為人類創造出更加有益的數字夥伴。
參考文獻:
[ 1 ] Chaves A P, Gerosa M A. How should my chatbot interact? A survey on social characteristics in human – chatbot interaction design [ J ] . International Journal of Human – Computer Interaction, 2021, 37 ( 8 ) : 729-758.
[ 2 ] Neururer M, Schl ö gl S, Brinkschulte L, et al. Perceptions on authenticity in chat bots [ J ] . Multimodal Technologies and Interaction, 2018, 2 ( 3 ) : 60.
[ 3 ] Jain M, Kumar P, Kota R, et al. Evaluating and informing the design of chatbots [ C ] //Proceedings of the 2018 designing interactive systems conference. 2018: 895-906.
[ 4 ] Liao Q V, Mas-ud Hussain M, Chandar P, et al. All work and no play? [ C ] //Proceedings of the 2018 CHI Conference on Human Factors in Computing Systems. 2018: 1-13.
[ 5 ] Forlizzi, J., Zimmerman, J., Mancuso, V., & Kwak, S. ( 2007 ) . How interface agents affect interaction between humans and computers. In Proceedings of the 2007 conference on designing pleasurable products and interfaces ( pp. 209 – 221 ) .
[ 6 ] Lee, S., & Choi, J. ( 2017 ) . Enhancing user experience with conversational agent for movie recommendation: Effects of self-disclosure and reciprocity. International Journal of Human- Computer Studies, 103 , 95 – 105.
[ 7 ] Thies, I. M., Menon, N., Magapu, S., Subramony, M., & O ’ neill, J. ( 2017 ) . How do you want your chatbot? an exploratory wizard-of-oz study with young, urban indians. In B. R., D. G., J. A., K. B. D., O. J., & W. M. ( Eds. ) , Human-computer interaction – interact ( Vol. 10513, pp. 441 – 459 ) . Cham, Switzerland: Springer
[ 8 ] Ciechanowski, L., Przegalinska, A., Magnuski, M., & Gloor, P. ( 2018 ) . In the shades of the uncanny valley: An experimental study of human – chatbot interaction. Future Generation Computer Systems, 92 , 539 – 548.
[ 9 ] Gnewuch, U., Morana, S., & Maedche, A. ( 2017 ) . Towards designing cooperative and social conversational agents for customer service. In International conference on information systems 2017, proceedings 1. South Korea: Association for Information Systems.
[ 10 ] Brandtzaeg, P. B., & F ø lstad, A. ( 2017 ) . Why people use chatbots. In 4th international conference on internet science ( pp. 377 – 392 ) . Cham: Springer International Publishing.
[ 11 ] Prates, R. O., de Souza, C. S., & Barbosa, S. D. ( 2000 ) . Methods and tools: a method for
evaluating the communicability of user interfaces. interactions, 7 ( 1 ) , 31 – 38.
[ 12 ] Lasek, M., & Jessa, S. ( 2013 ) . Chatbots for Customer Service on Hotels ’ Websites. Information Systems in Management, 2 ( 2 ) , 146 – 158.
[ 13 ] Luger, E., & Sellen, A. ( 2016 ) . Like having a really bad pa: The gulf between user expectation and experience of conversational agents. In Proceedings of the 2016 chi conference on human factors in computing systems ( pp. 5286 – 5297 ) . New York, NY, USA: ACM.
[ 14 ] Curry, A. C., & Rieser, V. ( 2018 ) . # metoo alexa: How conversational systems respond to sexual harassment. In Proceedings of the second acl workshop on ethics in natural language processing ( pp. 7 – 14 ) . New Orleans, Louisiana, USA: Association for Computational Linguistics.
[ 15 ] Miner, A., Chow, A., Adler, S., Zaitsev, I., Tero, P., Darcy, A., & Paepcke, A. ( 2016 ) . Conversational agents and mental health: Theory-informed assessment of language and affect. In Proceedings of the fourth international conference on human agent interaction ( pp. 123 – 130 ) . New York, NY, USA: ACM.
[ 16 ] Zamora, J. ( 2017 ) . I ’ m sorry, dave, i ’ m afraid i can ’ t do that: Chatbot perception and expectations. In Proceedings of the 5th international conference on human agent interaction ( pp. 253 – 260 ) . New York, NY, USA: ACM.
[ 17 ] Fitzpatrick, K. K., Darcy, A., & Vierhile, M. ( 2017 ) . Delivering cognitive behavior therapy to young adults with symptoms of depression and anxiety using a fully automated conversational agent ( Woebot ) : a randomized controlled trial. JMIR mental health, 4 ( 2 ) , online.
[ 18 ] Lee, S., & Choi, J. ( 2017 ) . Enhancing user experience with conversational agent for movie recommendation: Effects of self-disclosure and reciprocity. International Journal of Human-Computer Studies, 103 , 95 – 105.
[ 19 ] Nass, C., Steuer, J., Tauber, E., & Reeder, H. ( 1993 ) . Anthropomorphism, agency, and ethopoeia: computers as social actors. In Interact ’ 93 and chi ’ 93 conference companion on human factors in computing systems ( pp. 111 – 112 ) .
[ 20 ] Gong, L. ( 2008 ) . How social is social responses to computers? the function of the degree of anthropomorphism in computer representations. Computers in Human Behavior, 24 ( 4 ) , 1494 – 1509.
[ 21 ] Candello, H., Pinhanez, C., & Figueiredo, F. ( 2017 ) . Typefaces and the perception of humanness in natural language chatbots. In Proceedings of the 2017 chi conference on human factors in computing systems ( pp. 3476 – 3487 ) . New York, NY, USA: ACM.