科學家正開發一種人工智能系統,令機械人在未來或能夠透過辨識說話中的微妙處,學懂哪種情況下應該笑,及用哪種笑法。開發懂笑機械人的團隊表示,該系統可以改善人與人工智能系統之間對話的自然程度。
京都大學研究院資訊科學研究學系助理教授兼研究主要作者井上昂治指出:「我們認為對話式人工智能的重要功能之一是同理心,所以想到若要讓機械人及用戶產生共鳴,方式之一正是可以一起笑。」研究近日發表於期刊 Frontiers in Robotics and AI。
井上與同事已著手教授 AI 對話的笑之藝術。機械人最初由 4 名女演員遙距配音,而點頭、注視及手勢等非語言行為,則由操作員控制,並讓機械人與不同男大學生進行 80 多次模擬快速約會,從對話中收集訓練數據。
研究員在對話數據中標注出單獨笑聲、社交笑聲(不涉及幽默,亦不包括禮貌或尷尬等笑聲)及開懷大笑,用作訓練學習系統,決定某些情況下應否笑,並選出合適笑法。基於聲音檔案,該演算法學習到社交笑聲通常比較柔和及歡快,以及何時應發出這種笑聲。井上說:「這項工作中,我們最大的挑戰是要確定共鳴而笑的實際情況,這並不容易,因為眾所周知,大多數笑聲其實並非同時間出現。」
為測試機械人 Erica 的反應,研究人員利用原有能夠回應說話者的聆聽系統,加入該演算法,由此建立出 4 個場景,包括完全不笑、一旦接到笑聲就給予社交笑等,與用戶互動。團隊再招募 30 位眾包工人聆聽各個場景,並對同理心、自然程度、人性化及理解力方面作評分,最終受試者給予共鳴笑演算法的評分最高。
研究團隊表示,笑聲有助於創造具有自己獨特性格的機械人。井上說:「我們認為機械人可以通過他們的談話舉止例如笑、眼神、手勢和說話風格,來展示這一點。」不過他補充,可能需要 20 多年才能真正「和機器人休閒聊天,就像我們和朋友聊天一樣。」
牛津大學牛津互聯網研究所技術與監管教授 Sandra Wachter 則提醒:「我永遠謹記一個原則,機械人或演算法永遠無法理解你。它不認識你,它不了解你,也不了解笑的意義。它們沒有感知力,但可能非常擅長讓你相信,它們了解正在發生的事情。」