当前位置:
X-MOL 学术
›
J. Multimodal User Interfaces
›
论文详情
Our official English website, www.x-mol.net, welcomes your
feedback! (Note: you will need to create a separate account there.)
多模式 EchoBorg:并不像看起来那么智能
Journal on Multimodal User Interfaces ( IF 2.2 ) Pub Date : 2022-05-05 , DOI: 10.1007/s12193-022-00389-z Sara Falcone 1 , Jan Kolkmeier 1 , Dirk Heylen 1 , Merijn Bruijnes 2
"点击查看英文标题和摘要"
更新日期:2022-05-05
Journal on Multimodal User Interfaces ( IF 2.2 ) Pub Date : 2022-05-05 , DOI: 10.1007/s12193-022-00389-z Sara Falcone 1 , Jan Kolkmeier 1 , Dirk Heylen 1 , Merijn Bruijnes 2
Affiliation
在本文中,我们提出了一个多模式 Echoborg 界面,以探索交互中具体会话代理 (ECA) 的不同实施例的效果。我们将 ECA 体现为虚拟人 (VH) 的交互与体现为 Echoborg(即其行为受到对话系统秘密控制的人)的交互进行了比较。我们研究中的 Echoborg 不仅影响了对话系统的语音输出,还影响了其非语言行为。互动的结构是三个参与者之间关于道德困境的辩论。首先,我们收集了三名人类辩手的辩论会议语料库。我们以此为基准来设计和实施我们的 ECA。对于实验,我们设计了两种辩论条件。在其中一项中,参与者与两个 ECA 进行交互,这两个 ECA 均由虚拟人体现)。在另一项中,参与者与一个由 VH 体现的 ECA 和另一个由 Echoborg 体现的 ECA 进行交互。我们的结果表明,ECA 的人类体现在 ECA 的感知社会属性方面总体得分更高。在许多其他方面,除了共存性之外,Echoborg 的得分与 VH 一样差。
"点击查看英文标题和摘要"