文章

milan米兰体育 何时(或不)信任智能机器:重复博弈中信任的进化博弈论分析的见解

详情

引用

Han TA、Perret C 和 Powers ST (2021) 何时(或不)信任智能机器:重复博弈中信任的进化博弈论分析的见解。认知系统研究,68,第 111-124 页。 https://doi.org/10.1016/j.cogsys.2021.02.003

摘要
聊天机器人、推荐系统和虚拟助理等智能代理的操作通常对用户并不完全透明。因此,用户面临这样的风险:此类代理的行为方式与用户的偏好或目标相反。人们经常认为,人们使用信任作为一种认知捷径来降低此类互动的复杂性。在这里,我们通过使用进化博弈论的方法来研究重复博弈中基于信任的策略的可行性来形式化这一点。这些是互惠策略,只要观察到其他玩家在合作,就会进行合作。与经典的互惠策略不同,一旦观察到相互合作达到阈值轮数,他们就会停止每轮检查共同玩家的行为,而只是以一定的概率进行检查。通过这样做,他们减少了验证共同玩家的行为是否真正合作的机会成本。我们证明,当机会成本不可忽略时,这些基于信任的策略可以胜过始终有条件的策略,例如“一报还一报”。我们认为,当人与智能代理之间进行交互时,由于代理的透明度降低,这种成本可能会更大。因此,我们期望人们在与智能代理交互时更频繁地使用基于信任的策略。我们的研究结果为促进人类和智能代理之间交互的机制设计提供了新的、重要的见解,其中信任是一个重要因素。

关键字
信任;进化博弈论;智能代理;合作;囚徒困境;重复游戏

期刊
认知系统研究:第 68 卷

状态已发布
资助者Leverhulme 信托
发布日期31/08/2021
在线发布日期08/04/2021
期刊接受日期06/02/2021
发布商爱思唯尔 BV
ISSN1389-0417

人 (1)

西蒙·鲍尔斯博士

西蒙·鲍尔斯博士

可信计算机系统、计算科学讲师