当前位置: X-MOL 学术Sci. Robot. › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Persuasive robots should avoid authority: The effects of formal and real authority on persuasion in human-robot interaction
Science Robotics ( IF 25.0 ) Pub Date : 2021-09-22 , DOI: 10.1126/scirobotics.abd5186
Shane P Saunderson 1 , Goldie Nejat 1
Affiliation  

Social robots must take on many roles when interacting with people in everyday settings, some of which may be authoritative, such as a nurse, teacher, or guard. It is important to investigate whether and how authoritative robots can influence people in applications ranging from health care and education to security and in the home. Here, we present a human-robot interaction study that directly investigates the effect of a robot’s peer or authority role (formal authority) and control of monetary rewards and penalties (real authority) on its persuasive influence. The study consisted of a social robot attempting to persuade people to change their answers to the robot’s suggestion in a series of challenging attention and memory tasks. Our results show that the robot in a peer role was more persuasive than when in an authority role, contrary to expectations from human-human interactions. The robot was also more persuasive when it offered rewards over penalties, suggesting that participants perceived the robot’s suggestions as a less risky option than their own estimates, in line with prospect theory. In general, the results show an aversion to the persuasive influence of authoritative robots, potentially due to the robot’s legitimacy as an authority figure, its behavior being perceived as dominant, or participant feelings of threatened autonomy. This paper explores the importance of persuasion for robots in different social roles while providing critical insight into the perception of robots in these roles, people’s behavior around these robots, and the development of human-robot relationships.

中文翻译:

有说服力的机器人应该避免权威:正式和真实权威对人机交互说服力的影响

社交机器人在日常环境中与人互动时必须承担许多角色,其中一些可能是权威的,例如护士、老师或警卫。研究权威机器人是否以及如何影响从医疗保健和教育到安全和家庭的应用程序是很重要的。在这里,我们提出了一项人机交互研究,该研究直接调查了机器人的同伴或权威角色(正式权威)以及对金钱奖励和惩罚(真实权威)的控制对其说服力的影响。该研究包括一个社交机器人,试图说服人们在一系列具有挑战性的注意力和记忆任务中改变他们对机器人建议的回答。我们的研究结果表明,扮演同伴角色的机器人比扮演权威角色的机器人更有说服力,与人际互动的预期相反。机器人在提供奖励而不是惩罚时也更具说服力,这表明参与者认为机器人的建议比他们自己的估计风险更小,这与前景理论一致。总的来说,结果显示出对权威机器人的说服力影响的厌恶,这可能是由于机器人作为权威人物的合法性,其行为被认为是主导性的,或者参与者对自主性受到威胁的感觉。本文探讨了说服机器人在不同社会角色中的重要性,同时对机器人在这些角色中的感知、人们在这些机器人周围的行为以及人机关系的发展提供了批判性的见解。机器人在提供奖励而不是惩罚时也更具说服力,这表明参与者认为机器人的建议比他们自己的估计风险更小,这与前景理论一致。总的来说,结果显示出对权威机器人的说服力影响的厌恶,这可能是由于机器人作为权威人物的合法性,其行为被认为是主导性的,或者参与者对自主性受到威胁的感觉。本文探讨了说服机器人在不同社会角色中的重要性,同时对机器人在这些角色中的感知、人们在这些机器人周围的行为以及人机关系的发展提供了批判性的见解。机器人在提供奖励而不是惩罚时也更具说服力,这表明参与者认为机器人的建议比他们自己的估计风险更小,这与前景理论一致。总的来说,结果显示出对权威机器人的说服力影响的厌恶,这可能是由于机器人作为权威人物的合法性,其行为被认为是主导性的,或者参与者对自主性受到威胁的感觉。本文探讨了说服机器人在不同社会角色中的重要性,同时对机器人在这些角色中的感知、人们在这些机器人周围的行为以及人机关系的发展提供了批判性的见解。符合前景理论。总的来说,结果显示出对权威机器人的说服力影响的厌恶,这可能是由于机器人作为权威人物的合法性,其行为被认为是主导性的,或者参与者对自主性受到威胁的感觉。本文探讨了说服机器人在不同社会角色中的重要性,同时对机器人在这些角色中的感知、人们在这些机器人周围的行为以及人机关系的发展提供了批判性的见解。符合前景理论。总的来说,结果显示出对权威机器人的说服力影响的厌恶,这可能是由于机器人作为权威人物的合法性,其行为被认为是主导性的,或者参与者对自主性受到威胁的感觉。本文探讨了说服机器人在不同社会角色中的重要性,同时对机器人在这些角色中的感知、人们在这些机器人周围的行为以及人机关系的发展提供了批判性的见解。
更新日期:2021-09-23
down
wechat
bug