Control issues: How providing input affects auditors' reliance on artificial intelligence
成果类型:
Article
署名作者:
Commerford, Benjamin P.; Eilifsen, Aasmund; Hatfield, Richard C.; Holmstrom, Kathryn M.; Kinserdal, Finn
署名单位:
University of Kentucky; Norwegian School of Economics (NHH); University of Alabama System; University of Alabama Tuscaloosa; Iowa State University
刊物名称:
CONTEMPORARY ACCOUNTING RESEARCH
ISSN/ISSBN:
0823-9150
DOI:
10.1111/1911-3846.12974
发表日期:
2024
页码:
2134-2162
关键词:
work locus
uncertainty
management
PARTICIPATION
algorithms
employees
advice
IMPACT
task
摘要:
In this study, we examine auditors' reliance on artificial intelligence (AI) systems that are designed to provide evidence around complex estimates. In an experiment with highly experienced auditors, we find that auditors are more hesitant to rely on evidence from AI-based systems compared to human specialists, consistent with algorithm aversion. Importantly, we also find that a small amount of control (i.e., providing input to specialists) can mitigate this aversion, though this effect depends on auditors' personal locus of control (LOC). Providing input increases reliance on evidence from AI systems for auditors who believe they have little control over their outcomes (i.e., an external LOC). In contrast, auditors with an internal LOC are particularly hesitant to rely on AI-based evidence, and providing input has little impact on their reliance. Interviews with experienced auditors corroborate our findings and suggest auditors feel a greater sense of control working with human specialists relative to AI-based systems. Overall, our results suggest perceived control plays an important role in auditors' aversion to AI and that auditors' individual traits can affect this aversion. Questions de contr & ocirc;le : l'impact de la fourniture d'information sur la confiance des auditeurs en l'intelligence artificielleCette & eacute;tude examine le niveau de confiance des auditeurs dans les syst & egrave;mes d'intelligence artificielle (IA) con & ccedil;us pour fournir des donn & eacute;es relatives & agrave; des m & eacute;thodes d'estimation complexes. Au cours d'une exp & eacute;rience avec des auditeurs tr & egrave;s exp & eacute;riment & eacute;s, il apparait que ces derniers h & eacute;sitent davantage & agrave; s'appuyer sur des donn & eacute;es provenant de syst & egrave;mes bas & eacute;s sur l'IA qu'& agrave; celles des sp & eacute;cialistes humains, ce qui t & eacute;moigne de l'aversion algorithmique. Les auteurs soulignent que la possibilit & eacute; d'exercer un contr & ocirc;le limit & eacute; (c'est-& agrave;-dire en fournissant des informations aux sp & eacute;cialistes) peut att & eacute;nuer cette aversion, bien que cet effet d & eacute;pende du lieu de contr & ocirc;le de l'auditeur. La fourniture d'information accroit le niveau de confiance dans les donn & eacute;es des syst & egrave;mes d'IA chez les auditeurs qui estiment n'avoir que peu de contr & ocirc;le sur leurs r & eacute;sultats (c'est-& agrave;-dire un lieu de contr & ocirc;le externe). En revanche, les auditeurs dont le lieu de contr & ocirc;le est interne h & eacute;sitent & agrave; s'appuyer sur des donn & eacute;es issues de l'IA, et la fourniture d'information n'a que peu d'impact sur leur niveau de confiance. Des entrevues men & eacute;es aupr & egrave;s d'auditeurs exp & eacute;riment & eacute;s corroborent ces r & eacute;sultats, soulignant que les auditeurs se sentent plus en contr & ocirc;le lorsqu'ils travaillent avec des sp & eacute;cialistes humains qu'avec des syst & egrave;mes bas & eacute;s sur l'IA. Dans l'ensemble, les r & eacute;sultats tendent & agrave; d & eacute;montrer que le contr & ocirc;le per & ccedil;u joue un r & ocirc;le important dans l'aversion des auditeurs & agrave; l'IA, et que leurs traits de personnalit & eacute; peuvent influer sur cette aversion.
来源URL: