Keywords
创新筛选, AI辅助决策, 大型语言模型, 生成式AI, 叙述性解释, 人机 协作, 实地实验
Paper Number
TR-2726
Paper Type
Complete
Abstract
AI 生成的叙述性解释是增强人类监督还是削弱它?我们对228名评估者在 三种条件下(仅人类、无解释的黑箱AI、带理由的叙述性AI)筛选48个早 期阶段创新的实地实验揭示了一个人机监督悖论。尽管解释旨在加强判断, 但它们增加了对AI建议的依赖。在3,002个筛选决策中,使用AI的筛选者 更有可能与AI建议一致,尤其是在拒绝想法时。分析显示,叙述的说服力 和跨标准的一致性驱动了这种一致性,表明叙述连贯性作为决策启发法。两 种AI条件均优于仅人类筛选,但叙述性AI在质量上并未优于黑箱建议,尽 管合规性增加。令人担忧的证据表明,叙述性解释可能增加对高潜力非传统 解决方案的拒绝。尽管算法辅助简化了高容量任务,组织面临选择性认知替 代的挑战。
Recommended Citation
Lane, Jacquelin; Boussioux, Leonard; Ayoubi, Charles; Chen, YingHao; Wang, Pei-Hsin; Lin, Camila; Spens, Rebecca; and Wagh, Pooja, "叙述性AI与早期阶段创新评估中的人机监督悖论" (2025). ICIS 2025 Proceedings. 49.
https://aisel.aisnet.org/icis2025/translated/translated/49
叙述性AI与早期阶段创新评估中的人机监督悖论
AI 生成的叙述性解释是增强人类监督还是削弱它?我们对228名评估者在 三种条件下(仅人类、无解释的黑箱AI、带理由的叙述性AI)筛选48个早 期阶段创新的实地实验揭示了一个人机监督悖论。尽管解释旨在加强判断, 但它们增加了对AI建议的依赖。在3,002个筛选决策中,使用AI的筛选者 更有可能与AI建议一致,尤其是在拒绝想法时。分析显示,叙述的说服力 和跨标准的一致性驱动了这种一致性,表明叙述连贯性作为决策启发法。两 种AI条件均优于仅人类筛选,但叙述性AI在质量上并未优于黑箱建议,尽 管合规性增加。令人担忧的证据表明,叙述性解释可能增加对高潜力非传统 解决方案的拒绝。尽管算法辅助简化了高容量任务,组织面临选择性认知替 代的挑战。
When commenting on articles, please be friendly, welcoming, respectful and abide by the AIS eLibrary Discussion Thread Code of Conduct posted here.

Comments
01-ConferenceTheme