本研究探讨了大型语言模型(LLMs)在决策支持中的信任动态,发现其信任发展模式与人类相似,但年龄、宗教和性别等人口统计变量可能导致偏见,强调需深入理解信任动态。
本研究提出VizTrust工具,旨在实时可视化分析用户与人工智能系统交互中的信任动态。该工具通过多代理协作系统,帮助利益相关者观察信任形成及其影响因素,为适应性对话代理设计提供反馈和见解。
完成下面两步后,将自动完成登录并继续当前操作。