本研究探讨大型语言模型(LLMs)在医疗研究中解读试验结果时是否受到误导信息的影响。结果表明,LLMs比人类更容易受到误导,但通过特定提示可以减轻这种影响。
完成下面两步后,将自动完成登录并继续当前操作。