《公正》探讨了功利主义、义务论和契约论等正义理论。桑德尔强调道德判断应结合具体情境,认为个体生活在社群中,正义需关注个体权利与社会责任。书中通过经典案例分析不同理论的应用,值得深入阅读。
随着人工智能的普及,依赖情感、信任和道德判断的职业价值将上升,尤其是领导力、导师和谈判等领域。人类的软技能将成为稀缺资源,AI难以替代这些工作。
本研究探讨了大型语言模型(LLMs)在道德判断中的评估,指出现有方法简化了复杂的道德困境。通过分析“AITA”社区的案例,发现LLMs的道德判断与人类显著不同,强调了在人工系统中实施一致道德推理的复杂性,提醒我们需谨慎评估其道德决策。
本研究提出了“ClarityEthic”方法,旨在提高大型语言模型在道德判断中的可靠性和可解释性。通过对比学习识别适用的社会规范,该方法提升了道德判断的准确性和解释能力。实验结果表明,该方法优于现有技术,并获得积极反馈,显示出改善伦理行为的潜力。
欧盟人工智能法案已生效,强调负责任地开发和使用AI系统。文章探讨机器伦理及其自我意识和道德判断能力,指出机器学习可能反映人类数据中的偏见。以德尔菲聊天机器人为例,讨论机器应遵循的人类价值观。未来需确保数据训练的多样性,促进透明度和问责制,以实现全球伦理一致性。
研究发现,Chat-GPT语言模型的神经活动拓扑结构对公平性的度量标准有影响。GPT-3.5的句子嵌入可以分解为公平和不公平道德判断对应的两个子流形,表明GPT在训练过程中对公平性有了理解。
本文测试了大型语言模型对文本场景进行的因果和道德判断是否与人类参与者的判断相符。结果显示,大型语言模型与人类的判断相符度有所提高,但对不同因素的重视程度存在明显差异。这些结果揭示了大型语言模型的隐含倾向,并展示了这些倾向在多大程度上与人类的直觉相一致。
研究社交媒体对道德判断的影响因素,包括事件和语言信号。负面个人特质和描绘会影响道德判断。
完成下面两步后,将自动完成登录并继续当前操作。