1X Technologies创始人Bernt Børnich认为,机器人应通过相互学习社会规范和价值观。该公司开发的自主类人机器人NEO,旨在安全、经济地完成家务,提高人类生产力,让人们专注于更有意义的活动。
本研究提出了一种新方法,通过混合奖励权重,将法律/安全规范与社会规范结合,以促进强化学习中的价值对齐。实验结果表明,该方法有效激励代理遵守规范,发现的价值对齐政策优于单独使用规范。
本书由Sree Krishna Seelam撰写,旨在激励感到受限的人。通过五个变革习惯,鼓励读者打破常规,追求真实和有意义的生活。每章介绍一个习惯,挑战传统标准,促进自我发现与成长。
本研究针对ChatGPT在日常生活中应用的伦理与社会规范进行探讨,填补了相关领域的研究空白。通过对111名参与者的在线调查和38名专家的访谈,评价了ChatGPT在实践中的伦理合规性,发现透明度和偏见等问题是其伦理关切的主要障碍。研究结果为理解人工智能伦理提供了六个重要方面的初步见解。
1955年,美国汽车事故导致37000人死亡,福特推出安全带,但仅有2%的顾客选择升级。社会规范阻碍了改变,直到2000年代使用率才超过80%。历史教训表明,风险常常被低估,许多看似不可能的事情最终成为现实。
本研究针对机器在物理和社会背景下缺乏规范理解和推理的gap,通过提出EgoNormia数据集,包含1853个以自我为中心的人际互动视频,评估视觉语言模型(VLMs)的规范推理能力。研究发现,当前最先进的VLMs在规范理解方面表现薄弱,最高得分仅为45%,而人类评分达到92%。
本研究提出了一种多模态数据集,旨在展示现实生活中的规范与非规范行为,以帮助儿童学习社会原则。该数据集可用于训练遵循社会规范的人工智能系统,具有重要的应用价值。
人工智能(AI)不仅是技术进步,更是思维和创新的转变。它通过数据分析提升决策效率,改善用户体验,推动各行业如医疗、金融、教育和制造业的变革。AI重塑社会规范,挑战传统工作方式,促使我们关注透明度和责任问题,成为适应快速变化环境的必要条件。
本文探讨了代理决策中忽视他人影响导致的社会规范问题,提出了RAWL-E方法,运用罗尔斯伦理学的公平原则,以促进社会福利和公平性。研究表明,采用RAWL-E的代理在社会福利和基本体验上优于未采用该伦理学的代理。
本研究提出了“ClarityEthic”方法,旨在提高大型语言模型在道德判断中的可靠性和可解释性。通过对比学习识别适用的社会规范,该方法提升了道德判断的准确性和解释能力。实验结果表明,该方法优于现有技术,并获得积极反馈,显示出改善伦理行为的潜力。
本研究探讨了大语言模型(LLM)群体中社会规范的动态,解决了AI代理在互动中如何自发形成共享规范的问题。通过模拟互动,发现全球认可的社会规范能够自发产生,并揭示了即使个体无偏见,强烈的集体偏见也可以出现。此外,当少数致力于新规范的LLM群体达到临界规模时,能够有效推动社会变革。这表明AI系统能够在没有明确编程的情况下自主发展规范,具有重要的应用价值。
本研究解决了大型语言模型(LLMs)与社会价值观和规范不一致的问题。我们提出了SocialGaze,一个多步骤提示框架,促使语言模型从不同角度理解社会情境,从而更好地判断社会接受度。实验结果表明,该方法与人类判断的对齐度提高了多达11个F1点,揭示了LLMs在归责上的偏见和相关性。
本研究探讨了大型语言模型(LLMs)在不同角色下对社会规范的理解差异,发现LLMs对社会规范的解读受分配角色的影响,且在同一社会人口特征类别内的解读也有所不同。比较受欢迎的角色更能准确理解社会规范,揭示了社会偏见对文化规范解读的影响。
本研究解决了自动驾驶游戏中缺乏明确行为规范的问题,探索了大型语言模型(LLMs)在理解和建模社会规范方面的应用。通过设计提示和利用LLMs进行实验,我们发现LLM代理在不同驾驶场景中能够有效处理动态环境,并在面临潜在碰撞时采取保守的驾驶策略,显示出其在智能交通系统中的重要潜力。
OpenAI呼吁人们不要与ChatGPT等机器人建立情感联系,担心扭曲社会规范。OpenAI正在监测互动并调整系统,担心人们过度依赖AI而不与现实人建立健康社交关系。
研究者提出了CRSEC建模代理架构,用于产生社会规范。该架构通过四个模块处理规范的涌现过程,并将其纳入代理人的规划和行动中。实验证明该架构有效减少社会冲突。
这项研究探讨了将非性别包容性文本改写为性别包容性文本时的改变程度。研究结果显示,受性别包容性语言影响的令牌比例平均少于1%,这对学习和理解德语是否构成重大障碍存在质疑。
大型语言模型在任务导向的社会模拟中取得进展,但协调能力有待探索。引入协作生成代理,赋予一致行为模式和解决任务的能力。案例研究显示代理有希望的性能,但在复杂任务中有限制。对LLMs在社会模拟中的作用提供见解。
xDial-Eval是一种基于英文对话评估数据集的多语言对话评估基准测试,建立了自监督和多语言基线模型。最好的基线模型在所有数据集和语言上的平均Pearson相关系数分别提升了6.5%和4.6%。
本文讨论了基于强大语言模型的开放领域会话系统,并解释了Grice的合作会话标准。研究发现,神经会话模型必须流畅、信息丰富、一致、连贯,并遵循社会规范。为了确保这些优势,近期的方法尝试通过干预数据、训练模式或解码等方面来控制底层语言模型。本文讨论了这些尝试,并提出了未来研究的新方向。
完成下面两步后,将自动完成登录并继续当前操作。