高脂饮食与运动结合能促使身体通过不同机制适应压力。高脂饮食提高线粒体对脂肪的利用,运动则增加线粒体数量。两者共同作用下,身体进行系统重构,整体能力增强。适度压力促进身体进化,体现毒物兴奋效应的真实内涵。
机器之心数据服务现已上线,提供高效稳定的数据获取,简化数据爬取流程。
现代“单身狗”文化起源于21世纪,始于1997年的一个网站。随着社交媒体的发展,性别歧视和“黑药丸”思想逐渐传播,形成特定网络语言。这些术语在年轻人中流行,反映了对社会的悲观态度,并影响主流文化。
本研究探讨了大语言模型预训练中的数据质量问题,发现增加有毒数据可以降低后期输出的毒性。实验表明,尽管有毒数据会增加生成的毒性,但去除毒性变得更容易,从而实现毒性降低与模型能力之间的平衡。
本研究分析了186百万条消息和13,151个聊天记录,揭示了意大利电报生态系统中的社区形成及意识形态对立,发现毒性与种族和性别目标密切相关,为在线毒性和意识形态互动提供了重要见解。
本研究评估了多种机器学习方法在农药对蜜蜂毒性数据稀缺问题上的表现,发现现有算法在非医学数据集上效果不佳,强调了开发针对性模型和多样化数据集的必要性。
本研究针对低资源印度语言中的毒性内容分类问题,通过开发UnityAI-Guard框架填补现有高资源语言系统的空白。该框架在七种语言上实现了84.23%的平均F1分数,显著提升了多语言内容审核的能力,且提供公共API以促进更广泛的应用和采纳。
本研究提出了一种新的客观框架,通过压力水平作为毒性指标,解决了毒性检测中的模糊定义问题,并验证了新定义和训练方法的有效性。
细胞内电生理学在神经科学和药理学中至关重要。斯坦福大学与加州大学的研究团队提出了一种AI支持的技术,利用纳米电极阵列记录心肌细胞电位,展示了非侵入性药物心脏毒性评估的潜力。研究开发的PIA-UNET模型能够准确重建细胞内电位,为电生理学研究提供新方法。
本研究探讨了大型语言模型(LLMs)在交互体验中的内容安全问题,特别是偏见和毒性。通过HEXACO人格框架,发现不同人格特征显著影响模型输出的偏见和毒性,调整人格特征可有效降低不良行为。
本研究解决了合成农药设计中缺乏生成新分子结构的方法的问题。提出的Pesti-Gen模型基于变分自编码器,首次利用双阶段学习过程生成具有优化特性的农药候选分子,并结合毒性特定信息。Pesti-Gen在生成新分子结构方面实现了约68%的结构有效性,为更安全和可持续的害虫管理解决方案提供了一种新方法。
本研究针对当前文本到图像(T2I)模型在安全性方面的不足,提出了T2ISafety这一安全基准,旨在评估模型在毒性、公平性和偏见等关键领域的表现。通过建立一个包含12个任务和44个类别的详细层级结构,并收集70K相关提示,研究揭示了现有模型在种族公平性、生成有害内容和隐私保护等方面的显著问题。
本研究针对大型语言模型(LLMs)在生成有毒回应时可能造成的社会危害,提出了一种新的自动化测试框架EvoTox,以定量评估其毒性倾向。通过迭代演化策略,EvoTox能有效检测LLMs在对齐后的残留毒性水平,研究结果显示该框架的效果明显优于传统方法,并具有较低的成本开销,表明其在评估和改进LLMs的安全性上的潜在影响。
本研究分析了2023年1月至2024年10月期间YouTube上关于新冠疫情的视频内容,重点探讨情感、毒性和主题模式。研究利用自然语言处理技术揭示了视频的支持性和信息丰富性,并开发了推荐系统,以提高相关视频的推荐质量,促进用户参与和负责任内容的传播。
《一亿用户》是一款社交网络主题的卡牌游戏,玩家通过抽卡建立社交平台并阻碍对手,灵感源自1906年的《Touring》,结合了“毒性”和“影响者”等新机制,反映社交媒体竞争的现实。游戏规则仍在调整中,目标是吸引最多用户。
本研究探讨了多语言大型语言模型在非英语中的偏见和毒性问题。通过比较微调方法,发现使用非有害文本微调能有效降低偏见,而优化数据集更能减少毒性。研究表明,英语中的缓解效果可以迁移至其他语言,但可能影响非英语的生成能力,强调了开发语言特定缓解方法的重要性。
本研究探讨了文本毒性检测系统在特定人群中的偏差,发现语音数据能有效降低偏见,尤其在模糊样本中。强调改善分类器的重要性超过转录流程。
本研究探讨了直接偏好优化(DPO)在降低语言模型毒性方面的机制,发现DPO通过多个神经元群体的综合效应实现毒性降低,其中仅31.8%的降低源于被抑制的毒性神经元。
本研究提出了一种新颖的内容审核框架,针对注释分歧问题,将其视为重要信号。该框架结合多任务学习与符合性预测,提升了模型性能和审核效率。
本研究探讨用户在毒性审查中的多样化需求,开发了名为DeMod的ChatGPT驱动工具,提供可解释的检测结果和个性化建议,展现出功能丰富性、审查准确性和易用性等优势。
完成下面两步后,将自动完成登录并继续当前操作。