小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI

本研究提出HICD方法,旨在改善大型语言模型中的幻觉现象。通过选择关键注意力头并分散其注意力,HICD显著提升了上下文完整性和知识回忆的准确性,为降低幻觉提供了有效策略。

Contrastive Decoding Method Inducing Hallucinations through Attention Dispersion to Mitigate Hallucinations in Large Language Models

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-03-17T00:00:00Z
大型语言模型的压力:内存压缩如何影响人工智能性能

该研究分析了KV缓存压缩对大型语言模型(LLM)性能的影响,测试了不同压缩方法在推理、知识回忆和指令执行方面的效果,并探讨了内存效率与模型能力之间的权衡。

大型语言模型的压力:内存压缩如何影响人工智能性能

DEV Community
DEV Community · 2025-02-09T06:50:34Z
Ai2推出OLMo 2,完全开源的基础模型

Allen人工智能研究所推出了OLMo 2系列开源语言模型,参数为70亿和130亿。该模型经过5万亿个标记训练,采用分阶段训练和多样化数据集,显著提升了训练稳定性和模型鲁棒性。在知识回忆、推理和语言能力方面,OLMo 2超越了前代模型,成为开源AI的新标杆。

Ai2推出OLMo 2,完全开源的基础模型

InfoQ
InfoQ · 2024-12-05T15:36:00Z
  • <<
  • <
  • 1 (current)
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
友情链接: MOGE.AI 九胧科技 模力方舟 Gitee AI 菜鸟教程 Remio.AI DeekSeek连连 53AI 神龙海外代理IP IPIPGO全球代理IP 东波哥的博客 匡优考试在线考试系统 开源服务指南 蓝莺IM Solo 独立开发者社区 AI酷站导航 极客Fun 我爱水煮鱼 周报生成器 He3.app 简单简历 白鲸出海 T沙龙 职友集 TechParty 蟒周刊 Best AI Music Generator

小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码