小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
沉浸式翻译 immersive translate
Dify.AI
上下文衰退如何影响企业AI和大型语言模型(LLM)的结果,以及如何解决这一问题

上下文衰退影响企业AI和大型语言模型(LLM)的表现。旧数据未被清除,导致信息混乱和推理能力下降。企业需监控关键数据指标,清除过时数据,以提升AI的准确性和效率。

上下文衰退如何影响企业AI和大型语言模型(LLM)的结果,以及如何解决这一问题

The New Stack
The New Stack · 2026-03-09T16:00:03Z
Junie CLI:支持多种大型语言模型的编码助手现已进入Beta阶段

JetBrains推出了Junie CLI,这是一款独立的AI编码助手,支持多种顶级模型,可在终端、IDE和CI/CD中使用。Junie具备实时提示、代码智能和任务预测功能,旨在提升开发效率,并提供灵活的定价和自定义配置。

Junie CLI:支持多种大型语言模型的编码助手现已进入Beta阶段

The JetBrains Blog
The JetBrains Blog · 2026-03-09T13:26:28Z
扩展人类判断:Dropbox如何利用大型语言模型提升RAG系统的标注效率

Dropbox通过结合人类标注和大型语言模型(LLMs)生成的标签,提升了文档检索的相关性和标注效率。尽管LLM存在局限性,但人类校准显著改善了RAG系统的性能。

扩展人类判断:Dropbox如何利用大型语言模型提升RAG系统的标注效率

InfoQ
InfoQ · 2026-03-07T18:00:00Z
如何通过使用Ollama在本地运行大型语言模型来保护敏感数据

在构建AI应用时,保护用户敏感数据至关重要。Ollama是一个开源工具,允许用户在本地运行大型语言模型,从而避免将数据发送到外部API,确保隐私。本文介绍了Ollama的安装、使用及其与Python的集成方法。

如何通过使用Ollama在本地运行大型语言模型来保护敏感数据

freeCodeCamp.org
freeCodeCamp.org · 2026-03-05T15:04:02Z
大型语言模型、乐高和LED灯:一位Elastic工程师如何保持活力并以好奇心引领

肖恩·汉德利认为专注是远程工作的关键。他通过禁用干扰通知和设定专注时间来提升效率,使用LED灯和站立桌保持清醒。他推荐《软件工程师指南》,并用乐高装饰办公室以展示创造力。

大型语言模型、乐高和LED灯:一位Elastic工程师如何保持活力并以好奇心引领

Elastic Blog - Elasticsearch, Kibana, and ELK Stack
Elastic Blog - Elasticsearch, Kibana, and ELK Stack · 2026-03-05T00:00:00Z
为什么JSON与S表达式的结合对大型语言模型(LLMs)意外地适用

文章讨论了S表达式在大型语言模型(LLM)输出中的局限性,指出模型在生成Lisp语法时常出现问题。提出了一种结合S表达式结构与JSON可靠性的方案,称为JSON结构表达式(JSE),以便在有效的JSON中使用S表达式风格的结构。

为什么JSON与S表达式的结合对大型语言模型(LLMs)意外地适用

挖坑不填兽
挖坑不填兽 · 2026-03-04T16:00:00Z
如何使用Ollama在本地运行和自定义大型语言模型(LLMs)

大型语言模型(LLMs)是强大的人工智能系统,能够在本地离线运行,确保数据隐私并降低成本。本文介绍了如何使用Ollama设置本地LLMs,包括安装、管理和自定义模型,适合开发者和AI爱好者。通过本地运行,用户可获得更快的响应和更高的控制权。

如何使用Ollama在本地运行和自定义大型语言模型(LLMs)

freeCodeCamp.org
freeCodeCamp.org · 2026-03-03T12:00:28Z

Cloudflare通过整合大型语言模型(LLMs)提升了电子邮件安全,主动检测钓鱼邮件,识别恶意模式,减少误判,提高检测效率,改善用户体验。

从被动到主动:利用大型语言模型缩小钓鱼攻击的差距

The Cloudflare Blog
The Cloudflare Blog · 2026-03-03T06:00:00Z
大型语言模型嵌入能否改善时间序列预测?一种实用的特征工程方法

该代码段处理数据框,重置索引、重命名列,清理价格数据,删除多余列,并合并价格数据与嵌入数据。

大型语言模型嵌入能否改善时间序列预测?一种实用的特征工程方法

MachineLearningMastery.com
MachineLearningMastery.com · 2026-02-27T14:40:25Z
提升搜索相关性:通过大型语言模型生成的评估增强App Store排名

大型商业搜索系统通过优化相关性帮助用户找到所需内容。我们结合行为相关性和文本相关性,解决专家标签稀缺问题。研究表明,专门调优的模型在提供相关标签方面优于大型预训练模型。生成数百万文本相关性标签提升了搜索排名,A/B测试结果显示在App Store的转化率显著提高。

提升搜索相关性:通过大型语言模型生成的评估增强App Store排名

Apple Machine Learning Research
Apple Machine Learning Research · 2026-02-27T00:00:00Z
利用大型语言模型增强人类标注,提高Dash搜索相关性

Dropbox Dash利用检索增强生成(RAG)模式,通过企业搜索获取相关信息并生成回答。它结合人类标注与大型语言模型(LLM)训练搜索排名模型,以提升搜索结果的相关性和质量。Dash通过自动化与人工审核相结合,确保生成的相关性标签准确且可扩展,从而优化搜索体验。

利用大型语言模型增强人类标注,提高Dash搜索相关性

Dropbox Tech Blog
Dropbox Tech Blog · 2026-02-26T17:00:00Z
新方法可能提高大型语言模型(LLM)的训练效率

研究人员开发了一种新方法,通过训练较小模型预测大型语言模型(LLMs)的输出,显著加速训练速度,节省计算资源。测试结果显示,训练速度提高了70%至210%,同时保持准确性。这项研究有望降低高级LLMs的开发成本和能耗。

新方法可能提高大型语言模型(LLM)的训练效率

MIT News - Artificial intelligence
MIT News - Artificial intelligence · 2026-02-26T05:00:00Z
缩小大型语言模型中文本与语音理解之间的差距

大型语言模型(LLMs)在语音输入方面的表现不如文本输入,导致文本与语音理解之间存在差距。为缩小这一差距,研究提出了SALAD方法,通过交叉模态蒸馏和有针对性的合成数据,提升模型对齐性并减少遗忘。该方法在知识、语言理解和推理任务上表现优异,且所需语音数据显著减少。

缩小大型语言模型中文本与语音理解之间的差距

Apple Machine Learning Research
Apple Machine Learning Research · 2026-02-25T00:00:00Z
构造电路放大:通过针对性子网络更新提升大型语言模型的数学推理能力

研究表明,大型语言模型(LLMs)内部存在稀疏子网络,称为电路,负责特定任务。通过微调这些电路可以提升模型性能。我们提出了一种新方法——构造电路放大,识别关键标记和相关组件,仅更新这些部分。在数学推理中,该方法使准确率提高了11.4%,仅修改了1.59%的组件,对其他能力影响较小。结果表明,针对性增强能力是可行的。

构造电路放大:通过针对性子网络更新提升大型语言模型的数学推理能力

Apple Machine Learning Research
Apple Machine Learning Research · 2026-02-25T00:00:00Z
如何提升大型语言模型用户体验:速度、延迟与缓存

提升大型语言模型(LLM)应用速度至关重要,用户在1秒内保持思维流畅,超过10秒则易失去注意力。文章分析了应用缓慢的原因、诊断延迟的方法及改善用户体验的策略,包括减少真实和感知延迟。优化速度不仅提升用户满意度,还能促进业务成果。

如何提升大型语言模型用户体验:速度、延迟与缓存

Redis Blog
Redis Blog · 2026-02-25T00:00:00Z
大型语言模型如何学习

要有效监控大型语言模型(LLMs),需了解其工作原理。LLMs通过调整参数模仿文本模式,而非真正理解。训练中使用损失函数评估性能,梯度下降算法优化模型。尽管LLMs能生成流畅文本,但缺乏推理能力,容易在新问题上出错,因此使用时需谨慎,验证输出的准确性。

大型语言模型如何学习

ByteByteGo Newsletter
ByteByteGo Newsletter · 2026-02-23T16:30:39Z
播客:微服务与大型语言模型的软件演进——与Chris Richardson的对话

Michael Stiefel与Chris Richardson讨论了生成性人工智能在理解代码和系统架构中的应用,探讨了通过微服务现代化软件应用以解决单体企业软件问题及快速交付软件的挑战,强调了传统开发模式的局限性与微服务架构的优势。

播客:微服务与大型语言模型的软件演进——与Chris Richardson的对话

InfoQ
InfoQ · 2026-02-23T11:00:00Z
你的大型语言模型如何悄然虚构公司收入

大型语言模型(LLMs)在数据库工作中容易出错,生成的SQL查询可能执行成功但结果错误。由于SQL方言差异和人类沟通的模糊性,LLMs常缺乏必要的上下文。为此,开发了Model Context Protocol(MCP)和AGENTS.md等方法,以提供个性化上下文,提升查询准确性。

你的大型语言模型如何悄然虚构公司收入

The New Stack
The New Stack · 2026-02-19T21:06:33Z
揭示大型语言模型中隐藏的偏见、情绪、个性和抽象概念

麻省理工学院和加州大学圣地亚哥分校的研究团队开发了一种新方法,能够检测大型语言模型中的隐含偏见和抽象概念。他们成功识别并操控与特定概念相关的连接,从而增强或减弱这些概念在生成答案中的表现,已应用于500多个概念,提升了对模型安全性和性能的理解。

揭示大型语言模型中隐藏的偏见、情绪、个性和抽象概念

MIT News - Artificial intelligence
MIT News - Artificial intelligence · 2026-02-19T19:00:00Z
如何降低大型语言模型令牌成本并加快AI应用速度

大型语言模型(LLM)优化旨在减少令牌消耗、降低API成本并提高响应速度。通过简化提示、限制输出长度和使用语义缓存等方法,可以显著提升应用性能,减少用户流失,令牌优化可降低高达73%的API费用。

如何降低大型语言模型令牌成本并加快AI应用速度

Redis Blog
Redis Blog · 2026-02-19T00:00:00Z
  • <<
  • <
  • 1 (current)
  • 2
  • 3
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码