小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI

Sudeep Das and Pradeep Muthukrishnan explain the shift from static merchandising to dynamic, moment-aware personalization at DoorDash. They share how LLMs generate natural-language "consumer...

Presentation: Dynamic Moments: Weaving LLMs into Deep Personalization at DoorDash

InfoQ
InfoQ · 2026-04-21T10:35:00Z

A recent paper from Anthropic examines how large language models internally represent concepts related to emotions and how these representations influence behavior. The work is part of the...

Anthropic Paper Examines Behavioral Impact of Emotion-Like Mechanisms in LLMs

InfoQ
InfoQ · 2026-04-14T11:35:00Z
为什么 JSON + S 表达式 对于 LLMs 是一个意外的良好选择

JSE(JSON结构表达式)旨在在保持JSON合法性的同时,表达S表达式风格的结构逻辑。它通过"$"符号区分操作符和数据,支持数组和对象两种表达形式,允许元数据与表达式共存。JSE专注于结构表达,适用于AI系统的推理步骤和工具管道等场景。

为什么 JSON + S 表达式 对于 LLMs 是一个意外的良好选择

挖坑不填兽
挖坑不填兽 · 2026-03-04T16:00:00Z
如何使用Ollama在本地运行和自定义大型语言模型(LLMs)

大型语言模型(LLMs)是强大的人工智能系统,能够在本地离线运行,确保数据隐私并降低成本。本文介绍了如何使用Ollama设置本地LLMs,包括安装、管理和自定义模型,适合开发者和AI爱好者。通过本地运行,用户可获得更快的响应和更高的控制权。

如何使用Ollama在本地运行和自定义大型语言模型(LLMs)

freeCodeCamp.org
freeCodeCamp.org · 2026-03-03T12:00:28Z
LLMs中的KV缓存:开发者指南

本文介绍了自回归变换器推理中键值(KV)缓存的作用,如何通过缓存已计算的键和值来消除冗余计算,从而显著提高生成速度,推理速度提升可达3-5倍。尽管内存使用增加,但在实际应用中,这种提升是值得的。理解KV缓存为进一步优化推理提供了基础。

LLMs中的KV缓存:开发者指南

MachineLearningMastery.com
MachineLearningMastery.com · 2026-02-26T14:43:49Z
使用扩散生成文本(以及使用LLMs的投资回报)

本期节目包含两次采访。第一部分,Ryan与Inception的CEO Stefano Ermon讨论扩散语言模型的生成速度和准确性。第二部分,Ryan与Roomie的主席Aldo Luevano探讨Roomie在物理和软件AI模型构建中的ROI优先方法,以帮助公司评估机器人和AI的影响。

使用扩散生成文本(以及使用LLMs的投资回报)

Stack Overflow Blog
Stack Overflow Blog · 2026-02-03T08:40:00Z
神同步OpenAI!中国团队Deep Principle领衔发布LLMs for Science评测,引爆外网

抱歉,提供的文本内容过于简短,无法进行有效总结。请提供更详细的文章内容。

神同步OpenAI!中国团队Deep Principle领衔发布LLMs for Science评测,引爆外网

机器之心
机器之心 · 2026-01-16T06:03:00Z
怒喷大模型连狗都不如?揭秘硅谷集体幻觉与物理常识缺失,为何只有新架构才能通往通用人工智能|Yann LeCun World Models AMI LLMs AI Startup

杨乐坤在访谈中批评大语言模型,认为其智能水平不及狗,因缺乏与物理世界的关联。他提出的抽象世界模型(JEPA)强调抽象、分层、预测和最小消耗,以解决AI的局限性。杨乐坤计划创办AMI公司,专注于开源研究,支持自动驾驶和机器人技术。

怒喷大模型连狗都不如?揭秘硅谷集体幻觉与物理常识缺失,为何只有新架构才能通往通用人工智能|Yann LeCun World Models AMI LLMs AI Startup

硕鼠的博客站
硕鼠的博客站 · 2025-12-23T00:56:44Z
研究人员发现大型语言模型(LLMs)的一项缺陷,使其可靠性降低

麻省理工学院的研究发现,大型语言模型(LLMs)有时会错误依赖语法模式而非领域知识,导致在新任务中表现不佳,甚至可能被恶意利用生成有害内容。研究人员开发了一种基准测试程序,以评估模型对错误关联的依赖,从而帮助开发者在部署前减轻这一问题。

研究人员发现大型语言模型(LLMs)的一项缺陷,使其可靠性降低

MIT News - Artificial intelligence
MIT News - Artificial intelligence · 2025-11-26T05:00:00Z
CodeClash通过多轮编码比赛评估大型语言模型(LLMs)

斯坦福、普林斯顿和康奈尔的研究人员开发了CodeClash基准,以评估大型语言模型(LLMs)的编码能力。该基准通过多轮比赛测试LLMs实现高层目标的能力,模拟开发周期的迭代过程。研究团队进行了1680场比赛,发现没有单一模型在所有领域中表现最佳,GPT 5在分析其他LLMs生成的代码时表现优异。未来研究将关注更大代码库和多重竞争目标。

CodeClash通过多轮编码比赛评估大型语言模型(LLMs)

InfoQ
InfoQ · 2025-11-10T18:00:00Z
利用大型语言模型(LLMs)进行结构化数据的五种高级特征工程技术

本文探讨了如何利用大型语言模型(LLMs)进行特征工程,通过将结构化数据与文本结合,提升下游模型性能。介绍了生成语义特征、智能缺失值填补、领域特定特征构建、混合嵌入空间和特征选择等五种技术,旨在提高数据处理的智能化和解释性。

利用大型语言模型(LLMs)进行结构化数据的五种高级特征工程技术

MachineLearningMastery.com
MachineLearningMastery.com · 2025-10-22T14:41:10Z

Guide to the OWASP Top 10 for LLMs: Vulnerability mitigation with Elastic

Elastic Blog - Elasticsearch, Kibana, and ELK Stack
Elastic Blog - Elasticsearch, Kibana, and ELK Stack · 2025-09-09T00:00:00Z
大型语言模型(LLMs)的OWASP十大风险指南:与Elastic一起进行漏洞缓解

现代应用程序,尤其是大型语言模型(LLMs)和生成性人工智能(GenAI),面临新的安全风险。OWASP制定了LLM应用程序的十大风险框架,而Elastic平台通过整合安全性、可观察性和数据管理,帮助组织应对这些风险,确保LLM应用的安全。

大型语言模型(LLMs)的OWASP十大风险指南:与Elastic一起进行漏洞缓解

Elastic Blog - Elasticsearch, Kibana, and ELK Stack
Elastic Blog - Elasticsearch, Kibana, and ELK Stack · 2025-09-09T00:00:00Z
如何利用Python和大型语言模型(LLMs)构建智能开支追踪器

本文介绍了如何利用Python和大型语言模型(LLMs)构建智能个人开支追踪器,能够自动分类开支、总结消费情况,并通过可视化图表展示支出模式,帮助用户做出更好的财务决策。

如何利用Python和大型语言模型(LLMs)构建智能开支追踪器

freeCodeCamp.org
freeCodeCamp.org · 2025-09-08T15:06:16Z

马丁·福勒在《重构》中探讨了大语言模型(LLMs)与软件开发的关系。他认为LLMs目前主要用于自动补全,真正的价值在于直接处理源代码。他警告调查可能导致误导,强调实践和经验分享的重要性。他指出AI技术存在泡沫,未来不确定,但会创造真实价值。同时,LLMs也增加了软件系统的攻击面,带来安全风险。

《重构》作者 Martin Fowler:关于大语言模型(LLMs)与软件开发的一些思考

程序师
程序师 · 2025-09-01T11:11:03Z
大型语言模型(LLMs)提升机器学习工作流程的五个关键方式

大型语言模型(LLMs)可以显著提升机器学习工作流程,主要体现在五个方面:生成合成数据以降低数据准备成本;提供特征工程建议以优化特征提取;通过代码生成和调试简化实验过程;促进团队间有效沟通以减少误解;自动化研究以跟踪最新进展并推动持续创新。这些应用帮助解决机器学习中的常见挑战。

大型语言模型(LLMs)提升机器学习工作流程的五个关键方式

MachineLearningMastery.com
MachineLearningMastery.com · 2025-08-29T12:56:42Z
与Unmesh探讨如何利用大型语言模型(LLMs)构建语言

文章讨论了程序员如何与大型语言模型(LLMs)合作,强调区分“本质复杂性”和“偶然复杂性”的重要性。LLMs在减少偶然复杂性方面表现出色,但软件开发涉及更复杂的设计和决策过程。编程不仅是编写代码,更是构建解决方案的过程,涉及命名、抽象和迭代。有效的编程需要开发者与LLMs之间的互动,以保持对抽象的控制,从而提高创造力和生产力。

与Unmesh探讨如何利用大型语言模型(LLMs)构建语言

Martin Fowler
Martin Fowler · 2025-08-26T13:26:00Z
数据库迎来了新用户——大型语言模型(LLMs)——他们需要一种不同的数据库

我们正在实验一种基于Postgres的自描述数据库,通过自然语言增强数据库结构的语义。早期测试表明,使用生成的语义目录可提高SQL生成准确性27%。该方法为开发者提供了上下文,改善了LLM对数据的理解,减少了错误。

数据库迎来了新用户——大型语言模型(LLMs)——他们需要一种不同的数据库

Timescale Blog
Timescale Blog · 2025-08-21T12:59:10Z
<script type="text/llms.txt">

本文提出了一种在HTML中嵌入LLM指令的方案,允许AI代理在访问受保护页面时获取必要信息。通过使用<script type="text/llms.txt">标签,开发者可以在HTTP响应中提供访问指令,帮助代理获取认证令牌,从而顺利访问受保护内容。这种方法简化了代理访问流程,提高了灵活性。

<script type="text/llms.txt">

Vercel News
Vercel News · 2025-08-20T13:00:00Z

大语言模型(LLMs)应优先考虑强类型编程语言,以提高代码生成的可靠性。当前的弱类型语言如JavaScript可能导致不确定性,影响AI生成代码的准确性。形式验证和专为AI设计的新语言可能是未来的解决方案,以确保代码的正确性和可靠性。

大语言模型(LLMs)应该用什么语言编程?

程序师
程序师 · 2025-08-18T09:29:01Z
  • <<
  • <
  • 1 (current)
  • 2
  • 3
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码