小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
沉浸式翻译 immersive translate
Dify.AI
一分钟读论文:《Blindfold——通过动作级操纵越狱具身大语言模型》

研究显示,具身AI存在漏洞,无法理解物理因果关系。Blindfold攻击框架将恶意意图转化为安全动作序列,成功率高达98%。传统防御机制效果有限,需要整合多模态信息和动作级推理以确保AI安全。

一分钟读论文:《Blindfold——通过动作级操纵越狱具身大语言模型》

Micropaper
Micropaper · 2026-03-05T00:00:00Z
一分钟读论文:《洗车问题暴露大语言模型的根本缺陷?提示词架构决定推理质量》

研究表明,主流大语言模型在简单问题上常出现错误,主要由于提示词架构不当。采用结构化推理框架(STAR)后,正确率显著提升至85%至100%。这表明信息处理方式比信息量更为重要,建议在应用构建中优先使用结构化推理。

一分钟读论文:《洗车问题暴露大语言模型的根本缺陷?提示词架构决定推理质量》

Micropaper
Micropaper · 2026-03-03T22:30:00Z
自言自语:让大语言模型告别灾难性遗忘

研究团队提出了Sa-sft方法,通过让大语言模型在微调前自我生成复习材料,解决了灾难性遗忘问题。该方法无需外部数据,有效保持模型的通用知识,并提升特定任务的表现。实验结果表明,Sa-sft在多个场景中表现优异,验证了风格对齐的重要性。

自言自语:让大语言模型告别灾难性遗忘

Micropaper
Micropaper · 2026-03-02T22:30:00Z
Inception Labs表示其扩散大语言模型的速度比Claude、ChatGPT和Gemini快10倍

Ermon在斯坦福大学提出了图像扩散模型,并在ICML 2024获得最佳论文。他认为,尽管Mercury 2的质量与Claude Haiku和Google Flash相当,但随着模型规模的扩大,其经济效益更佳。此外,扩散架构加速了强化学习的进程。

Inception Labs表示其扩散大语言模型的速度比Claude、ChatGPT和Gemini快10倍

The New Stack
The New Stack · 2026-03-02T21:30:30Z
开源大语言模型背后的架构

npx workos推出了一款AI代理,能够将身份验证直接集成到现有代码中。DeepSeek V3及其他模型采用混合专家架构,优化了计算效率和内存使用,推动了开源生态的发展。

开源大语言模型背后的架构

ByteByteGo Newsletter
ByteByteGo Newsletter · 2026-03-02T16:30:50Z

本文探讨了数据角色的演变、支持训练和推理的关键流程,以及新架构(如RAG)在应用程序构建中的定义,适合初学者数据科学家理解其在新范式中的定位。

大语言模型时代的数据工程

KDnuggets
KDnuggets · 2026-03-02T15:00:37Z
HRM 架构突破:用仅 2700 万参数和 1000 个训练样本超越最先进的大语言模型

新加坡Sapient Intelligence公司提出的分层推理模型(HRM)仅用2700万参数和1000个样本,在复杂推理任务中超越大型模型,表明更优的架构设计能显著提升AI性能,改变AI发展方向。

HRM 架构突破:用仅 2700 万参数和 1000 个训练样本超越最先进的大语言模型

Micropaper
Micropaper · 2026-03-02T11:30:00Z

DeepSeek R1 是中国 AI 公司推出的模型,采用纯强化学习实现自主推理,突破传统监督学习模式。R1-Zero 模型无需人类标注,展现出链式推理能力。GRPO 算法提升训练效率,简单的奖励系统驱动复杂推理策略。R1 的成功降低了推理模型的门槛,启发了新的研究方向,展示了纯强化学习的潜力,标志着 AI 训练的重要转变。

DeepSeek-R1:用纯强化学习解锁大语言模型的推理能力

Micropaper
Micropaper · 2026-03-01T22:30:00Z
DeepSeek-R1:用纯强化学习解锁大语言模型的推理能力

DeepSeek-R1通过纯强化学习显著提升大语言模型的推理能力,无需人类标注。该方法使模型能够自主探索思维链,展现自我反思和动态策略调整的高级推理模式。实验结果表明,其在数学、代码和逻辑推理任务中表现优异,降低了开发成本并加快了迭代速度。

DeepSeek-R1:用纯强化学习解锁大语言模型的推理能力

Micropaper
Micropaper · 2026-02-28T20:17:00Z

本文探讨了大语言模型代码生成中的规格对齐问题,提出了Specine技术,通过识别错位规格、提取需求和对齐规则,提升代码生成性能近30%。研究强调了清晰需求表述和逐步对齐的重要性。

一分钟读论文:《大语言模型代码生成的规格对齐》

Micropaper
Micropaper · 2026-02-26T16:00:00Z
超越单一提取器:重新思考用于大语言模型预训练的HTML到文本提取

本文介绍了ESPnet-SPK工具包,旨在训练和使用说话人嵌入提取器。该开源平台支持从x-vector到SKA-TDNN的模型构建,简化了变体开发,推动了说话人嵌入在多任务中的应用。

超越单一提取器:重新思考用于大语言模型预训练的HTML到文本提取

Apple Machine Learning Research
Apple Machine Learning Research · 2026-02-24T00:00:00Z
五大超快速大语言模型API服务商

开源大语言模型服务商突破了速度限制,提供低延迟和高性能,适合实时交互和长时间编码任务。Groq的语言处理单元显著提升响应速度,Cerebras、Groq、SambaNova、Fireworks AI和Baseten是当前表现突出的五大API提供商,各具优势和应用场景。

五大超快速大语言模型API服务商

KDnuggets
KDnuggets · 2026-02-16T13:00:19Z

在工程实践中,即使设置temperature=0和seed=0,LLM的输出仍然无法保证完全确定性,原因包括采样配置和数值误差等。目标应是控制模型行为在可接受的稳定性范围内,而非追求绝对一致性。建议通过参数调整、缓存和上层逻辑来应对不确定性,LLM更适合作为辅助决策工具。

大语言模型的不确定性

钟意博客
钟意博客 · 2026-02-07T02:00:00Z

即使 temperature=0、seed=0 也无法保证相同输出

大语言模型的不确定性

钟意博客
钟意博客 · 2026-02-07T02:00:00Z
Grab如何构建视觉大语言模型以扫描图像

Grab团队开发了一种轻量级视觉大语言模型(Vision LLM),旨在提升东南亚语言的文档处理能力。通过合成数据和自动标注框架Documint,优化了OCR和关键信息提取的准确性,最终模型在准确性和延迟方面表现优异,展示了专用模型在文档处理中的潜力。

Grab如何构建视觉大语言模型以扫描图像

ByteByteGo Newsletter
ByteByteGo Newsletter · 2026-02-03T16:30:36Z
NVIDIA Dynamo Planner为多节点大语言模型推理带来基于SLO的自动化

微软与NVIDIA推出Dynamo第二部分,旨在提升Azure Kubernetes Service上大语言模型的推理效率。新功能包括自动资源规划和动态扩展,帮助开发者快速配置GPU资源。Dynamo Planner Profiler与基于SLO的Dynamo Planner协同优化GPU分配,以满足流量变化下的服务水平目标。

NVIDIA Dynamo Planner为多节点大语言模型推理带来基于SLO的自动化

InfoQ
InfoQ · 2026-01-31T09:00:00Z
介绍Kthena:云原生时代的大语言模型推理

Kthena是Volcano社区推出的子项目,旨在为全球开发者和MLOps工程师提供高效的云原生大语言模型推理调度解决方案。它通过拓扑感知调度和智能路由优化GPU/NPU资源利用,降低延迟,简化Kubernetes上大语言模型的部署。Kthena支持多模型管理和动态扩展,提高AI生命周期的整体效率。

介绍Kthena:云原生时代的大语言模型推理

Cloud Native Computing Foundation
Cloud Native Computing Foundation · 2026-01-28T15:00:00Z
AI入门系列 如何使用大语言模型?

本文探讨了大语言模型(LLM)的演变,强调了从传统聊天机器人到Vibe Coding范式的转变。尽管聊天机器人易于使用,但面临上下文限制和任务复杂度的挑战。Vibe Coding通过与AI对话简化编程,提高效率,支持复杂任务的执行。文章还介绍了Cursor和Claude Code等工具,展示了Vibe Coding生态的迅速发展及其未来影响。

AI入门系列 如何使用大语言模型?

浮云翩迁之间
浮云翩迁之间 · 2026-01-24T13:46:49Z
AI入门系列 介绍大语言模型

大语言模型(LLM)经历了从统计模型到神经网络的演变,2017年Transformer架构的出现推动了其发展。GPT系列模型展现了强大的生成能力,2023-2024年多模态与智能体的崛起标志着AI的进一步进化。未来,编程将向人机协作转变,AI将在任务执行中扮演更重要的角色。

AI入门系列 介绍大语言模型

浮云翩迁之间
浮云翩迁之间 · 2026-01-24T05:40:56Z
AI入门系列 介绍大语言模型

大语言模型(LLM)经历了从统计模型到神经网络的演变,2017年Transformer架构的出现推动了其发展。GPT系列模型展示了理解与生成的能力,2023-2024年多模态与智能体的兴起标志着AI的进一步进化。未来编程将转向人机协作,大模型技术虽有局限,但仍是通向AGI的重要路径。

AI入门系列 介绍大语言模型

浮云翩迁之间
浮云翩迁之间 · 2026-01-24T05:40:56Z
  • <<
  • <
  • 1 (current)
  • 2
  • 3
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
友情链接: MOGE.AI 九胧科技 模力方舟 Gitee AI 菜鸟教程 Remio.AI DeekSeek连连 53AI 神龙海外代理IP IPIPGO全球代理IP 东波哥的博客 匡优考试在线考试系统 开源服务指南 蓝莺IM Solo 独立开发者社区 AI酷站导航 极客Fun 我爱水煮鱼 周报生成器 He3.app 简单简历 白鲸出海 T沙龙 职友集 TechParty 蟒周刊 Best AI Music Generator

小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码