小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI
我用 DeepSeek V4 手戳了个 WordPress 插件,全程花费不到 5 元

DeepSeek V4 发布了 Pro 和 Flash 两个版本,具备超长上下文能力和高效编码性能。开发 WordPress 插件的过程简单高效,成本低至5元。该模型能快速理解现有代码并生成实现方案,是开发者的优质辅助工具。

我用 DeepSeek V4 手戳了个 WordPress 插件,全程花费不到 5 元

WordPress 果酱
WordPress 果酱 · 2026-04-24T11:39:48Z
DeepSeek-V4发布,华为云首发适配

华为云于4月24日发布并开源DeepSeek-V4模型,该模型支持百万Token超长上下文,提升了推理性能和经济性。新模型已被金山办公、360等企业接入,支持高效API服务,优化了调度和计算效率。

DeepSeek-V4发布,华为云首发适配

量子位
量子位 · 2026-04-24T10:10:16Z
读完 DeepSeek-V4 技术报告:这次最值得看的,不是“更大”,而是“更省”

DeepSeek-V4技术报告强调通过改进注意力机制和优化器,提高超长上下文处理效率,能够高效处理1M上下文,降低计算和缓存成本。模型在中文写作和白领任务中表现良好,但在复杂任务上仍需提升。整体目标是解决长上下文的成本问题,提供完整的技术方案。

读完 DeepSeek-V4 技术报告:这次最值得看的,不是“更大”,而是“更省”

清竹茶馆博客
清竹茶馆博客 · 2026-04-24T00:01:21Z
小猫都能懂的大模型原理 6 - 模型优化

本文介绍了大语言模型的优化方法,包括蒸馏、量化、超长上下文和混合专家。蒸馏通过大模型指导小模型以减小体积并保留能力;量化通过降低精度节省内存;超长上下文利用局部窗口和环形注意力优化计算;混合专家则选择性激活部分专家以减少计算量。这些方法有效提升了模型的效率和性能。

小猫都能懂的大模型原理 6 - 模型优化

UsubeniFantasy
UsubeniFantasy · 2025-12-25T08:00:51Z

谷歌在NeurIPS 2025上推出了新架构Titans和MIRAS,突破了Transformer在超长上下文处理中的限制。Titans结合了RNN的速度与Transformer的性能,能够动态更新记忆,扩展上下文至200万token。MIRAS则提供统一的序列建模框架,优化信息整合与记忆更新。这些新架构在处理长序列时优于现有模型,标志着AI领域的重要进展。

谷歌新架构突破Transformer超长上下文瓶颈!Hinton灵魂拷问:后悔Open吗?

量子位
量子位 · 2025-12-05T10:48:55Z
DeepSeek-V3 API 发布:128K 超长上下文,打造更强大的AI应用

DeepSeek-V3 API 是一款强大的人工智能接口,支持超长上下文(128K tokens),具备卓越的自然语言处理能力,适用于客服、内容创作和代码生成,特别优化了中文理解,易于集成。

DeepSeek-V3 API 发布:128K 超长上下文,打造更强大的AI应用

APISpace
APISpace · 2025-05-14T02:27:47Z

本研究提出了一种高效训练方法,将超长上下文大语言模型的上下文长度从128K扩展至4M,以满足文档和视频理解等应用需求。研究表明,该方法在长上下文基准测试中表现优异,同时保持了模型的指令遵循和推理能力。

From 128K to 4M: Efficient Training of Ultra-Long Context Large Language Models

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-04-08T00:00:00Z
仅缩小视觉Token位置编码间隔,轻松让多模态大模型理解百万Token!清华大学,香港大学,上海AI Lab新突破

清华大学等机构提出的可变视觉位置编码方法(V2PE)旨在提升视觉-语言多模态模型在长上下文场景下的表现。V2PE通过为视觉token分配可变位置增量,克服了传统位置编码的局限性,显著增强了模型在超长上下文任务中的能力。

仅缩小视觉Token位置编码间隔,轻松让多模态大模型理解百万Token!清华大学,香港大学,上海AI Lab新突破

机器之心
机器之心 · 2025-01-15T04:56:15Z

MiniMax推出了新模型MiniMax-01,支持400万token的超长上下文,性能接近DeepSeek-v3和GPT-4o。该模型采用Lightning Attention架构,显著提升处理效率。在多个基准测试中,MiniMax-Text-01在长上下文理解方面表现突出,而MiniMax-VL-01则专注于多模态任务,展现强大处理能力。该模型已在Hailuo AI上免费试用。

MiniMax开源4M超长上下文新模型!性能比肩DeepSeek-v3、GPT-4o

量子位
量子位 · 2025-01-15T04:29:43Z
阿里云百炼上线百万长文本模型Qwen2.5 -Turbo,百万tokens仅需0.3元

阿里云百炼推出Qwen2.5-Turbo模型,支持超长上下文(100万),性能超越GPT-4。该模型在长短文本任务中表现优异,推理速度提升4.3倍。用户可免费获得1000万tokens,适用于长篇小说和代码助手等场景。

阿里云百炼上线百万长文本模型Qwen2.5 -Turbo,百万tokens仅需0.3元

机器之心
机器之心 · 2024-11-20T08:51:40Z
  • <<
  • <
  • 1 (current)
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
友情链接: MOGE.AI 九胧科技 模力方舟 Gitee AI 菜鸟教程 Remio.AI DeekSeek连连 53AI 神龙海外代理IP IPIPGO全球代理IP 东波哥的博客 匡优考试在线考试系统 开源服务指南 蓝莺IM Solo 独立开发者社区 AI酷站导航 极客Fun 我爱水煮鱼 周报生成器 He3.app 简单简历 白鲸出海 T沙龙 职友集 TechParty 蟒周刊 Best AI Music Generator

小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码