英伟达与多所高校合作推出TTT-E2E方法,能将128K上下文处理速度提升2.7倍,动态压缩记忆,避免额外缓存。该技术基于标准Transformer,支持持续学习,适应测试需求。尽管在细节回忆任务中表现不如全注意力模型,但推理延迟稳定,生成文本质量高。
在本文中,我将以苹果地图和天气中空气质量数据的呈现差异为切入点,探讨技术标准与数据主权如何影响不同国家的 AI 开源路径,并进一步分析在 AI...
MiniMax的M2模型在数据处理和思维模式上进行了创新,采用全注意力机制以提高稳定性和可靠性。团队通过实习生处理数据,强调流程的成熟性,以确保模型的泛化能力。M2还引入了“交错式思维链”策略,增强了任务执行的适应性和容错率,体现了实用导向的工程思维。
上海发布的Minimax M2开源模型以61分成为开源模型第一,突破智力、成本和速度的限制。其编程能力和推理速度优于Claude 3.5,成本仅为8%。M2支持多种工具调用,表现出色,目前限时免费使用。
美团推出的开源大模型Longcat-Flash-Chat在多个基准测试中表现优异,超越DeepSeek-V3.1,展现出强大的编程和复杂任务处理能力,标志着美团在AI领域的重要进展。
智谱于7月28日发布了新一代旗舰模型GLM-4.5,包括GLM-4.5和轻量级GLM-4.5-Air,参数量分别为3550亿和1060亿。该模型采用混合专家架构,具备强大的推理和编程能力,API调用价格低,性能优于同类产品,成为开发者的高性价比选择。
荣耀在世界人工智能大会上发布了自研的MagicGUI大模型,参数达到70亿,支持多模态感知与自动执行,准确率为91.5%,优于同类模型。搭载该模型的Magic V5和智能助手YOYO实现了任务执行的升级。此外,荣耀与多家企业共同发布了《智能体协议共建共享联合倡议》。
Qwen3小升级后性能超越Kimi K2,支持256K长上下文,提升指令遵循和逻辑推理能力。新模型采用MoE架构,参数量达到235B,表现优异,预告更大更新即将到来。
一. 概述 作为本系列的第四篇,本文聚焦大模型推理软件的安全风险。 随着大模型上云趋势加速,尽管推理框架通常被视为底层基础设施(负责模型运行的资源
英伟达开源的推理模型OpenCodeReasoning(OCR)基于阿里Qwen2.5微调,表现优异,超越OpenAI模型。Qwen3支持119种语言,具备混合推理能力,成本低、性能强,推动开源生态发展。
Qwen3系列模型在开源大模型领域取得突破,具备动态思维、优化的混合专家架构和强大的多语言能力。其训练策略包括三阶段预训练和后训练优化,表现优异于数学推理、代码生成和多语言任务。未来将进一步优化超长上下文和多模态融合,推动AI民主化。
魔乐社区推出阶跃星辰自研的Step-Video和Step-Audio开源大模型,支持华为昇腾架构。Step-Video-T2V是全球最大开源视频生成模型,具备高质量视频生成能力;Step-Audio为首款产品级开源语音交互模型。社区提供免费算力支持,方便用户体验,吸引众多企业关注。
本文探讨了DeepSeek的开源背景及其在人工智能领域的影响,强调可信任的人工智能需关注伦理与法律。OSI重新定义开源AI标准,以确保模型的透明性和可追溯性,促进人类福祉。
《2024 中国开源开发者报告》探讨了开源大模型的技术主权问题,指出政府的深度介入对技术发展产生影响。文章分析了中美及欧盟在大模型领域的权力格局,强调了开源大模型在国际竞争中的复杂性与未来挑战。
全球开源大模型榜单显示,阿里通义千问(Qwen)及其衍生模型占据前十名,成为最大的开源模型系列,衍生模型超过9万,下载量最高,深受开发者欢迎。
QwQ是新发布的开源AI模型,在AI数学奥林匹克竞赛中表现优异,展现出研究生水平的推理能力,尤其在数学和编程领域。尽管存在一些局限性,QwQ的能力引起了广泛关注。
在全球化商业环境中,高质量的专业翻译至关重要。大语言模型(LLM)通过微调技术提升翻译的准确性和适应性。亚马逊云科技与客户合作,利用开源模型解决专业翻译挑战,提高翻译质量和效率,以满足特定行业需求。
完成下面两步后,将自动完成登录并继续当前操作。