Google推出了轻量级指令微调模型Gemma-3-270M-IT,参数仅2.7亿,适合低算力环境,支持32K tokens上下文,解决了大模型的响应延迟和上下文丢失问题,满足高效对话需求。
上海交通大学与本智激活联合推出的SmallThinker大模型,专为低算力端侧设备设计,能够在普通手机上高效运行,提升AI隐私保护和使用便捷性。
RockAI CEO 刘凡平强调其非Transformer架构的选择,注重低算力和群体智能。该模型可在树莓派等设备上流畅运行,具备自主学习和记忆能力,推动AGI发展,未来设备将更个性化,提升人机交互体验。
复旦大学研究团队高效复现了R1-zero的自发反思能力,使用200多行简洁代码,降低资源消耗,支持低算力环境下训练。项目已开源,训练中出现“顿悟时刻”,计划进一步优化。
完成下面两步后,将自动完成登录并继续当前操作。