OceanBase于3月27日发布了专为中小规模业务设计的单机版,具备高性能和成本效益。该产品基于自主研发的单机分布式架构,兼容MySQL和Oracle,支持弹性扩展,适用于非核心场景和混合部署,性能优于MySQL 8.0。
网易有道推出轻量级推理模型“子曰-o1”,该模型采用14B小参数,支持消费级显卡部署,具备强逻辑推理能力,已在“有道小P”中应用,提升教育应用的准确性,助力学生自主思考。
本文分析了小规模大语言模型(SLMs)训练中的瓶颈,探讨了超参数和配置(如GPU类型、批量大小等)对计算需求的影响,旨在帮助低资源AI研究机构优化语言模型训练。
谷歌研究团队与消防专家合作,创建了FireSat卫星星座,用于检测和追踪小规模野火。FireSat每20分钟提供一次高分辨率图像,帮助消防部门及时反应。Google.org向地球火灾联盟提供了1300万美元的资金支持。FireSat使用红外传感器和人工智能技术,快速检测火灾并提供实时信息。该项目还用于创建全球火灾蔓延历史记录,帮助科学家理解野火行为。
我们开发了一种使用少于100M参数的小规模神经信息检索模型进行训练的方法,仅需10个金标准相关性标签。该方法依赖于使用语言模型生成文档的合成查询,并且关键步骤在于根据训练质量自动优化生成这些查询的LM提示。在BIRCO基准测试中的实验中,我们发现使用我们的方法训练的模型优于RankZephyr,并且与RankLLama竞争力相当,后者是使用超过100K标签训练的70亿参数模型。这些发现指出自动提示优化对于合成数据集生成的重要性。
该文介绍了一种名为KD$^{3}$的新方法,用于从互联网收集训练实例并学习轻量级学生网络。该方法通过教师网络和学生网络的综合预测动态选择有用的训练实例,并对齐两个网络的特征和分类器参数进行知识记忆。实验结果表明,KD$^{3}$能够超越现有的无数据知识蒸馏方法。
综述小规模和高度异质的生物学数据中的领域自适应方法,探讨了领域自适应在生物研究中的好处、挑战以及通过关键代表性方法进行的批判性讨论,提出了将领域自适应技术纳入计算生物学家的工具箱,并进一步开发定制方法的观点。
完成下面两步后,将自动完成登录并继续当前操作。