iOS 26.4, now in Release Candidate, introduces improved context window management for Apple's Foundation Models, helping developers work with the 4096-token context window limit. This encourages...
Ramin Hasani, CEO and cofounder of Liquid AI, discusses his company’s journey and impact and how the company’s much smaller models are tailor-made for devices, enabling the physical AI world.
苹果在WWDC 2025上推出了Foundation Models框架,支持开发者使用离线模型进行AI任务。测试显示框架稳定,但存在内存消耗、上下文窗口限制(4096 tokens)和并发性能下降等问题。开发者应围绕这些限制设计应用,并优先考虑Tool Calling功能。总体而言,Foundation Models为iOS应用提供了强大的AI能力,但需理解其局限性。
苹果公司推出Foundation Models和液态玻璃设计,以提升开发者工具和用户体验。Mistral AI发布了首个多语言推理模型Magistral。美国海军陆战队被动员应对洛杉矶抗议活动,享年82岁的放克乐队领袖Sly Stone去世。
本研究提出图基础模型(GFMs),旨在解决图数据在预训练和迁移学习中的挑战,并展示其在多种图任务中的应用潜力,为未来研究提供方向。
本研究提出了一种基于变压器的多模态基础模型,旨在解决通信系统中任务特定解决方案不足的问题。该模型能够直接处理通信数据,成功应对分词、位置嵌入等挑战,并展示了在传输秩和多普勒扩展等特征上的应用潜力。
本研究提出了BioVFM-21M数据集,涵盖多种生物医学图像,探讨模型扩展对任务性能的影响。BioVFM模型在12个医学基准测试中超越了现有最佳模型。
本研究探讨了语音基础模型在听障人士语音可懂性预测中的不足,分析了编码层选择和预测头架构等因素,强调了单一编码层和时域建模的重要性,并发现多个模型集成显著提升了性能,为提高听障人群的语音可懂性提供了实用见解。
本研究提出了一种基于时间序列的知识蒸馏策略,用于锂离子电池容量衰减预测。经过微调的Battery-Timer模型展现出强大的零-shot泛化能力,显著提升了专家模型的多条件泛化能力。
本研究探讨了癌症生存预测中病理报告文本数据的应用,提出了一种新颖的多模态生存模型训练方法。研究结果表明,病理报告文本的多模态融合显著提升了生存预测的效果。
本研究提出人工个性化智能(API)的愿景,探讨如何在保障隐私和效率的前提下,结合联邦学习与基础模型,以满足用户特定需求,为API的发展奠定基础。
本研究探讨了自监督学习在眼科影像中对年龄相关性黄斑变性(AMD)识别的影响。通过基准测试六种视觉变换器,发现基于自然图像预训练的iBOT在外部分布泛化上表现最佳,AUROC值达到0.80-0.97,显示基础模型在AMD识别中的重要性。
本研究开发了Voila语音AI代理,能够实时与人类进行情感交互,填补传统系统的不足。Voila采用端到端架构,实现195毫秒的低延迟响应,提升了对话的自然性和个性化,对未来人机交互具有重要意义。
本研究提出Galvatron系统,自动识别大规模基础模型训练中的最佳混合策略,显著提升训练效率,优化分布式训练的简化与高效性。
本研究提出了ChestX-Reasoner模型,解决了医疗AI在临床实践中对结构化推理的忽视。该模型在诊断准确性和推理能力上超越了现有的多模态语言模型,推动了医学推理模型的发展。
该研究系统总结了图形用户界面(GUI)代理的最新进展,特别关注基于强化学习的架构,以及多模态感知和自适应动作生成在复杂环境中的应用。
本研究提出了一种新的参数高效微调技术,以解决联邦学习中基础模型适应特定任务所需的高计算资源问题,并分析其在数据异质性和通信效率等挑战中的应用,强调其在隐私敏感领域的重要性。
本研究提出了一个系统框架,用于评估地球物理学中基础模型的应用流程。通过结合转移学习与物理约束,减少了对标记数据的依赖,提高了计算效率,并增强了模型的物理一致性和可解释性。
该研究提出了DP2FL框架,旨在解决个性化联邦学习在有限本地数据下的模型性能不足问题。通过双提示和自适应聚合策略,显著提升了模型的泛化能力,并有效整合新客户。实验结果表明,该框架在高度异构环境中表现出良好的有效性。
本研究提出了一种新颖的自适应后训练量化算法StableQuant,显著优化了语音基础模型的量化性能。该算法将模型尺寸缩小至四分之一,并在8位量化下保持字错误率低于0.3%,同时提升推理速度。
完成下面两步后,将自动完成登录并继续当前操作。