中科院团队提出的GOI“声明式”计算机接口,旨在提高LLM智能体在传统GUI下的成功率和效率。通过自动化复杂操作,GOI使LLM专注于任务规划,成功率从44%提升至74%。该研究为未来AI交互设计提供了新思路。
HyperAI超神经的「教程」板块已上线多个 OCR 开源模型教程,多语种文字解析、结构转化、场景文本识别等多种功能均可在线体验,快来试试吧~
「SpikingBrain-1.0 基于内生复杂性的类脑脉冲大模型」已上线至 HyperAI超神经官网的「教程」板块,快来体验我国首个大规模类脑线性基础模型吧!
在高能物理研究中,人工智能(AI)成为处理海量数据的核心工具。AI技术能够有效挖掘复杂模式,优化加速器和探测器性能。AI-Ready数据集需具备高质量特征,以支持机器学习和科学发现。智能体技术提升数据加工效率,推动AI在高能物理中的应用。
中科院与阿里团队提出RefineX框架,通过程序化编辑精炼预训练数据,有效去除噪声并保留文本多样性,使模型在多项任务中的得分提高7.2%。该方法以最小干预剥离噪声,确保数据质量和可靠性。
中科院研发的TC-Light生成式渲染器提升了63%的效率,时序一致性提高20%,有效缩小Sim2Real Gap,支持高质量数据生成,促进具身智能训练。该算法已开源,推动视频编辑和数据扩展的发展。
地理空间优化在城市建设中至关重要,传统方法存在局限。梁浩健博士在学术年会上介绍了基于分层深度强化学习的城市应急消防设施配置优化研究,提出了动态覆盖注意力模型和自适应交互注意力模型,提升了布局效率和风险评估精度。未来将结合地理信息系统与深度学习,探索更复杂的优化问题。
几个家庭一起去的,免费预约。活动很丰富,有机器人展示体验,力学游戏,科学讲座,演出等等,看起来都是研究生们负责
中科院、清华大学与快手联合提出R1-Reward模型,通过强化学习提升多模态奖励模型的长期推理能力。新算法StableReinforce解决了训练不稳定的问题,显著提升了模型性能,实验结果在多个基准上超越了现有最佳模型。
中国科学院计算技术研究所推出的LLaMA-Omni2是一个支持语音的大型语言模型,结合语音感知与语言理解,实现实时口语对话。该模型采用端到端流水线,训练成本低且具有模块化可解释性。在200K语音对话样本上训练后,LLaMA-Omni2的表现优于基线模型,证明高质量、低延迟的语音交互无需大量语料库。
蛋白质在生命活动中至关重要,AI技术正在改变蛋白质设计。罗小舟教授在AI蛋白质设计峰会上分享了多模态学习与生成式AI在酶设计中的应用,提出UniKP框架和ProEnsemble模型,显著提升了酶的预测和优化效率,推动合成生物学发展。
中国科学院自动化所推出的多图数学推理基准MV-MATH被CVPR 2025录用,旨在评估多模态大语言模型在复杂视觉场景中的推理能力。结果显示,主流模型如GPT-4o和Claude-3.5的表现不佳,准确率远低于人类水平,表明多图推理仍需改进。
中科院自动化所研究团队提出的CityGaussianV2算法,旨在高效重建大规模复杂三维场景。该算法结合2DGS的优点,优化训练和压缩过程,显著提升几何精度和渲染质量,同时降低显存开销。实验结果表明,CityGaussianV2在多个数据集上表现优异,推动了大规模场景重建技术的发展。
中国科学院与浙江大学的研究人员提出了SurfDock,一种深度学习方法,能够准确预测蛋白质-配体相互作用。该方法整合了蛋白质序列、三维结构和表面特征,优化结合姿势,性能优于现有技术。SurfDock在虚拟筛选中识别出七种新分子,具有广泛的应用潜力,推动药物设计和基础生物学研究。
中国科学院与南京理工大学合作开发的多阶段无监督聚类算法(MSCA)在Nano-ARPES数据集上显著提升了聚类精度,尤其在细微能带差异识别方面,相较于传统K-means算法提高约20%。该研究为固体材料科学提供了重要的数据分析工具,未来将集成到Nano-ARPES系统中,助力基础科研。
研究人员通过功能磁共振成像(fMRI)和Vision Transformer 3D(ViT3D)框架,成功重建了大脑的视觉刺激,提升了大脑信号解码能力,为神经科学和脑机接口的发展提供了新思路。
完成下面两步后,将自动完成登录并继续当前操作。