中国科学院力学研究所与百度飞桨合作提出了“流匹配马尔可夫链蒙特卡洛”(FM-MCMC)框架,显著提升了引力波信号参数估计的效率和准确性。该方法有效解决了传统技术在处理极端质量比旋近(EMRI)信号时的计算瓶颈,将参数推断时间从数天缩短至数小时,为未来引力波探测器的数据处理提供了新方案。
周志华教授当选中国科学院院士,成为人工智能领域的重要学者。他于1973年出生,1992年入学南京大学并获得博士学位。周教授在AI和机器学习领域取得显著成就,论文被引超过11万次,著作《机器学习》广受欢迎。
机器之心数据服务现已上线,提供高效稳定的数据获取服务,帮助用户轻松获取所需数据。
机器之心数据服务现已上线,提供高效稳定的数据获取服务,简化数据爬取流程。
开源之夏是中国科学院软件研究所发起的暑期活动,旨在鼓励学生参与开源软件开发。活动提供多个项目方向,参与者在导师指导下研发,完成后可获得奖金和证书。项目包括前沿模型模块化设计、文档翻译能力建设及疾病负担预测,要求熟悉Python及相关技术。欢迎有兴趣的学生报名参与。
中国科学院与四川大学华西医院的研究人员开发了PRnet,一种深度生成模型,能够预测新化学扰动对转录的影响。PRnet在药物筛选中表现出色,成功识别出针对小细胞肺癌和结直肠癌的新候选化合物,并推荐了233种疾病的候选药物,为基因治疗筛选提供了有力工具。
中国科学院合肥物质科学研究院在等离子体诊断中取得新进展,利用人工神经网络快速预测EAST托卡马克的离子温度和旋转速度。采用深度神经网络和卷积神经网络,计算速度提升至几十毫秒,比传统方法快10倍以上,适用于多种诊断系统的数据分析。
中国科学院大学开源了LLaMA-Omni,这是一种能处理语音和文本的大型语言模型。基于Meta的Llama-3.1-8B-Instruct,LLaMA-Omni在更少训练数据和计算下表现优异。通过加入语音编码器和解码器,减少了语音输入到输出的延迟。模型在InstructS2S-200K数据集上微调,响应延迟低至226毫秒。未来计划提升语音生成的表现力和实时交互能力。
中国科学院团队开发了GeneCompass模型,整合多物种单细胞转录组数据和生物学知识,提升基因调控理解和任务性能。模型处理了1.26亿个人类和小鼠单细胞数据,覆盖3.6万个基因,展示了跨物种基因调控的保守性。GeneCompass在基因扰动和药物反应预测中表现出色,推动生命科学研究。
中国科学院近代物理研究所等利用机器学习研究原子核低位激发态的能量和电磁跃迁几率,发现锡-100 的双幻性质和氧-28 中幻数 20 的消失。研究提升了核物理模型的精度,深化了对核壳层结构的理解,为未来实验提供参考。
复旦大学、香港大学和中国科学院的研究团队提出了一种基于语义记忆的动态神经网络设计方案,使用忆阻器实现。该设计在ResNet和PointNet++上验证,准确度与软件相当,计算预算和能耗分别减少了48.1%和15.9%。这种设计受到大脑的启发,能够将输入与过去的经验联系起来,并实现低能耗高效运算。研究为未来模拟大脑和计算资源的自适应分配提供了启示。
中国制造业正向智能制造转型,机器人作为关键技术之一,推动中国制造业数字化转型。人形机器人有望实现自主决策,改变工业界。机器人应用空间将持续扩大,取代人类完成重复性高、危害人体健康的工作任务。
根据联合国和比利时鲁汶大学的报告,全球洪水灾害数量在过去20年间增加了一倍以上,影响了165万人。中国科学院的研究团队提出了一种基于AI的洪水预测模型ED-DLSTM,通过全球超过2000个水文站的数据进行训练,解决了无监测数据流域的洪水预测问题。研究结果显示,ED-DLSTM模型在有监测数据和无监测数据流域的洪水预报方面表现优越。这一研究为全球洪水预测提供了新的方法。
华为云、中国科学院和北京大学的研究者联合带来了更强大的代码大模型PanGu-Coder2,提出了一种高效且通用的方法来激发大规模预训练模型的代码生成能力。PanGu-Coder2在多个评测数据集上取得了最好的效果。该模型即将上线基于PanGu-Coder2的百亿级代码生成服务,为用户提供更全面的语言支持、更智能的代码生成、更准确的补全建议。PanGu-Coder2的综合代码生成能力处于业界第一梯队,性能优于其他大模型。
本文综述了大型语言模型(LLM)的模型压缩技术,包括剪枝、知识蒸馏、量化和低秩分解。这些技术可以降低LLM的规模和复杂度,适用于资源受限设备,并保持或提高性能和泛化能力。文章还提出了评估LLM模型压缩效果的指标和基准,并探讨了未来的研究方向和挑战。
完成下面两步后,将自动完成登录并继续当前操作。