本研究解决了现有数据驱动算法未考虑智能电表数据质量的问题,缺乏异常检测机制,无法有效区分异常数据的特征。文章提出了一种基于Isolation Forest算法和快速傅里叶变换过滤的异常检测框架,能够在时域和频域内有效识别和减轻异常数据对电力消耗数据的影响。这一方法的引入对于高比例智能电表的配电网络分析具有重要意义。
本研究提出了一种新型价值迭代方法,旨在提高线性马尔可夫决策过程的计算效率。通过计算访问状态集的价值函数最小值,显著提升了效率,同时保持了遗憾界限不变。
本研究针对强化学习在学习新任务时忽视先验知识的问题,提出了一种通过贝叶斯非参数模型有效捕捉技能多样性的先验知识方法。研究表明,使用这种灵活的技能先验,能够显著提升机器人的学习和执行能力,尤其是在复杂的长时域任务中,促进技能转移和任务成功。
本研究提出了一种双时域通道注意力机制(DTA),旨在解决脉冲神经网络在时间信息利用方面的挑战。实验结果表明,DTA在静态和动态数据集上表现优异,增强了脉冲表示与时间通道关系的捕获能力。
清华大学研究团队提出了轻量级语音分离模型TIGER,结合时频交叉建模和频带切分策略,显著提升了语音分离效果。新数据集EchoSet更真实地模拟了复杂声学环境,实验结果表明TIGER在性能和效率上优于现有模型。
本研究提出了一种新的有限时域非折扣约束的梯度估计方法(GBE),并基于此开发了CGPO方法,从而有效提升了安全策略更新的效率和可行性。
本研究提出了一种分层多智能体强化学习框架,解决了四足机器人在长时域内的障碍物感知问题。实验结果表明,成功率提高了36.0%,完成时间缩短了24.5%。
该研究首次提出了有限时间全局收敛分析方法,针对无限时间平均奖励马尔可夫决策过程中的策略梯度方法。研究证明策略梯度迭代以O(log(T))速率收敛到最优策略,并提供了后悔度保证。主要贡献在于证明算法的收敛性和性能保证,并通过模拟验证了其性能。
本研究解决了神经网络解释机制不透明的问题,提出了LMAC-TD,一种在时域直接生成解释的后处理方法。该方法通过结合SepFormer架构,显著提高了解释的音频质量,同时保持了解释的真实性。
本研究提出了级联时域更新网络(CTUN),用于提高视频超分辨率方法的模型效率。CTUN通过级联对齐模块和单向传播更新网络,高效提取和利用时序信息,减少推理时间,同时保持性能。实验证明,CTUN仅使用30%的参数和运行时间,却能获得更好的效果。
该研究介绍了一种基于提示生成视频的方法,通过训练视频模型,利用低质量视频和合成高质量图像,成功生成高质量的视频。评估结果显示该方法在图片质量、动作和概念组合方面表现出优越性。
动态链接预测是对演化网络进行分析的关键任务,研究范围从推荐系统到经济交易。研究发现,恰当选择的时间感知域可以显著提高模型性能,但过大的窗口可能会引入噪音并降低准确性。进行了大量的基准测试来验证发现。
本文提出了一种改善视频描述生成的方法,通过建模视频帧和描述概念之间的高阶交互。该方法通过存储先前的视觉注意力,在已经看过和描述过的内容的基础上进行描述。评估结果表明,该方法优于以前的视频描述方法。
为了捕捉局部和全局依赖关系,我们在频域和时域中引入了频域与时域混合器 (FTMixer) 来表示时间序列数据,通过频率通道卷积模块 (FCC) 和窗口频率卷积模块 (WFC) 来分别捕捉全局和局部依赖关系。同时,采用独立通道方案混合时域和频域补丁以更好地捕捉局部依赖关系。通过七个真实世界的长期时间序列数据集的广泛实验结果表明,FTMixer 在预测性能和计算效率方面具有优势。
本文提出了使用图神经网络进行视频和文本信息的语义对齐,解决语言查询相关的时间间隔识别问题。通过图匹配层进行跨模态上下文建模和多模态融合,使用VLG-Net匹配视频和查询图,并使用掩码时刻注意力池生成时刻候选项。在三个数据集上展示了优于现有技术水平的性能。
最近,研究提出了一种新的多文本视频生成模型,通过利用预训练的文本到视频转换模型进行生成。该方法包括动态噪声和最后一帧感知反演,以保持视觉一致性并防止重复运动或内容。实验证明该方法在生成输出方面具有出色的一致性和连续性。
本文介绍了一种半监督学习技术,用于生成未标记面部数据的表情类别伪标签,以解决FER数据集的泛化能力问题。通过均匀抽样和去偏反馈学习策略,解决了数据集中的类别不平衡问题和半监督学习中的数据偏差问题。此外,引入了时间编码器来学习和捕捉静态图像之间的临近表情特征的时间关系。在第6届ABAW竞赛中,该方法在官方验证集上取得了优秀的成绩,证实了其有效性和竞争力。
我们开发了一种创新的双路径耦合去雨网络(DPCNet),通过SFEBlock和FFEBlock在空间和频率域中整合信息,并引入了AFM进行双通路径特征聚合。该方法在六个公共去雨基准和下游视觉任务上进行了实验证明,超越了现有的最先进去雨方法,具有鲁棒性和视觉效果。
本文介绍了一种基于transformer-based网络的新框架,用于从EEG信号中获取注意状态。该网络经过训练和验证,在两个公共数据集上表现出比现有模型更好的效果。该框架可应用于评估注意力缺陷多动障碍(ADHD)症状或驾驶评估中的警觉度。
该研究提出了一种新方法,使用双条件生成对抗网络和改进的Pix2Pix架构来生成期望时间戳处的SAR数据。该方法还使用了注意力机制,提高了模型性能。研究为光学数据在SAR领域和时间分析中的应用提供了可能性,并提供了代码和数据资源。
完成下面两步后,将自动完成登录并继续当前操作。