本研究提出了Think-J方法,旨在提升生成式语言模型(LLMs)在评判生成响应方面的能力。该方法结合有限数据和强化学习,显著提高了评估能力,超越了现有评判方法,无需额外人类注释。
本研究提出了一种新框架,能够有效检测深度学习中的后门攻击,尤其在数据有限的情况下。该框架通过推理搜索生成候选触发器,优化攻击成功率,成功识别多种模型和数据集中的后门攻击,表现接近完美。
本文提出了一种从有限数据学习哈密顿动力学的方法,通过正则优化重构哈密顿向量场,并要求其为奇数或偶数。使用辛核函数进行修改,模拟验证了该方法在两个哈密顿系统中的有效性,证明所学动力学符合哈密顿性质。
本研究提出了一种新的聚合与适应提示嵌入(AAPE),旨在解决CLIP模型在特定领域分类中的泛化能力不足问题,能够在有限数据下有效适应下游任务。
本文介绍了一种新合奏学习机制,利用多个预训练模型识别视网膜疾病。该方法将模型知识应用于视网膜光学相干断层扫描图像,适合有限标记数据。实验显示,即使数据有限,该方法也能表现出色,适合资源有限的情况。
本文介绍了风险距离的概念,用于量化监督学习问题中的采样偏差、噪声、有限数据和近似等问题的严重性。通过建立距离,探索了监督学习问题空间的几何特征,并提供了两个 Risk 距离的变种。
GENTLE是一种新算法,用于解决有限数据条件下学习可推广任务表征的问题。它利用Task Auto-Encoder来捕捉任务模型的生成结构,并通过构造伪转换来缓解行为多样性有限的影响。实证结果表明,GENTLE方法在分布内和分布外任务上明显优于现有的离线元强化学习方法。
完成下面两步后,将自动完成登录并继续当前操作。