小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI
深度解读《AI 智能体的上下文工程》:构建高效 Agent 的七个宝贵教训

本文总结了Manus团队在AI智能体开发中的经验,强调上下文工程的重要性,并提出了优化Prompt缓存、固定工具列表、利用外部文件、复述任务列表、纠错机制及警惕少样本学习陷阱等实用建议。

深度解读《AI 智能体的上下文工程》:构建高效 Agent 的七个宝贵教训

宝玉的分享
宝玉的分享 · 2025-07-20T23:36:16Z

GCoT是首个针对无文本图数据的思维链提示学习框架,通过逐步推断机制在八个数据集上显著提升了节点分类和图分类的效果,尤其在少样本学习中表现突出,拓展了图学习的推理方式。

8个数据集全面胜出!思维链推理刷新图学习表现上限

量子位
量子位 · 2025-06-08T08:01:45Z

本研究提出了一种新方法“脑环监督”,通过脑信号提升深度神经网络在抽象概念理解和推理能力上的表现。实验结果表明,该方法在少样本学习和分布外识别任务中显著提高了模型性能,并生成了可解释的概念表示,推动了大型模型向人类认知能力的进展。

Human-like Cognitive Generalization for Large Models via Brain-in-the-loop Supervision

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-05-14T00:00:00Z

本研究提出了一种生成预训练自回归扩散变换器(GPDiT),旨在解决长距离视频合成建模问题,提升生成质量和运动动态建模,展现出在视频生成和少样本学习中的优异表现。

生成预训练自回归扩散变换器

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-05-12T00:00:00Z

本研究提出了一种新的少样本类增量学习(FSCIL)方法,旨在解决深度学习在动态环境中的适应性不足和对大量训练数据的依赖。该方法通过为每个学习阶段开发独立模型,有效防止灾难性遗忘,并在CIFAR-100和mini-ImageNet数据集上取得了优异表现。

Few-Shot Class-Incremental Learning Inspired by Partitioned Memory Storage

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-04-29T00:00:00Z

本研究提出了CoRAG框架,以解决知识密集型任务中的少样本学习问题。实验结果表明,CoRAG在低资源环境下优于传统方法,并揭示了共享通道中段落对模型性能的影响。

CoRAG:协作检索增强生成

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-04-02T00:00:00Z

本研究提出了一种少样本提示学习框架FSMisD,旨在提高视觉语言模型在动态数据集中的误分类检测效率和有效性。实验结果表明,该方法在多个数据集上具有显著的有效性和普适性。

A Vision-Language Model for Efficient and General-Purpose Few-Shot Misclassification Detection

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-03-26T00:00:00Z

本研究提出了一种知识图谱增强的生成多模态模型(KG-GMM),旨在解决计算机视觉中的灾难性遗忘问题。该模型通过构建演化的知识图谱,利用类标关系增强模型的区分能力。实验结果表明,该方法在类别增量学习和少样本学习中表现优异,有效保持知识。

Knowledge Graph Enhanced Generative Multi-modal Models for Class-Incremental Learning

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-03-24T00:00:00Z

本文提出了一种名为SCAM-Net的新方法,旨在解决少样本图像分类中的监督崩溃问题。该方法借鉴人类互补学习系统,能够在有限样本中快速捕捉和整合语义特征。实验结果表明,该模型在多个基准数据集上表现优异,有望提升少样本学习效果。

Application of Brain-Inspired Adaptive Memory Dual Network in Few-Shot Image Classification

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-03-10T00:00:00Z
在Vertex AI上实现Gemini的少样本学习

近年来,谷歌的生成式AI技术通过Vertex AI和Gemini模型改变了机器学习的互动方式。少样本学习使模型能够在数据稀缺的情况下快速适应任务。本文探讨了如何在Vertex AI上使用Gemini实现少样本学习,包括环境配置和有效提示的创建。

在Vertex AI上实现Gemini的少样本学习

DEV Community
DEV Community · 2025-02-28T21:49:26Z

本研究探讨如何利用大型语言模型(LLM)知识训练较小的下游模型,特别是在表格数据学习中。我们提出了一种新方法,通过引入归因匹配正则化项,将LLM的全局任务特征融入小型网络训练,显著提升少样本学习性能,且易于集成,计算开销小。

Large Language Models as Attribution Regularizers for Efficient Model Training

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-02-27T00:00:00Z

本研究探讨了大型语言模型在上下文学习中的机制,发现功能向量头主导少样本学习性能,而归纳头则促进功能向量机制的学习,为理解语言模型的学习机制提供了新视角。

哪些注意力头对于上下文学习至关重要?

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-02-19T00:00:00Z

本研究提出UniMatch框架,结合层次匹配与元学习,解决药物发现中的少样本学习问题,显著提升模型准确性。

UniMatch: A Universal Matching Framework from Atoms to Tasks for Few-Shot Drug Discovery

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-02-18T00:00:00Z

本研究评估了20种语言模型在新闻摘要任务中的表现,发现小模型在少样本学习中效果不佳。GPT-3.5-Turbo和GPT-4表现优异,部分公共模型也具备竞争力。

揭示语言模型在新闻摘要中的能力

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-01-30T00:00:00Z

该研究提出了一种可控遗忘机制,解决了少样本类增量学习中适应新类别与保持原有类别性能的矛盾。通过新类别检测规则(NCD),该机制显著提高了新类别的准确率,并有效控制了原有类别的遗忘率。

Application of Controllable Forgetting Mechanism in Few-Shot Class-Incremental Learning

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-01-27T00:00:00Z

本研究提出了一种基于影响函数的数据归因评估框架,旨在解决元学习在少样本学习中的训练数据问题,从而提高训练效率和可扩展性。

Evaluating Data Influence in Meta-Learning

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-01-27T00:00:00Z

本文提出了持续知识保护分解框架(CKPD-FSCIL),旨在解决少样本类增量学习中的灾难性遗忘问题。该框架通过将模型权重分解为知识敏感组件和冗余容量组件,既能适应新能力,又能有效保护已有知识。实验结果表明,CKPD-FSCIL在多个基准测试中优于现有方法。

Continuous Knowledge-Preserving Decomposition for Few-Shot Continual Learning

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-01-09T00:00:00Z

本研究提出了一种量身定制坐标系统(TCS)方法,旨在解决知识蒸馏中对大量教师模型的依赖问题。通过自监督学习预训练模型,TCS显著提高了知识蒸馏和少样本学习的准确度,同时减少了训练时间和GPU内存成本。

All You Need in Knowledge Distillation Is a Tailored Coordinate System

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-12-12T00:00:00Z

本文探讨了自然语言推理(NLI)任务中的新方法,包括使用LSTM模型生成蕴含句子、数据增强和迁移学习。研究表明,生成多样化的合成数据和引入人工解释能显著提升模型性能,尤其在少样本和无监督学习中。强调了多样化语言表达对NLI模型发展的重要性。

先生成,再生成用于训练:UnitedSynT5在少量样本自然语言推理中的应用

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-12-12T00:00:00Z

本研究提出了一种自适应对抗风格扰动方法SVasP,旨在解决跨领域少样本学习中的梯度不稳定和局部优化问题。通过多样化输入和聚合样本风格梯度,显著提升了模型的迁移能力,实验结果表明该方法在多个数据集上超越了现有技术。

Cross-Domain Few-Shot Learning with Adaptive Adversarial Style Perturbation

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-12-12T00:00:00Z
  • <<
  • <
  • 1 (current)
  • 2
  • 3
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码