小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI

大型语言模型(LLMs)具有良好的推理能力,但其决策过程不透明,导致异常时难以追踪原因。去年,我们推出了Gemma Scope工具包,以帮助研究人员理解Gemma 2的内部机制。

Gemma Scope 2:帮助人工智能安全社区加深对复杂语言模型行为的理解

Google DeepMind Blog
Google DeepMind Blog · 2025-12-16T10:14:24Z

本研究探讨思维链令牌(CoT)在大型语言模型中的作用,尤其是在复杂推理任务中的表现。研究表明,仅保留中间结果的令牌可以实现类似的性能,表明CoT令牌类似于计算机程序中的变量,为理解大型语言模型的内部机制提供了新的视角。

Chain-of-Thought Tokens as Computer Program Variables

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-05-08T00:00:00Z

本研究探讨大型语言模型(LLMs)如何处理文本位置,发现其注意力日志与位置相关性及语义重要性之间存在高度线性关系,为理解LLMs的内部机制提供了理论基础。

大型语言模型位置泛化的计算机制

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-03-17T00:00:00Z

本研究分析了BERT的内部机制,特别是其在不同层次上聚类叙事内容和作者风格的能力。结果表明,BERT在后层更侧重于语义内容,而非风格特征,这为理解其语言信息编码提供了重要见解。

探索大型语言模型中的叙事聚类:对BERT的层次分析

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-01-14T00:00:00Z

本研究提出了一种模型无关的可解释性管道,通过诊断分类器分析图神经网络(GNN)的表示,增强了对GNN内部机制的理解与信任。

Do the states of Graph Neural Networks contain graph attributes?

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-11-04T00:00:00Z

该研究介绍了使用可解释的人工智能(XAI)的智能系统(CL-XAI)用于认知学习的研究。通过探索人类学习者如何理解使用XAI工具的人工智能模型的内部机制,并通过人类反馈评估这些工具的有效性。使用CL-XAI在一个基于游戏的虚拟案例中说明了其应用,突出了认知学习和协同学习中的潜在进展。

拓展认知学习的增强性与可解释性人工智能

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2023-12-19T00:00:00Z
  • <<
  • <
  • 1 (current)
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
友情链接: MOGE.AI 九胧科技 模力方舟 Gitee AI 菜鸟教程 Remio.AI DeekSeek连连 53AI 神龙海外代理IP IPIPGO全球代理IP 东波哥的博客 匡优考试在线考试系统 开源服务指南 蓝莺IM Solo 独立开发者社区 AI酷站导航 极客Fun 我爱水煮鱼 周报生成器 He3.app 简单简历 白鲸出海 T沙龙 职友集 TechParty 蟒周刊 Best AI Music Generator

小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码