小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI
大规模识别大型语言模型中的交互

理解大型语言模型等复杂机器学习系统的行为是现代人工智能的一大挑战。可解释性研究旨在提高决策过程的透明度,采用特征归因、数据归因和机制可解释性等方法分析模型行为。然而,特征和数据量的增加使分析变得更加复杂。SPEX和ProxySPEX算法通过消融技术有效识别关键交互,推动了可解释性研究的发展。

大规模识别大型语言模型中的交互

The Berkeley Artificial Intelligence Research Blog
The Berkeley Artificial Intelligence Research Blog · 2026-03-13T09:00:00Z
提高人工智能模型解释其预测能力

麻省理工学院研究人员开发了一种新方法,利用深度学习模型提取概念,以提高计算机视觉模型的准确性和可解释性。该方法通过限制使用的概念数量,确保选择最相关的概念,从而提供更清晰的解释。研究表明,该方法在鸟类识别和医学图像分析中优于传统模型,推动了可解释人工智能的发展。

提高人工智能模型解释其预测能力

MIT News - Artificial intelligence
MIT News - Artificial intelligence · 2026-03-09T04:00:00Z
QCon AI Boston早期议程聚焦于生产AI背后的工程工作

随着团队从AI试点转向生产系统,QCon AI Boston的议程聚焦于在真实操作条件下构建可靠、安全的AI系统,讨论了工程、可解释性和知识图谱等主题,强调建立信任的生产环境。

QCon AI Boston早期议程聚焦于生产AI背后的工程工作

InfoQ
InfoQ · 2026-03-05T11:00:00Z
计算机使用代理的用户体验设计空间映射

本文探讨了计算机使用代理的用户体验设计。研究分为两个阶段:第一阶段通过文献回顾和访谈建立了用户体验考虑的分类法,包括用户提示、可解释性和用户控制等;第二阶段通过模拟研究验证了分类法,并深入了解设计与用户需求之间的联系。这些发现为开发者提供了设计框架。

计算机使用代理的用户体验设计空间映射

Apple Machine Learning Research
Apple Machine Learning Research · 2026-02-12T00:00:00Z
揭秘 AI 推理:OpenAI 稀疏模型让神经网络首次透明化;Calories Burnt Prediction:为健身模型注入精准能量数据

近年来,大语言模型取得显著进展,但其决策过程仍不易理解。OpenAI推出的Circuit Sparsity模型通过电路稀疏技术,使AI推理过程透明可追溯,解决了黑箱问题。该模型采用动态剪枝和激活稀疏化等方法,提升了可解释性和效率。

揭秘 AI 推理:OpenAI 稀疏模型让神经网络首次透明化;Calories Burnt Prediction:为健身模型注入精准能量数据

HyperAI超神经
HyperAI超神经 · 2026-01-14T15:16:53Z

刘子鸣将于2023年9月加入清华大学人工智能学院担任助理教授,研究领域为物理学与人工智能的交叉。他提出的KAN网络提升了神经网络的可解释性。刘子鸣在MIT攻读博士期间与Max Tegmark合作,KAN的设计基于Kolmogorov-Arnold定理,受到广泛关注。

KAN一作刘子鸣回国任教,清华官网盖章认证了

量子位
量子位 · 2026-01-12T07:53:29Z

刘子鸣将于2023年9月加入清华大学人工智能学院担任助理教授,研究重点为KAN(Kolmogorov-Arnold Networks),该模型在神经网络可解释性方面优于传统多层感知机(MLP)。他在MIT攻读博士期间与Max Tegmark合作,致力于提升神经网络的可解释性,研究风格结合理论与实验,关注科学与人工智能的交叉领域。

KAN一作刘子鸣回国任教,清华官网盖章认证了

量子位
量子位 · 2026-01-12T06:37:27Z
5个用于高级时间序列预测的Python库

时间序列预测是分析的重要环节,通过历史数据预测未来值。Python生态系统提供了多种强大的库,如Statsmodels、Sktime、Darts、PyTorch Forecasting和GluonTS,适用于不同的数据特征和需求。选择合适的工具时需考虑可解释性、训练速度和数据规模。

5个用于高级时间序列预测的Python库

MachineLearningMastery.com
MachineLearningMastery.com · 2025-12-29T11:00:23Z

AI Agent正在各行业逐步应用,但面临技术、产品和商业模式的挑战。专家讨论了Agent的可控性、可解释性和执行能力,强调需解决负毛利问题。未来,Agent需在物理世界中实现更广泛的应用,以提升用户体验和价值。

是个公司都在用AI Agent,但大家真的用明白了吗| MEET2026圆桌论坛

量子位
量子位 · 2025-12-17T05:10:56Z

OpenAI开源的新模型采用Circuit Sparsity技术,使99.9%的权重为零,提升了模型的可解释性。通过严格的连接约束,简化了计算过程,解决了传统模型的黑箱问题。尽管计算成本较高,但未来有望实现更复杂的推理。

OpenAI突然开源新模型!99.9%的权重是0,新稀疏性方法代替MoE

量子位
量子位 · 2025-12-14T06:27:09Z
2026年值得关注的五种前沿AutoML技术

本文探讨了五种前沿AutoML技术和趋势,预计将在2026年推动机器学习模型的高度自动化。这些趋势包括生成性AI的融合、上下文感知的AutoML 3.0、联邦与边缘AutoML、可解释透明的AutoML,以及以人为中心的实时自适应AutoML,旨在提升模型开发的效率与灵活性。

2026年值得关注的五种前沿AutoML技术

KDnuggets
KDnuggets · 2025-12-09T13:00:07Z
Shapash - 生成交互式视觉报告以解释机器学习模型的预测

Shapash是一个开源工具包,旨在通过交互式视觉报告向非技术受众解释机器学习模型的预测。它兼容常见的Python ML库,支持生成可分享的报告,适用于金融风险和信用评分等场景,促进数据科学家与业务团队的沟通。

Shapash - 生成交互式视觉报告以解释机器学习模型的预测

云原生
云原生 · 2025-12-08T13:29:03Z
大型语言模型中的新兴内省意识

研究表明,大型语言模型(LLMs)具备一定的内省能力,能够识别和报告内部激活。Claude系列模型的实验显示,它们在约20%的情况下能正确识别“注入思想”,并区分输入与内部思维。这一发现为理解LLMs的可解释性提供了重要线索。

大型语言模型中的新兴内省意识

KDnuggets
KDnuggets · 2025-12-04T15:00:25Z
通过稀疏电路理解神经网络

神经网络是现代AI系统的核心,但理解其工作原理较为困难。可解释性方法帮助我们理解模型输出的原因。机械可解释性通过逆向工程模型计算,尽管复杂,但能提供更全面的解释。通过训练稀疏模型,我们发现可以简化模型内部计算,使其更易于理解。未来,我们希望扩展这些技术,以更好地解释大型模型的行为。

通过稀疏电路理解神经网络

OpenAI
OpenAI · 2025-11-13T10:00:00Z
功能齐全的下载管理器:界面美观、下载神速 | 开源日报 No.787

solid_queue 是高性能数据库后端,支持多种作业排队和处理,兼容多种 SQL 数据库。awesome-llm-interpretability 提供 LLM 可解释性资源,包括工具和论文。Vary 扩展视觉语言模型,支持多语言文档处理。Motrix 是全面的下载管理器,支持多种下载协议。docker-easyconnect 使 VPN 软件在 Docker 中运行。

功能齐全的下载管理器:界面美观、下载神速 | 开源日报 No.787

开源服务指南
开源服务指南 · 2025-11-12T07:35:14Z
专家级特征工程:高风险模型的高级技术

本文介绍了三种高级特征工程策略:反事实特征、领域约束表示和因果不变特征,旨在构建稳健且可解释的高风险模型,适用于金融和医疗等关键领域。

专家级特征工程:高风险模型的高级技术

MachineLearningMastery.com
MachineLearningMastery.com · 2025-11-11T11:00:09Z
ExpertLens:激活引导特征具有高度可解释性

本文探讨了激活引导方法在大型语言模型中的应用,旨在通过识别特定概念的神经元来增强生成语言的可解释性。研究表明,ExpertLens能够稳定捕捉模型表示,并与人类行为数据高度一致,超越传统的词/句嵌入对齐方式,显示出其作为分析模型表示的灵活性和轻量性。

ExpertLens:激活引导特征具有高度可解释性

Apple Machine Learning Research
Apple Machine Learning Research · 2025-11-07T00:00:00Z
每位大型语言模型工程师必读的5本免费书籍

本文推荐了五本关于大型语言模型(LLMs)的免费书籍,涵盖基础知识、自然语言处理、系统视角、可解释性和网络安全,适合希望深入了解LLMs的读者。

每位大型语言模型工程师必读的5本免费书籍

KDnuggets
KDnuggets · 2025-11-05T13:00:30Z

数学推理正成为人工智能的重要研究方向,机器逐渐掌握逻辑推演和多步思考。高质量、结构化的数据集对模型推理能力至关重要,数据集的多样性和可解释性是推动人工智能向“可解释智能”发展的关键特征。

7大数学推理数据集汇总,覆盖算术推理/符号逻辑/视觉数学/几何分析

HyperAI超神经
HyperAI超神经 · 2025-10-21T05:55:30Z
研究人员推出ACE框架,用于自我改进大型语言模型的上下文

斯坦福大学、SambaNova系统和加州大学伯克利分校的研究人员提出了Agentic Context Engineering(ACE)框架,旨在通过不断演变的结构化上下文改进大型语言模型(LLMs),无需重训练。ACE通过生成、反思和策展三个组件进行局部更新,保持先前知识。评估结果显示,ACE在多个任务中表现优异,准确率超过以往方法,适用于金融和医疗等领域,支持持续学习和可解释性。

研究人员推出ACE框架,用于自我改进大型语言模型的上下文

InfoQ
InfoQ · 2025-10-18T06:00:00Z
  • <<
  • <
  • 1 (current)
  • 2
  • 3
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
友情链接: MOGE.AI 九胧科技 模力方舟 Gitee AI 菜鸟教程 Remio.AI DeekSeek连连 53AI 神龙海外代理IP IPIPGO全球代理IP 东波哥的博客 匡优考试在线考试系统 开源服务指南 蓝莺IM Solo 独立开发者社区 AI酷站导航 极客Fun 我爱水煮鱼 周报生成器 He3.app 简单简历 白鲸出海 T沙龙 职友集 TechParty 蟒周刊 Best AI Music Generator

小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码