小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI

授权系统设计面临“角色爆炸”问题,RBAC模型在需求变化后难以应对复杂权限管理。本文分析了RBAC、ABAC和ReBAC三种模型的优缺点,强调混合模型的必要性,以适应动态授权和资源级控制的需求。选择合适的模型需考虑组织结构、合规性和性能等因素。

【身份与访问控制工程】RBAC、ABAC、ReBAC:权限模型怎么选

土法炼钢兴趣小组的博客
土法炼钢兴趣小组的博客 · 2026-04-21T00:00:00Z

根据哈佛商业评论,近40%的营销人员难以将营销混合模型(MMM)与商业决策相结合。为此,谷歌推出了Scenario Planner,帮助决策者和数据科学家通过友好的界面实验不同预算场景,实时估算投资回报率,简化分析与规划过程。

新的Meridian工具将营销混合模型(MMM)洞察直接交到营销人员手中。

The Keyword
The Keyword · 2026-02-19T14:00:00Z
技术速递|GitHub Copilot SDK 与混合 AI 实践:README 到 PPT 的自动化转换流程

在快速发展的 AI 环境中,混合模型结合本地小语言模型(SLM)与云端大语言模型(LLM),提供安全高效的 AI 解决方案。借助 Microsoft Foundry Local 和 GitHub Copilot SDK,开发者能够自动生成专业的 PowerPoint 演示文稿,从而提升开发效率并确保隐私与成本优化。

技术速递|GitHub Copilot SDK 与混合 AI 实践:README 到 PPT 的自动化转换流程

dotNET跨平台
dotNET跨平台 · 2026-02-03T23:55:32Z
在AMD GPU上构建混合模型与vLLM-SR

我们正在构建混合模型(MoM)系统,以提升大型语言模型(LLM)的集体智能。核心问题包括捕捉请求与响应信号、优化模型协作和确保系统安全。通过vLLM语义路由器,我们展示了在AMD GPU上实时路由查询的能力,支持多种模型和信号类型。MoM架构通过智能调度和能力匹配,实现高效的AI部署。

在AMD GPU上构建混合模型与vLLM-SR

vLLM Blog
vLLM Blog · 2026-01-23T00:00:00Z
华为发布ICNMaster MDAF解决方案,引入MoM混合模型架构

华为推出ICNMaster MDAF解决方案,满足全球运营商对核心网高稳定性的需求。该方案采用混合模型架构和多智能体协同技术,实现隐患预防、快速故障修复和分钟级业务恢复,确保用户业务连续性。

华为发布ICNMaster MDAF解决方案,引入MoM混合模型架构

全球TMT-美通国际
全球TMT-美通国际 · 2025-12-22T09:00:06Z
基于光电容积描记法的混合模型用于非侵入性监测心血管参数

本文提出了一种混合模型,通过光电容积描记法(PPG)非侵入性监测心血管参数。该模型结合血流动力学模拟和未标记临床数据,能够直接从PPG信号估计心脏生物标志物。实验结果表明,该方法在监测心输出量和搏动量变化方面优于传统监督学习方法,具有重要的临床应用潜力。

基于光电容积描记法的混合模型用于非侵入性监测心血管参数

Apple Machine Learning Research
Apple Machine Learning Research · 2025-12-02T00:00:00Z
OpenCVSharp:使用 MOG(Mixture of Gaussians,高斯混合模型)算法来从视频流中分离前景和背景

本文介绍了如何使用高斯混合模型(MOG)算法通过OpenCVSharp库从视频流中分离前景和背景,并在WPF界面中展示处理结果。尽管效果一般,但为学习OpenCVSharp奠定了基础。

OpenCVSharp:使用 MOG(Mixture of Gaussians,高斯混合模型)算法来从视频流中分离前景和背景

dotNET跨平台
dotNET跨平台 · 2025-11-16T23:58:53Z
大数据成矿预测系列(二) | 证据权重法如何克服自身局限?

证据权重法(WofE)在成矿预测中存在理论缺陷,特别是证据层之间的条件独立性假设不成立,导致系统性偏倚和虚假精确感。为解决这些问题,研究者提出了模糊证据权重法、序列证据权重法和混合模型等改进方法,以提高预测的准确性和适用性。然而,WofE仍面临对已知矿床样本依赖等挑战。

大数据成矿预测系列(二) | 证据权重法如何克服自身局限?

Seraphineの小窝
Seraphineの小窝 · 2025-10-01T10:01:16Z
MoMoE:内存优化的专家混合模型

MoMoE(内存优化的专家混合模型)通过结合Triton内核和优化内存布局,显著提高了混合专家模型的训练和推理速度及内存效率。与现有开源实现相比,MoMoE在前向和反向传递中具有更高的吞吐量和更低的内存消耗,适合大规模训练和推理。该实现允许用户灵活选择内存与计算的权衡,推动了专家混合模型的高效应用。

MoMoE:内存优化的专家混合模型

Nathan Chen
Nathan Chen · 2025-07-25T00:00:00Z
NVIDIA AI 发布 Canary-Qwen-2.5B:一款先进的 ASR-LLM 混合模型,在 OpenASR 排行榜上拥有 SoTA 性能

NVIDIA发布了Canary-Qwen-2.5B模型,词错率为5.63%,在Hugging Face OpenASR中排名第一。该模型结合了自动语音识别和语言模型,支持音频摘要和问答,适用于多个行业,具有商业和开源特性。

NVIDIA AI 发布 Canary-Qwen-2.5B:一款先进的 ASR-LLM 混合模型,在 OpenASR 排行榜上拥有 SoTA 性能

实时互动网
实时互动网 · 2025-07-18T02:25:48Z

Mamba探讨了状态空间模型(SSMs)与Transformer的优劣,指出Attention并非万能,SSMs在处理长序列信息时更具优势。Mamba在同规模下超越Transformer,强调混合模型的潜力,未来可能结合两者优势开发新架构。

Mamba一作预告新架构!长文论述Transformer≠最终解法

量子位
量子位 · 2025-07-09T05:14:41Z
生成性人工智能与灵活消费模型重塑混合存储基础设施

生成性人工智能(GenAI)在各行业迅速发展,市场规模预计将达到627.2亿美元。企业关注如何高效利用GenAI,降低电力和GPU消耗,并采用灵活的订阅模式以节省成本。实施混合灵活模型需评估AI需求、工作负载变化及数据存储安全性,以优化性能和可持续性。

生成性人工智能与灵活消费模型重塑混合存储基础设施

The New Stack
The New Stack · 2025-06-13T19:00:57Z

本研究提出了一种新的竞争机制CompeteSMoE,旨在解决稀疏专家混合模型训练中的路由子优化问题。通过理论分析和实证评估,CompeteSMoE在视觉指令调优和语言预训练任务中表现出较低的训练开销和强大的性能,展现了有效性、鲁棒性和可扩展性。

Statistical Guarantees for Competitive Mixture of Experts Training

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-05-19T00:00:00Z

本研究提出了一种隐私感知无线协作专家混合模型(PWC-MoE),旨在解决带宽受限环境中大型语言模型的隐私保护与性能矛盾。该模型通过动态路由敏感与非敏感数据,并结合负载均衡机制,有效平衡计算成本、性能和隐私保护。实验结果表明,该框架在保护隐私的同时,能够在带宽有限的情况下保持高性能,具有实用潜力。

Privacy-Aware Wireless Collaborative Mixture of Experts

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-05-13T00:00:00Z

本研究提出了一种新的离散时间高斯过程混合模型(MiDiGap),用于机器人策略学习。该模型仅需五个演示和摄像头观察即可快速学习,在多项复杂任务中表现出色,显著提高了策略成功率和样本效率,具有重要的实用价值。

The Unreasonable Effectiveness of Discrete-Time Gaussian Process Mixtures in Robot Policy Learning

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-05-06T00:00:00Z

本研究提出了一种非竞争博弈方法,克服了黑箱生成AI环境中构建专家混合模型的局限性。通过反馈机制,我们的“专有联合学习”算法显著提升了时间序列预测的准确性。

基于黑箱编码器的专有代理混合模型的在线联合学习

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-04-30T00:00:00Z

本研究探讨了利用人工智能个性化预测阿尔茨海默病进展的方法,评估了多种AI技术,并提出应对数据限制的策略及未来研究方向,如混合模型和联邦学习,以推动临床工具的开发。

Artificial Intelligence for Personalized Prediction of Alzheimer's Disease Progression: A Survey of Methods, Data Challenges, and Future Directions

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-04-29T00:00:00Z
演讲:从“简单”微调到使用开源模型构建您自己的专家混合模型

本次会议分享了创建大型语言模型的经验,强调理解目标的重要性。建议使用Mistral和LoRA技术以降低训练成本,并介绍模型合并和专家混合等方法。强调训练需谨慎,避免过拟合,同时提供多模态模型和语音克隆的信息。最后讨论了性能优化和成本控制策略。

演讲:从“简单”微调到使用开源模型构建您自己的专家混合模型

InfoQ
InfoQ · 2025-04-23T08:07:00Z

本研究解决了稀疏专家混合模型(MoE)预训练中反向更新稀疏导致的不稳定性和性能低下问题。提出了一种名为“默认MoE”的轻量级近似方法,使得MoE路由器可以接收稠密的梯度更新,从而显著提升训练性能。该方法在不增加显著计算开销的情况下,超越了传统的TopK路由方法。

稠密反向传播提升稀疏专家混合模型的训练

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-04-16T00:00:00Z
为什么单线程架构仍然重要

线程模型经历了从单线程到多线程和并行执行的演变。尽管多线程在高性能应用中至关重要,单线程架构因其简单性和维护性在现代分布式系统中仍然重要。混合模型结合了单线程和工作线程,以优化性能。

为什么单线程架构仍然重要

DEV Community
DEV Community · 2025-04-02T21:28:08Z
  • <<
  • <
  • 1 (current)
  • 2
  • 3
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码