小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI
小米大模型 MiMo-V2 再限免 1 周:继续给 OpenClaw 用户白嫖

小米在 OpenRouter 上限免提供 MiMo-V2-Pro 和 MiMo-V2-Omni 两款大模型,支持 OpenClaw,用户可免费使用一周。MiMo-V2 拥有超过 1T 参数,全球排名第八。注册需输入邮箱和密码,获取 API Key 后可在 OpenClaw 中配置使用。

小米大模型 MiMo-V2 再限免 1 周:继续给 OpenClaw 用户白嫖

小众软件
小众软件 · 2026-03-26T08:27:31Z

Tejas Networks与NEC Corporation签署协议,合作制造和供应5G大规模MIMO无线电,旨在深化合作并实现供应链多元化。

Tejas Networks将为NEC制造并供应5G大规模MIMO无线电

全球TMT-美通国际
全球TMT-美通国际 · 2026-02-27T05:46:46Z

小米MiMo团队推出HySparse混合稀疏注意力架构,显著降低KV Cache的存储和计算开销,提升超长上下文建模效率。通过将“选择”和“缓存”交给Full Attention层,HySparse实现了高效的长距离信息访问,实验结果显示其在多项任务中表现优异。

小米给KV Cache减负80%!MiMo团队推出混合稀疏注意力架构

量子位
量子位 · 2026-02-07T10:47:34Z
解密小米MiMo-VL:7B小模型如何实现多模态SOTA性能

小米发布了MiMo-VL-7B视觉语言模型技术报告,展示其在多模态任务中的优异表现,尤其是在复杂推理和GUI交互方面。该模型采用三模块架构,经过四阶段预训练,并结合混合强化学习,显著提升了推理深度和用户体验。开源生态包括完整权重和评测框架,为开源社区树立了新标杆。

解密小米MiMo-VL:7B小模型如何实现多模态SOTA性能

我爱自然语言处理
我爱自然语言处理 · 2025-05-30T07:13:14Z

本研究提出了MiMo-7B模型,通过优化预训练和后训练阶段,显著提升了推理能力和任务性能,超越了更大模型。

MiMo: Unlocking the Reasoning Potential of Language Models - From Pre-training to Fine-tuning

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-05-12T00:00:00Z
小米MiMo-7B技术报告深度解读:如何打造面向推理的高效大模型?

小米LLM-Core团队发布了MiMo-7B技术报告,介绍了一种专为复杂推理任务设计的大语言模型。该模型在数学和编程任务中表现优异,采用两阶段优化策略,结合数据优化与强化学习,显著提升推理能力。模型已开源,旨在推动社区研究,未来将关注多领域性能及多语言支持的平衡。

小米MiMo-7B技术报告深度解读:如何打造面向推理的高效大模型?

我爱自然语言处理
我爱自然语言处理 · 2025-04-30T06:48:47Z

本文提出了一种基于深度学习的上行辅助联合信道估计和CSI反馈方法,旨在提高频分双工MIMO无线通信系统中下行信道状态信息的获取准确性。

Uplink-Assisted Joint Channel Estimation and CSI Feedback: A Method Based on Deep Joint Source-Channel Coding

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-04-15T00:00:00Z
开源WiFi平台支持基于GNU Radio的高级MIMO研究

GR-WiFi是基于GNU Radio的WiFi平台,支持单用户和多用户MIMO功能,符合IEEE 802.11n/ac标准,允许实时调整和监控网络设置。

开源WiFi平台支持基于GNU Radio的高级MIMO研究

DEV Community
DEV Community · 2025-01-14T09:46:18Z

本研究解决了大规模MIMO系统中信道状态信息预测的关键问题。提出了一种名为BERT4MIMO的基础模型,利用深度学习和注意力机制,能够在不同的移动场景和信道条件下有效重构CSI。实验结果表明,该模型在各种无线环境中具有优越的性能,能够显著提升通信系统的效率。

基于BERT架构的MIMO大规模信道状态信息预测的基础模型BERT4MIMO

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-01-03T00:00:00Z

将人工智能和机器学习整合到空中接口是下一代蜂窝网络的关键。多输入多输出(MIMO)技术在网络中至关重要。AI/ML工具用于解决MIMO挑战,实现AI驱动的空中接口。次毫秒级别的MIMO操作需要在线实时AI/ML方法。文章探讨了这些挑战,并提出了一种基于AI/ML的MIMO-OFDM信道估计方法。

MAC Revivo:人工智能开辟新路径

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-10-21T00:00:00Z

本研究提出了一种基于转移的对抗性中毒攻击方法,通过注入对抗扰动降低在线接收器在动态信道中的适应能力。实验表明,该攻击显著降低了在线接收器在快速变化场景下的性能。

基于转移的对抗性中毒攻击针对在线(MIMO)深度接收器

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-09-04T00:00:00Z

本研究提出了一种新方法,通过引入递归和重叠栈输出来提高MIMO视频复原网络的输出质量和减少时间不连续性。该方法适用于任何MIMO架构,能够显著提升重建误差和时间一致性,为低延迟网络建立了新基准。

适应低延迟约束的MIMO视频复原网络

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-08-22T00:00:00Z

我们开发了一种利用Gromov-Wasserstein距离的Riemannian框架的实用工具,可用于统计任务和网络数据分析。该工具适用于任意大小和对称性矩阵的空间,并对该空间的切向结构和Fréchet函数的梯度流进行了理论探索。

通过二阶统计分析的MU-MIMO无线用户聚类统计框架

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-08-08T00:00:00Z

在分布式大规模多输入多输出 (MIMO) 架构中,研究了试点辅助的上行信道估计问题。采用基于深度学习的信道估计算法,并探索了该算法对接入点中的自动增益控制器 (AGCs) 和比较器引入的附加信号失真的鲁棒性。通过模拟结果表明,该信道估计方法优于传统方法,并对附加损坏具有鲁棒性。

基于深度学习的分布式 MIMO 及 1 比特光纤前传信道估计

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-06-17T00:00:00Z

我们提出了一种新的多模态视觉理解框架,通过将文本和视觉提示嵌入到统一的表示空间中,并使用稀疏Transformer架构进行生成建模。实验结果表明,我们的模型在多模态管线中表现出与专门模型和上下文学习基准模型相竞争的性能。

基于上下文学习的无细胞多用户 MIMO 均衡

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-04-08T00:00:00Z

本文提出了一种在大规模多输入多输出系统中的通道状态信息反馈方法。该方法利用矢量量化变分自动编码器框架实现有限位表示的潜在矢量,并通过形状增益的矢量量化减少计算复杂性。通过适当的变换函数,将潜在矢量的幅度用非均匀标量码书量化,同时使用可训练的 Grassmann 码书量化潜在矢量的方向。同时,引入码字选取规则和损失函数设计,开发了一种多速率码书设计策略。仿真结果表明,该方法在给定的反馈开销下,减少了计算复杂性,同时改善了通道状态信息重建性能。

基于深度学习的海量 MIMO 系统中的矢量量化 CSI 反馈

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-03-12T00:00:00Z

该研究提出了一种基于联合稀疏模式学习的信道估计方案,适用于大规模MIMO OTFS调制辅助系统。通过利用信道的潜在联合稀疏性,将信道估计问题转化为稀疏恢复问题,并采用先验模型迭代估计信道矩阵的支撑集。实验结果表明,该方案在性能上优于现有基准方案。

基于联合稀疏模式学习的大规模 MIMO-OTFS 系统信道估计

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-03-06T00:00:00Z

提出了一种通用自编码器框架来支持不同的输入大小和多个压缩比,与其他方法相比,在压缩比和失真之间提供了可比较的性能,同时显着降低了硬件复杂性。

MIMO CSI 反馈的通用自编码器框架

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-03-01T00:00:00Z

MIMo是一个用于研究早期认知发展的开源多模态婴儿模型,通过视觉、本体感知和触觉感知来感知环境,并能控制身体。

MIMo: 用于研究认知发展的多模态婴儿模型

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2023-12-07T00:00:00Z

本研究探讨了Transformer模型,尤其是大型语言模型(LLMs)在上下文中学习新任务的能力。实证结果表明,变压器模型在无监督学习和学习不同任务时接近最优,但在超出预训练数据范围的任务上表现不佳,泛化能力有所下降。研究强调了模型的上下文学习能力与预训练数据的关系。

基于 Transformer 序列模型的 MIMO 均衡中的上下文学习

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2023-11-10T00:00:00Z
  • <<
  • <
  • 1 (current)
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码